GenAI im Data-& Analytics-Umfeld
Was heute wirklich funktioniert und was nicht
//
Data & Analytics, Microsoft Power BI
Generative AI gehört derzeit zu den meistdiskutierten Themen im Technologieumfeld. Neue Large Language Models, Agentenarchitekturen und AI gestützte Entwicklungswerkzeuge versprechen enorme Produktivitätsgewinne. Gleichzeitig wächst in vielen Organisationen die Unsicherheit: Welche Anwendungen liefern bereits heute echten Mehrwert und wo handelt es sich noch um experimentelle Technologien?
Gerade im Data-&-Analytics-Bereich ist diese Frage besonders relevant. Datenplattformen, BI-Lösungen und Analytics-Projekte sind zentrale Bausteine moderner Unternehmen. Entsprechend groß ist das Interesse daran, Generative AI sinnvoll in diese Umgebungen zu integrieren. Doch die Praxis zeigt: Zwischen Vision und realer Umsetzung besteht häufig eine erhebliche Lücke.
Einblicke aus der SQL-Konferenz in Hanau
Mit genau dieser Fragestellung beschäftigten sich Marco Nielinger und Felix Möller, Management Consultants bei noventum consulting, auf der SQL Konferenz in Hanau. In ihrem Vortrag „GenAI for Data & Analytics: What’s hot and what’s not?“ analysierten sie aktuelle Entwicklungen im Microsoft-Data-Ökosystem und zeigten anhand konkreter Szenarien, wo Generative AI bereits heute sinnvoll eingesetzt werden kann. Der Vortrag stieß auf großes Interesse in der Community, weil er nicht nur technologische Trends beleuchtete, sondern auch konkrete Erfahrungen aus Data-Analytics-Projekten einbezog. Besonders überzeugend war dabei die Kombination aus realen Projektbeispielen, Live-Demonstrationen und einer sehr klaren Einordnung der aktuellen Möglichkeiten von Generative AI. Im Mittelpunkt standen mehrere praktische Anwendungsszenarien.
Use Case 1: Generierung eines DAX-Statements mit ChatGPT ohne Kontext
Ein sehr anschauliches Einstiegsbeispiel aus dem Vortrag zeigt, wie Large Language Models Entwickler bei typischen Aufgaben im Analytics-Alltag unterstützen können und wo ihre Grenzen liegen. Ausgangspunkt ist eine klassische Situation aus der BI-Praxis. Ein Entwickler arbeitet mit einem SSAS Tabular Datenmodell, das aus zahlreichen Faktentabellen und einer großen Anzahl von Dimensionstabellen besteht. Für einen Paginated Report wird eine DAX-Abfrage benötigt, die Daten aus mehreren Dimensionen mit einer Faktentabelle kombiniert und anschließend für den Report bereitstellt. Der Entwickler formuliert daher folgenden Prompt in ChatGPT:
„Ich bin Consultant für Power BI. Wir verwenden SSAS Tabular und haben dort ein großes Datenmodell mit mehreren Dutzend Fakten und über hundert Dimensionstabellen. Ich möchte jetzt einen Paginated Report auf Basis des SSAS-Datenmodells erzeugen. Dieser soll Daten aus Dimensionen dim_Kunde und dim_Produkt und Fakten der fact_Sales in einer Query bereitstellen. Bitte erzeuge mir eine derartige DAX Query.“
ChatGPT generiert daraufhin tatsächlich eine vollständige DAX-Abfrage. Das Modell erstellt beispielsweise eine Abfrage, die grundsätzlich für einen Reporting-Use-Case geeignet ist. Gerade für Entwickler wird in diesem Moment sehr deutlich, wie schnell generative Modelle heute Code Fragmente erzeugen können. Auf den ersten Blick wirkt das Ergebnis durchaus plausibel. Die generierte Abfrage zeigt typische Muster einer DAX Query und könnte als Grundlage für eine weitere Entwicklung dienen. In der Praxis zeigt sich jedoch schnell die zentrale Einschränkung dieses Ansatzes. ChatGPT kennt das tatsächliche Datenmodell nicht. Die generierte Query basiert lediglich auf Annahmen über mögliche Tabellen- und Spaltennamen. Entsprechend existieren viele der verwendeten Felder im realen Modell gar nicht. Die Abfrage ist damit zwar syntaktisch korrekt, lässt sich jedoch im DAX View von Power BI nicht ausführen, weil die referenzierten Spalten und Tabellen nicht existieren. Das Modell erzeugt also im Grunde ein Template für eine mögliche Query, aber keine tatsächlich lauffähige Implementierung.
Im Vortrag wurde dieses Beispiel bewusst gewählt, um eine zentrale Eigenschaft generativer Modelle zu verdeutlichen: Ohne Kontext liefern Large Language Models oft erstaunlich gute generische Vorschläge. Sie können jedoch nicht wissen, wie das konkrete Datenmodell tatsächlich aufgebaut ist. Die Referenten Felix Möller und Marco Nielinger fassten die Erkenntnis aus diesem Beispiel deshalb klar zusammen:
Generative AI kann bereits ohne Integration sehr hilfreich sein, etwa zum Lernen, für Inspiration oder zum schnellen Erzeugen von Code-Snippets. Für produktive Anwendungen im Data-&-Analytics-Umfeld ist jedoch zusätzlicher Kontext entscheidend. Erst wenn ein Modell Zugriff auf Informationen über Tabellen, Spalten, Beziehungen oder Measures erhält, kann es tatsächlich korrekte und direkt ausführbare Abfragen erzeugen.
Use Case 2: „Chat with your Data“ – eine neue Form der Dateninteraktion
Während sich viele Anwendungsfälle von Generative AI im Data-& Analytics-Umfeld an Entwickler oder Data Engineers richten, adressiert ein anderer Ansatz eine völlig andere Zielgruppe: die Konsumenten von Berichten. Unter dem Begriff „Chat with your Data“ entsteht derzeit eine neue Art der Interaktion mit analytischen Daten. Statt vorgefertigte Reports zu nutzen oder strukturierte Abfragen zu erstellen, können Anwender ihre Fragen direkt in natürlicher Sprache formulieren. Die AI interpretiert diese Anfrage und generiert darauf basierend eine entsprechende Datenanalyse.
Im Vortrag wurde dieses Konzept anhand eines Beispiels im Power BI Service demonstriert. Ein Anwender befindet sich auf der Suche nach Informationen zu den Verkaufszahlen eines Kiosks, weiß jedoch nicht mehr genau, in welchem Workspace oder Bericht sich die relevanten Daten befinden. Anstatt manuell durch verschiedene Reports zu navigieren, formuliert er einfach eine Anfrage an Copilot:
„Ich bin auf der SQL Konferenz in Hanau. Ich suche einen Bericht zu Verkaufszahlen meines Kiosks. Bitte verlinke mir passende Workspaces."
Copilot durchsucht daraufhin die verfügbaren Inhalte und identifiziert den passenden Bericht. Der Anwender gelangt so direkt zu dem relevanten Dashboard. Anschließend kann der Nutzer weitere Fragen stellen. So lässt sich beispielsweise der Inhalt eines Berichts zusammenfassen oder gezielt nach bestimmten Informationen suchen. In der Demonstration wurde etwa gefragt:
„Wie viel Umsatz habe ich mit meiner Kundin Ivonne gemacht? Welche Produkte hat sie gekauft?"
Auf Grundlage des zugrunde liegenden semantischen Modells generiert Copilot entsprechende Visualisierungen der Daten. Der entscheidende Unterschied zu klassischen BI-Interaktionen liegt dabei im Nutzungsmuster. Traditionelle Reports basieren meist auf klar definierten Fragestellungen und strukturierten Abfragen. Sie sind häufig für wiederkehrende Analysen optimiert und folgen einem festen Aufbau.
„Chat with your Data“ hingegen adressiert eine andere Situation: spontane, situative Fragen. Während klassische Reports vor allem strukturierte und wiederkehrende Analysen unterstützen, eignet sich die dialogbasierte Interaktion besonders für explorative und bislang noch unbekannte Fragestellungen. Damit entsteht eine neue Kategorie analytischer Nutzung: Anwender können direkt mit ihren Daten „sprechen“ – ganz ohne erforderliche Vorkenntnisse zu existierenden Berichten, Ad-Hoc-Auswertungstools und zur Verwendung existierenden Modelle. Generative AI fungiert dabei als Übersetzer zwischen natürlicher Sprache und der strukturierten Welt analytischer Datenmodelle. Gleichzeitig zeigte der Vortrag, dass diese Form der Interaktion stark von der Qualität des zugrunde liegenden Datenmodells abhängt. Nur wenn semantische Modelle sauber aufgebaut sind und für die Verwendung von AI vorbereitet wurden, kann die AI zuverlässige Analysen generieren.
MCP-Server verbinden AI-Clients mit der Datenplattform
Damit „Chat with your Data“ in der Praxis funktioniert, müssen Large Language Models Zugriff auf das zugrunde liegende Datenmodell erhalten. Genau hier setzen z.B. die offiziellen Microsoft MCP-Server (Model Context Protocol) für Power BI an. Die Grundidee besteht darin, Sprachmodelle nicht nur mit Textinformationen zu versorgen, sondern ihnen strukturierte Werkzeuge zur Verfügung zu stellen, mit denen sie aktiv auf Datenplattformen zugreifen können. Ein MCP-Server wie z.B. der Power BI Remote MCP Server stellt dabei eine Art Vermittlungsschicht dar: Er bietet Funktionen an, mit denen ein LLM bzw. ein AI-Agent Metadaten des semantischen Modells abrufen, Abfragen generieren und ausführen kann.
Über die bislang gezeigten Funktionalitäten, die mit Copilot for Power BI in die Oberfläche von Power BI integriert sind, sind Fabric IQ und insbesondere Fabric Data Agents der nächste Schritt zu flexibleren Möglichkeiten, welche auf dieser Grundlage basieren. Fabric Data Agents sind eine Low-Code Möglichkeit zur Erstellung von AI-Agenten, mit denen nicht nur semantische Modelle in Power BI sondern auch andere Daten in Fabric (z.B. Lakehouse, Warehouse, SQL Datenbank, Eventhouse, …) nur mit Hilfe natürlicher Sprache ausgewertet werden können.
Neben der Nutzung für „Chat with your data“ durch menschliche Anwender sind die Data Agents als ein zentraler Bestandteil von Fabric IQ auch das Fundament für Agent-2-Agent-Kommunikation und das Zusammenspiel mit Work IQ und Foundry IQ: Fabric Data Agents können von anderen Agenten in m365 Copilot, Copilot Studio und/oder Microsoft Foundry genutzt werden, um Daten auszuwerten. Der Vorteil dabei ist, dass die Definition für Regeln, Anweisungen, Beispielabfragen, etc. für die korrekte Nutzung von existierenden Daten und Modellen nur an einem zentralen Ort definiert und damit nicht für jeden einzelnen Agenten wiederholt werden müssen.
Leider sind Fabric Data Agents mit gewissen Guardrails versehen, die man nicht konfigieren kann. Z.B. führt ein Fabric Data Agent pro Benutzerprompt meist nur eine bzw. sehr wenige Abfragen aus – die Ergebnisse auf einen Prompt, wie „Erstelle mir einen Überblick über den Datenbestand“ sind also meist nicht zufriedenstellend, weil hierfür mehrere Abfragen und Iterationen (und damit mehr Token) erforderlich sind. Ein aus unserer Sicht großer limitierenden Faktor für den produktiven Einsatz von Fabric Data Agents ist aktuell noch die Beschränkung bzw. das „Abschneiden“ auf nur maximal 25 Ergebnis-Zeilen/Spalten der generierten Abfragen, das schnell zu falschen Ergebnissen führen kann.
Wer schon heute flexibler als mit Data Agents auf existierende semantische Modelle zugreifen möchte, kann dies über eigene Agents und Power BI MCP-Server erreichen. Im Vortrag wurde z.B. demonstriert, wie ein AI-Client – beispielsweise in Visual Studio Code oder Claude von Anthropic – über einen entsprechenden MCP-Server mit einem Power-BI-Modell interagiert. Das Sprachmodell selbst übernimmt dabei die Orchestrierung der Analyse: Es interpretiert die Nutzerfrage, entscheidet, welche Informationen benötigt werden und ruft anschließend die passenden Funktionen des MCP-Servers auf. Der MCP-Server führt daraufhin die eigentlichen Aktionen aus, etwa das Auslesen von Metadaten aus einem semantischen Modell oder das Ausführen einer DAX-Abfrage. Die Ergebnisse werden anschließend wieder an das Sprachmodell zurückgegeben, das sie in seine weitere Analyse einbezieht.
Dieser Ansatz hat einen entscheidenden Vorteil: Das Sprachmodell muss das Datenmodell nicht kennen oder trainiert worden sein. Stattdessen kann es sich die benötigten Informationen dynamisch über die bereitgestellten Tools beschaffen. Gleichzeitig entsteht eine flexible Architektur, in der AI-Clients unterschiedlicher Anbieter auf dieselben Datenplattform-Funktionen zugreifen können. Das Modell selbst bleibt austauschbar, während der Zugriff auf Daten, Metadaten und Analysefunktionen über standardisierte Schnittstellen erfolgt. Gerade für Data-Analytics-Umgebungen ist dieser Ansatz besonders relevant. Semantische Modelle, Measures und Beziehungen stellen bereits eine strukturierte Beschreibung der Daten dar. Wenn diese Informationen über MCP-Server zugänglich gemacht werden, kann Generative AI wesentlich präzisere Analysen durchführen als in rein generischen Chat-Umgebungen.
Use Case 3: Generative AI im Entwicklungsworkflow mit GitHub Copilot
Während sich die ersten Anwendungsfälle im Vortrag auf Berichtskonsumenten und Datenanalysen konzentrierten, richtete sich der nächste Abschnitt an eine andere Zielgruppe: Data Engineers. Hier wurde gezeigt, wie Generative AI direkt in Entwicklungsumgebungen eingesetzt werden kann, um typische Aufgaben in Data-Engineering-Projekten zu unterstützen. Im Mittelpunkt der Demonstration stand der Agent Mode von GitHub Copilot in Visual Studio Code. Anders als klassische Copilot-Funktionen, die vor allem beim Schreiben einzelner Codepassagen unterstützen, kann der Agent Mode ganze Codebasen analysieren, Änderungen planen und diese über mehrere Dateien hinweg umsetzen. Anhand mehrerer praktischen Beispiele wurde gezeigt, wie diese Fähigkeiten im Alltag von Data-Engineering-Projekten eingesetzt werden können.
Demo 1: Korrektur einer temporalen Join-Bedingung in ETL-Funktionen
Das erste Beispiel griff ein typisches Wartungsszenario aus Data-Engineering-Projekten auf. In einem Repository existieren zahlreiche Table-Valued Functions, die als Quellen für die Beladung entsprechender Faktentabellen in einemData-Warehouse-Modell dienen. Diese Funktionen enthielten jeweils eine temporale Join-Bedingung auf eine Slowly Changing Dimension, die historische Änderungen von Stammdaten abbildet. Durch eine zu schlecht getestete Anpassung war in dieser SCD allerdings nur noch die letzte gültige Zeitscheibe pro fachliche Schlüssel enthalten. Daher musste sie als schneller Bugfix aus allen betroffenen Funktionen entfernt werden, um auch alte Bewegungsdaten korrekt auf die letzte Zeitscheibe zu mappen. Eine solche Änderung kann in realen Projekten schnell aufwendig werden. Selbst wenn die Funktionen ähnliche Aufgaben erfüllen, unterscheiden sich ihre Implementierungen häufig in Details wie Tabellenalias, Spaltennamen oder Datumsfeldern. Entwickler müssen daher jede Datei einzeln prüfen und anpassen.
In der Demonstration wurde diese Aufgabe stattdessen an einen Copilot-Agenten übergeben. Der Entwickler formulierte eine kurze Beschreibung der gewünschten Änderung und gab dem Agenten Zugriff auf das Repository. Copilot analysierte daraufhin die vorhandenen Funktionen und passte die Stellen an, in denen die temporale Join-Bedingung auf die betroffene Dimension implementiert war. Die Änderungen wurden in der integrierten Git-Diff-Ansicht sichtbar gemacht und konnten dort überprüft werden. Auf diese Weise ließ sich eine Wartungsaufgabe, die normalerweise manuell in ca. 15 Minuten durchgeführt werden müsste, in ca. 5 Minuten automatisiert durch einen Agenten umgesetzt. Bemerkenswert ist weiterhin, dass der Agent alle betroffenen Stellen identifiziert hat, während im manuellen Fall 2 Stellen übersehen wurden.
Demo 2: Analyse eines Power-BI-Modells über einen Modeling MCP Server
In der zweiten Demonstration wurde gezeigt, wie AI-Agenten nicht nur mit Code, sondern auch direkt mit analytischen Datenmodellen arbeiten können. Dazu wurde der Power BI Modeling MCP Server verwendet. Über diesen Server kann ein AI-Agent strukturierte Informationen über ein Power-BI-Modell abrufen und auch direkt bearbeiten. Dazu gehören beispielsweise Tabellenstrukturen, Measures oder Beziehungen zwischen Dimensionen und Fakten.
In der Demo verband sich ein AI-Agent unter Verwendung des Power BI Modeling MCP Servers mit dem semantischen Modell in einer geöffneten Power BI Desktop Instanz. Der Anwender konnte anschließend in natürlicher Sprache das Modell anpassen bzw. erweitern. Im Beispiel wurde gezeigt, wie man neue Measures (z.B. gleitende Durchschnitte) erstellen lassen kann, die dann direkt in Visualisierungen verwendet werden konnten.
Dieses Beispiel verdeutlicht eine wichtige Entwicklung im Umgang mit Generative AI: Sprachmodelle werden durch die Orchestration über AI-Agents erweitert um spezifische Instruktionen, Nutzung unterschiedlichster Tools (z.B. über MCP-Server) und Memory (z.B. ToDo-Listen in GitHub Copilot). Erst das macht die - bereits allein schon erstaunlichen - LLMs zu einem mächtigen Werkzeug, mit dem mehr als nur eine textuelle Ausgabe als Antwort erzeugt werden kann. Im gezeigten Beispiel wird durch dieses Vorgehen das eingesetzte Modell in die Lage versetzt, abhängig vom Benutzerprompt entsprechende Funktionen des MCP-Servers aufzurufen – z.B. um automatisch Metadaten des semantischen Modells auszulesen, neue Measures/Spalten/etc. anzulegen, usw.
Demo 3: Aufbau von GenAI-Kompetenzen verbessert die Identifikation geeigneter Use Cases
Neben den technischen Demonstrationen wurde im Vortrag auch eine Erfahrung aus der Beratungspraxis hervorgehoben. Viele Organisationen beginnen derzeit damit, erste Experimente mit Generative AI durchzuführen. Dabei zeigt sich häufig, dass der eigentliche Mehrwert nicht nur in einzelnen Tools liegt, sondern im Aufbau eines besseren Verständnisses für die Möglichkeiten der Technologie. Je mehr Data Engineers und Analysten mit Generative AI arbeiten, desto klarer wird ihnen, in welchen Situationen diese Werkzeuge tatsächlich hilfreich sind. Mit wachsender Erfahrung entsteht ein besseres Gespür dafür, welche Aufgaben sich für AI-Unterstützung eignen und wo klassische Entwicklungsansätze weiterhin sinnvoller sind. Die Referenten betonten daher, dass der Aufbau von GenAI-Kompetenzen innerhalb von Data-Teams eine wichtige Voraussetzung für erfolgreiche Projekte ist. Erst wenn Teams praktische Erfahrungen mit den neuen Werkzeugen sammeln, können sie realistische und wirkungsvolle Anwendungsfälle identifizieren.
Ausblick: Autonome Agenten und neue Formen der Entwicklung
Die im Vortrag gezeigten Beispiele verdeutlichen, dass Generative AI bereits heute viele Aufgaben im Data-&-Analytics-Umfeld unterstützen kann. Gleichzeitig zeichnen sich bereits die nächsten Entwicklungsschritte ab: autonome Agentensysteme und eine grundlegende Veränderung der Entwicklung.
Agentenbasierte Systeme gehen über klassische Assistenzfunktionen hinaus. Ein AI-Agent kann eine Anfrage interpretieren, einen Lösungsplan entwickeln und anschließend verschiedene Werkzeuge einsetzen, um die Aufgabe Schritt für Schritt zu bearbeiten. Im Data-&-Analytics-Kontext könnte ein solcher Agent beispielsweise ein Datenmodell analysieren, passende DAX- oder SQL-Abfragen generieren, diese ausführen und die Ergebnisse anschließend interpretieren. Technologien wie MCP-Server schaffen dafür eine wichtige Schnittstelle, da sie verschiedene Sprachmodelle mit strukturierten Funktionen verbinden, über die Datenplattformen und Analysewerkzeuge angesprochen werden können. Parallel dazu verändert Generative AI bereits heute die Art, wie Software entwickelt wird. Werkzeuge wie GitHub Copilot, Claude Code, Codex, etc. unterstützen Entwickler beim Schreiben und Anpassen von Code, analysieren bestehende Codebasen und schlagen Änderungen vor. Dadurch verschiebt sich der Schwerpunkt der Arbeit zunehmend vom reinen Schreiben von Code hin zum Entwerfen von Lösungen, zur Formulierung von Anforderungen und zur Bewertung der generierten Vorschläge. Gerade im Data-Engineering-Umfeld, in dem viele Aufgaben aus wiederkehrenden Transformations- und Modellierungsmustern bestehen, kann Generative AI diese Prozesse deutlich beschleunigen. Gleichzeitig bleibt das Verständnis von Datenstrukturen, Geschäftslogik und Systemarchitektur entscheidend. Generative AI unterstützt die Umsetzung, ersetzt jedoch nicht das konzeptionelle Denken hinter einer Lösung. Für Data-Teams bedeutet das: Wer frühzeitig Erfahrungen mit AI-gestützten Werkzeugen sammelt, kann seine Arbeitsweise nachhaltig verändern und neue Produktivitätspotenziale erschließen.
Fazit: Was heute schon funktioniert und was noch nicht
Die Beispiele aus dem Vortrag zeigen deutlich: Generative AI im Data-&-Analytics-Umfeld ist mehr als ein kurzfristiger Technologietrend. Viele Anwendungen liefern bereits heute echten Mehrwert. Gleichzeitig befindet sich ein Teil der Technologie noch in einer frühen Entwicklungsphase.
Was heute bereits gut funktioniert („What’s hot“):
- Chat with your Data ermöglicht eine neue Form der Interaktion mit analytischen Daten.
- AI-gestützte Entwicklungswerkzeuge wie GitHub Copilot unterstützen Entwickler bei Codeanalyse, Wartung und Implementierung.
- Generative AI als „kompetenter Sparringspartner“ beim Entwickeln von Abfragen, Datenmodellen oder Transformationslogiken.
- AI-gestützte Datentransformation und Analyse mit Zugriff auf Kontextinformationen, etwa über semantische Modelle oder MCP-Server.
Diese Beispiele zeigen, dass Generative AI bereits heute besonders dort funktioniert, wo sie bestehende Arbeitsprozesse unterstützt und beschleunigt.
Gleichzeitig gibt es auch Bereiche, die noch Herausforderungen darstellen („What’s not hot“):
- Die menschliche Adaption bleibt ein entscheidender Faktor. Der produktive Einsatz von GenAI erfordert Zeit, Übung und ein realistisches Erwartungsmanagement.
- Governance, Security und Guardrails sind in vielen Organisationen noch nicht ausreichend geklärt.
- Die Tool-Landschaft befindet sich teilweise noch im Preview-Stadium, viele Lösungen sind technisch noch nicht vollständig ausgereift.
Der wichtigste Lernpunkt aus dem Vortrag ist daher: Generative AI ist weder ein kurzfristiger Hype noch ein sofortiger Selbstläufer. Der größte Nutzen entsteht dort, wo Organisationen die Technologie gezielt einsetzen, ihre Datenplattformen sauber strukturieren und gleichzeitig die Kompetenzen ihrer Teams weiterentwickeln.
noventum consulting GmbH
Münsterstraße 111
48155 Münster