„Chat with your data“ – die neue Realität?
LLMs im Praxistest: Wie intelligent ist der Daten-Dialog wirklich – und warum menschliche Expertise unverzichtbar bleibt.
//
Azure DevOps, Data & Analytics, Microsoft Power BI

Was wäre, wenn man sein Datenmodell einfach fragen könnte: „Warum ist der Deckungsbeitrag von Produktgruppe XYZ so niedrig?“ – und eine fundierte Antwort bekäme? GenAI und Tools wie Claude, Copilot & Co. versprechen genau das. Doch wie gut klappt das wirklich? Und was bedeutet das für Data Experts, Power User und Governance? Ein Erfahrungsbericht zwischen Faszination und Verantwortung von Data & Analytics Experte Marco Nielinger.
Motivation
Vor einigen Wochen sah ich ein Video von Kurt Buhler zum Thema „Talk to Power BI using Claude“. Normalerweise bin ich nicht so leicht zu begeistern. Dafür habe ich in meiner Karriere schon zu viele Hypes erlebt, die heißer gekocht als gegessen wurden. Aber dieses Video hat mich sofort fasziniert. Noch nie hatte ich eine so beeindruckende Demo für den Umgang mit Datenmodellen und Daten in Power BI gesehen. Ich musste es sofort selbst ausprobieren.
Was wir unter „Daten in Wirkung“ verstehen
Unser Claim im Bereich Data & Analytics lautet: „Wir bringen Daten und Menschen in Wirkung.“ Im Zentrum steht dabei das Data Engineering: Wir bereiten Daten aus verschiedenen Quellsystemen für Analysen auf – durch Integration, Harmonisierung und Anwendung fachlicher Logiken mittels ETL-/ELT-Werkzeugen, Lakehouses oder Datawarehouses. Gutes Data Engineering ist dabei die Basis erfolgreicher Projekte – und verlangt neben technischem Know-how auch Kommunikationsstärke, Problemlösungsfähigkeit, Abstraktionsvermögen und gesunden Menschenverstand.
»LLMs ersetzen
keine Datenkompetenz –
sie machen sie sogar
unverzichtbar.«
Von Standardberichten bis Self-Service-BI
„mit den Daten in Wirkung“ bringen wir diese Menschen letztlich durch die für sie sichtbaren Ergebnisse unserer Arbeit. Die Nutzung dieser Artefakte erfordert – je nach Komplexität – unterschiedliche Grade an Datenkompetenz.
- Standardberichte – Nutzung mit minimaler Datenkompetenz
Bericht öffnen, Eingabeaufforderung ausfüllen, Ergebnis lesen. Häufig per PDF-Abo bereitgestellt.
→ Konsum statt Interaktion - Interaktive Dashboards – moderate Datenkompetenz erforderlich
Anwender müssen Filter, Drillthroughs, Navigation etc. verstehen und nutzen können.
→ Gezielte Interaktion mit vorstrukturierten Daten - OLAP-Modelle – hohe Datenkompetenz für individuelle Analysen
Eigene Auswertungen und Berichte setzen Verständnis für Modellstruktur, Beziehungen, Granularitäten etc. voraus.
→ Kreative Nutzung und Beantwortung bislang unbekannter Fragestellungen - Self-Service BI & Data Science – Expertenkompetenz notwendig.
Datenanreicherung, Modellierung, Einsatz von Python oder ML. Findet meist in spezialisierten Teams statt.
→ Maximale Freiheit und technische Tiefe
Die Wirklichkeit in der Datenanalyse
Fachabteilungen bauen zunehmend Datenkompetenz auf – doch in der Praxis dominiert noch immer die Nutzung von Standardberichten und Dashboards. Das liegt selten an fehlendem Interesse, sondern am Tagesgeschäft: Abschlüsse, Systembetrieb, Ad-hoc-Anfragen – es bleibt wenig Zeit, sich mit Tools wie SQL, DAX, Python oder ETL-Prozessen vertraut zu machen. Das Ergebnis: Ein Großteil der Endanwender konsumiert vorgefertigte Berichte, nur wenige Power User analysieren aktiv auf Basis von OLAP-Modellen. Echtes Self-Service-BI oder Data Science sind bislang die Ausnahme.
„Chat with your data“ in Power BI – Historie und aktueller Stand
Mit dem Aufkommen von LLMs wie ChatGPT wird zunehmend gefragt: „Brauchen wir überhaupt noch Power User – übernimmt das nicht ChatGPT, Copilot etc.?“ Die Antwort: Nein – LLMs ersetzen kein menschliches Know-how, sondern unterstützen es. Sie eröffnen spannende Anwendungsfelder, insbesondere im Bereich „Chat with your data“: Fragen wie „Wie hoch ist der Deckungsbeitrag für Produkt XYZ in 2019?“ lassen sich direkt in natürlicher Sprache stellen – ohne Kenntnisse über Modellstrukturen oder Datenquellen.
Ein faszinierender Use Case, der Nutzer*innen den Zugang zu Daten massiv erleichtern kann. Auch hierzu gibt es einen hervorragenden Artikel von Kurt Buhler.
Vorläufer „Q&A“
Die Möglichkeit, per natürlicher Sprache Fragen an Power BI zu stellen, gibt es schon seit der Einführung von „Q&A“ (Microsoft, 2013). Das Q&A-Visual wurde Ende 2017 auch in Power BI Desktop nutzbar gemacht. Ich persönlich habe diese Funktion nie intensiv genutzt – u. a. wegen Einschränkungen wie: nur englische Sprache / lange Zeit keine Live-Verbindungen zu Analysis Services / sehr einfache Syntax erforderlich (z. B. „Show Revenue by Customer Name in 2019“). Auch als Hilfsmittel zur Berichtserstellung war Q&A meist nicht effizienter als der direkte manuelle Weg.
Copilot for Power BI
Seit 2023 ist Copilot for Power BI mit LLM-Funktionen verfügbar (anfangs nur mit Fabric F64, seit April 2025 bereits ab Fabric F2 nutzbar). Copilot unterstützt drei zentrale Funktionen: DAX-Code generieren, Berichte/Seiten erstellen und Fragen zu Daten beantworten („Chat with your data“).
Im Mai 2025 startete die Preview der „Standalone Copilot Experience“, eine eigenständige Chat-Oberfläche mit workspace-übergreifender Suche, Berichtszusammenfassungen und Datenabfragen.
Auch die neuen AI Instructions zur Steuerung des Copilot-Verhaltens pro Modell erweitern die Möglichkeiten deutlich. Die Entwicklung ist rasant – Copilot-Features dominieren derzeit die Power-BI-Updates.
Noch keine echte Unterhaltung: Copilot bleibt kurzsilbig
Trotzdem fühlen sich die Ergebnisse von Copilot for Power BI im Bereich „Chat with your data“ noch sehr hölzern an: Die Antworten sind kurz, man muss sehr konkrete Fragen stellen, und es fehlen kreative Interpretationen. Fragen wie „Zeige mir einen Überblick auf meinen Datenbestand“ oder „Was könnte die Ursache für einen niedrigen Deckungsbeitrag sein?“ werden nicht zufriedenstellend beantwortet. Das ist wahrscheinlich eine bewusste Entscheidung von Microsoft (z. B. wegen Unsicherheiten in AI-Antworten, Token-Anzahl etc.). Außerdem wird offiziell nur Englisch als Sprache unterstützt. Fragen auf Deutsch produzieren teilweise eine wilde Mischung aus Deutsch und Englisch in den Antworten durch Copilot.
„Chat with your data“ wörtlich nehmen
Ich finde: „Chat with your data“ sollte sich wie ein echtes Gespräch mit einem intelligenten Partner anfühlen – nicht nur wie eine Abkürzung für Analysen, die ich auch in Excel oder klassisch in Power BI umsetzen könnte. Natürlich entstehen dabei auch Fehler. Aber gerade dadurch können neue Perspektiven sichtbar werden, auf die man ohne LLMs womöglich nie gestoßen wäre. Die Verantwortung bleibt beim Menschen: AI-Ergebnisse müssen immer kritisch hinterfragt und eingeordnet werden.
„Chat with your data” mit Claude und MCP-Server/Tools für Power BI
Das Video von Kurt Buhler, in dem er zeigt, wie man mit Claude, einem MCP-Server und dem Model Context Protocol (MCP) mit Power-BI-Daten sprechen kann, hat mich sofort begeistert. Nicht nur, weil man kein Power BI Premium oder Fabric benötigt, sondern weil die Ergebnisse wirklich beeindruckend waren. Noch bevor Kurt seinen Code auf GitHub veröffentlichte, hatte ich eine funktionierende Version für meine eigenen Testmodelle. Claude (Sonnet 4.0) lieferte präzise Zusammenfassungen, überraschende Insights und nachvollziehbare Erklärungen – z. B. zur Rabattstruktur als Ursache niedriger Deckungsbeiträge. Keine Halluzinationen, keine Fehler. Ein echter Aha-Moment – so konkret habe ich selten erlebt, wie „Daten in Wirkung“ aussehen können.
LLMs werden mächtiger durch Tools
Ein MCP-Server stellt einem LLM sogenannte „Tools“ über ein standardisiertes Protokoll bereit – ähnlich wie die Internetsuche in ChatGPT, die Informationen über das Wissens-Cutoff hinaus liefert. Auch Python-Interpreter, Dateiuploads sind Tools für LLMs. AI-Agents (z. B. zum Planen, Buchen, Automatisieren) basieren auf solchen Tools.
Meine Metapher: Tools sind für LLMs das, was Werkzeuge für uns Menschen sind – sie machen echte Intelligenz erst möglich.
Chat, Tool, Antwort: Wie Claude Daten versteht und nutzt
Im Anwendungsfall „Chat with your data“ greifen die MCP-Tools im Hintergrund auf die Power BI- und Fabric-REST-APIs zu. Claude kann damit – bei entsprechender Berechtigung – Modelle auslesen, DAX-Abfragen generieren, Ergebnisse interpretieren. Was dabei entsteht, ist ein echter Analyse-Dialog: Claude generiert im Gespräch sinnvolle DAX-Abfragen, führt sie aus und interpretiert die Resultate – selbst bei offenen Fragen wie „Zeig mir einen Überblick auf meinen Datenbestand“.
Die „Magie“ liegt in der Verbindung aus Modellwissen und Tool-Logik. Und sie funktioniert erstaunlich gut.

Voraussetzungen und Herausforderungen
Damit ein LLM wie Claude zuverlässig arbeitet, braucht es ein klar strukturiertes, verständliches Datenmodell: Sprechende Namen, Beschreibungen, konsequentes Star Schema, ausgeblendete irrelevante Objekte und Synonyme im linguistischen Schema. Alles, was auch Menschen hilft, ein OLAP-Modell effizient zu nutzen, ist für LLMs umso wichtiger.
Komplexere Modelllogiken – und was LLMs ohne Kontext falsch machen
In komplexeren Modellen stößt ein LLM ohne Kontext schnell an Grenzen. Beispiel: Unsere zentrale Faktentabelle im HR-Analytics-Modell ist eine Bestandstabelle, die den Mitarbeiterbestand pro Monat abbildet. Solche Bestände darf man nicht über Monate hinweg summieren. Ohne Hinweis macht das LLM denselben Fehler wie ein unerfahrener Mensch. Gibt man den Kontext jedoch mit – etwa im Chat oder über Beschreibungen im Modell – erstellt Claude korrekte DAX-Abfragen.
Kontext-Window wird häufig noch überschätzt
Ein weiteres Hindernis ist das sogenannte Context Window – der „Arbeitsspeicher“ des Modells.
Es umfasst alle Eingabe- und Ausgabetokens eines Chats. Wird dieses Limit überschritten, vergisst das LLM frühere Teile der Unterhaltung – und verliert damit wichtigen Zusammenhang.
Viele überschätzen, wie viel Information ein LLM gleichzeitig verarbeiten kann – besonders beim Hochladen von Dateien oder komplexen Modelldefinitionen. Das Beispiel GPT-4o zeigt: Mit Plus- oder Team-Lizenz stehen nur 32K Token zur Verfügung, Enterprise-Nutzer erhalten bis zu 128K. Das klingt viel – reicht aber nicht für komplette PDFs oder Modellstrukturen. Stattdessen werden nur gezielte Ausschnitte geladen. Fragen zum Gesamtzusammenhang geraten so schnell an Grenzen.
So benötigen zum Vergleich die Texte von „Romeo und Julia“ = ca. 30K–40K Token, „Der Medicus“ = ca. 300K–400K Token.
Mein Beispielmodell im TMSL-Format (4 Tabellen, 70 Spalten, 20 Measures, Annotations etc.) liegt schon bei rund 20K Token. Ein realistischeres Modell wie unser HR-Analytics-Datenmodell überschreitet – unbereinigt – locker 1 Million Token.
Nur wenige LLMs (z. B. Gemini 1.5 Pro mit 2M Token) kommen hier aktuell mit.
Kein Wunder also, dass Microsofts „AI Instructions“ in Copilot gezieltes Ausblenden von Modellbereichen ermöglichen – ein wichtiger Schritt für mehr Effizienz.
Einschränkungen, Risiken und Gefahren
LLMs werden auf absehbare Zeit keine Data-&-Analytics-Experten oder Power User ersetzen – wohl aber jene gefährden, die ihre Chancen ignorieren. Denn wer LLMs kompetent nutzt, verschafft sich einen echten Vorteil. Gleichzeitig gilt: LLM-Antworten brauchen Prüfung. Gerade in komplexen Modellen ist das Risiko für Halluzinationen, Fehlinterpretationen oder falsche Abfragen nach wie vor hoch.
Ein weiteres Problem zeigt sich bei großen, komplexen Modellen: Selbst wenn das komplette Modell ins Context Window passt, tun sich LLMs oft schwer mit offenen Fragen wie „Fasse mir den Datenbestand zusammen“ – schlicht, weil sie bei tausenden Measures, Spalten und Calculation Groups keine sinnvolle Auswahl treffen. Intuition und Priorisierung bleiben (noch) menschliche Stärken.
Mächtige Tools, mächtige Risiken: Warum Governance entscheidend ist
LLMs in Kombination mit Tools wie den Power BI- und Fabric-REST-APIs können mächtig – aber auch riskant – werden. Ein falscher Prompt, und das Modell könnte etwa alle Workspaces löschen. Die Fehler- und Missbrauchsgefahr steigt massiv, wenn keine klaren Regeln gelten. Deshalb braucht es: saubere Governance, abgestufte Berechtigungen und klare Zuständigkeiten. Ein LLM nutzt, was es bekommt – es hat keine moralische Instanz.
Auch der Datenschutz ist kritisch: Bei „Chat with your data“ mit Claude Desktop fließen alle Inhalte – Workspaces, Modelle, DAX-Ergebnisse – an den LLM-Provider, im konkreten Fall an Anthropic. Was verarbeitet werden soll, verlässt damit die eigene Umgebung – ein nicht zu unterschätzendes Risiko.
Gesicherte Daten mit Open-Source-LLMs?
Bei großen Anbietern wie OpenAI, Microsoft, Anthropic oder Google verlassen die Daten die eigene Systemumgebung – ein Risiko für viele Unternehmen. Nur Open-Source-LLMs, etwa Ollama, bieten die Möglichkeit, lokal zu arbeiten.
Gerade in Europa ist das Thema Datenschutz zurecht hochsensibel. Bei personenbezogenen Daten nach DSGVO muss der Einsatz besonders sorgfältig geprüft werden – oft ist das allein schon ein Showstopper für Tools wie „Chat with your data“.
Herausforderungen für Data-&-Analytics-Experten
Die Entwicklung von LLMs ist faszinierend – und zugleich beunruhigend. Wir stehen an einem Punkt, an dem es klug wäre, das Tempo bewusst zu verlangsamen und uns stärker mit den Risiken und der ethischen Verantwortung auseinanderzusetzen.
Wie jede disruptive Technologie bringt auch diese enorme Chancen – aber ebenso große Gefahren.
Es liegt an uns, sie verantwortungsvoll zu nutzen – nicht getrieben von Gier, Machthunger oder Maßlosigkeit, sondern von Verstand, Haltung und Augenmaß.
Chat statt Code
Erstmals ist es möglich, Daten per natürlicher Sprache zu analysieren – und dabei Muster zu erkennen, die manuell womöglich verborgen geblieben wären. Was Power BI mit „Q&A“ einst versprach und ich lange belächelt habe, ist heute Realität.
Trotz aller Bedenken bin ich überzeugt: Diese Entwicklung ist nicht mehr aufzuhalten. „Chat with your data“ erfüllt genau das Bedürfnis vieler Anwender:innen: Analysieren von Daten mit natürlicher Sprache, ohne tief in SQL, DAX oder BI-Tools eintauchen zu müssen.
Neue Aufgaben für Data-&-Analytics-Teams
Die Rolle von Data-&-Analytics-Expert:innen verändert sich: Statt nur Dashboards zu liefern, geht es künftig darum, semantische Modelle so zu gestalten, dass sie für Menschen und LLMs gleichermaßen verständlich und nutzbar sind.
Drei zentrale Erfolgsfaktoren sehe ich kurzfristig für den Einsatz von LLMs für „Chat with your data“:
- Einfache und selbsterklärende semantische Modelle
Damit ein LLM sinnvoll mit einem Modell interagieren kann, braucht es klare Strukturen:
- Sprechende Namen, aussagekräftige Beschreibungen und Synonyme
(z. B. lieber „Umsatz“ statt kryptischem „UMZ_SUM“) - Anwendungsfallbezogene Perspektiven
statt eines zentralen DWH-Modells empfiehlt sich die Aufteilung in kleinere Modelle wie „Sales“, „Finanzen“ oder „HR“ – angepasst an die Sicht der Nutzer:innen - Nutzungshinweise direkt im Modell
z. B. über AI Instructions für Copilot oder durch beschreibende Texte an Tabellen und Measures
- Saubere Governance und strukturierte Berechtigungsprozesse
Die technische Absicherung ist essenziell, um Risiken zu minimieren:
- Klare Zugriffsbeschränkungen über Tenant-Settings und Sicherheitsgruppen
- Transparente Berechtigungsvergabe – besonders bei dezentral genutzten Tools wie Power BI
- Toolgestützte Kontrolle und Dokumentation, z. B. durch Purview-Integration
- LLM-Kompetenz bei den Anwender:innen
Nicht nur das Modell, auch der Mensch muss „bereit“ sein:
- Gutes Prompting und Context-Engineering sind entscheidend für hilfreiche Antworten
- Kritisches Hinterfragen von Ergebnissen bleibt Pflicht – auch bei scheinbar plausiblen Antworten
- LLM als Partner verstehen, nicht als Magier – nicht faul werden
Ohne Expertise bleiben LLMs ein stumpfes Werkzeug
Paradoxerweise wird Datenkompetenz trotz LLM’s kurzfristig wichtiger denn je. Wer LLMs unreflektiert nutzt, riskiert fehlerhafte Analysen und Fehlentscheidungen. LLMs sollen uns nicht ersetzen, sondern unterstützen. Deshalb würde ich „Chat with your data“ aktuell nur Personen empfehlen, die in der Lage sind, Antworten kritisch zu prüfen – durch eigene Analysen, DAX-Validierung oder fundiertes Modellverständnis.
Erst wenn dieser erfahrene Nutzerkreis das Modell für den AI-Einsatz optimiert hat, kann das Tool schrittweise auch für weniger versierte Anwender:innen freigegeben werden – stets mit dem Hinweis: „AI-generated content may be incorrect.“
Denn noch(!) sprechen wir von „Copilot“, nicht von „Pilot“.

noventum consulting GmbH
Münsterstraße 111
48155 Münster