AI meets Data & Analytics – Ein neuer Realismus für den Einsatz von KI auf der Microsoft-Datenplattform

Wie Unternehmen KI sinnvoll in BI, Data Warehouse und Governance integrieren

//
Data & Analytics, Microsoft Power BI

1. Einleitung: KI mit Substanz statt Hype

Künstliche Intelligenz entfaltet ihren Wert nicht dort, wo neue Funktionen möglichst spektakulär präsentiert werden, sondern dort, wo sie robust in bestehende Daten- und Unternehmensstrukturen eingebettet ist. Aus der jahrzehntelangen Erfahrung auf der Microsoft-Datenplattform wissen wir: KI scheitert selten am Modell, sondern meist an Datenqualität, Architektur, Governance und überzogenen Erwartungen. Deshalb fragen wir nicht: „Welche KI-Funktion ist neu?“, sondern:
„Welche dieser Funktionen erzeugt in einer realen Organisation einen verlässlichen, messbaren Nutzen und was ist dafür strukturell erforderlich?“

Unser Ansatz „AI meets Data & Analytics“ ist bewusst pragmatisch:
Wir testen jede neue KI-Funktion zunächst im Microsoft-Ökosystem in unserer eigenen Umgebung, ohne Kundenrisiko. Wir filtern konsequent zwischen dem, was heute produktiv einsetzbar ist, und dem, was noch Reifezeit, Governance oder Infrastruktur benötigt. Wir zeigen, wie KI als Erweiterung bestehender BI- und DWH-Prozesse wirkt – nicht als deren Ablösung. So entsteht ein KI-Verständnis, das sich an realistischer wirtschaftlicher Wirkung im Unternehmen orientiert, nicht an übermotivierten Technologieversprechen, deshalb integrieren wir KI dort, wo sie heute messbaren Nutzen erzeugt – nicht dort, wo sie nur theoretisch beeindruckt.


2. Begriffe ordnen: KI ist mehr als nur GenAI

Die Diskussion über KI wird oft von Schlagworten dominiert. Für Entscheider ist jedoch wichtig, die unterschiedlichen Technologien und ihre jeweiligen Reifegrade klar einordnen zu können. Damit Entscheider Orientierung gewinnen, braucht es eine klare sprachliche Struktur:
KI ist der breite Rahmen für algorithmische Entscheidungs- und Optimierungsverfahren. Machine Learning (ML) ist das lernfähige Standardwerkzeug für Mustererkennung und liefert robuste Prognosen und Klassifikationen. Deep Learning (DL) ist besonders leistungsfähig, aber auch daten- und rechenintensiver. Mit Generative AI (GenAI) ist innerhalb von DL eine spezialisierte „Generative Architektur“ gemeint, welche auf Text-, Bild-, Audio-, Code­-Generierungspezialisierte DL-Modelle beinhaltet. Die bekannten Large Language Models (LLMs) zählen unter die textbasierten Modelle innerhalb der „Generativen Architektur“. Beispiele für LLMs sind zum einen, die allseits bekannten GPT Modelle (z. B. in ChatGPT) und zum anderen auch Modelle wie Claude Opus/Sonnet/Haiku, Grok, Llama, Mistral, etc.

Neben den häufig im Fokus stehenden Large Language Models (LLMs) umfasst die Generative-Architektur auch spezialisierte Modelle, etwa für die Bildgenerierung wie DALL·E. Diese Modelle werden heute häufig über chatbasierte Interfaces genutzt. Ein vorgelagertes LLM übernimmt dabei die Interpretation des Prompts in natürlicher Sprache und leitet die eigentliche Generierungsaufgabe an ein dafür optimiertes Modell weiter – beispielsweise ein Diffusionsmodell für Bilder oder spezialisierte Modelle für Code oder Audio.

Moderne Chatbots wie ChatGPT vereinen diese Fähigkeiten in einer integrierten Architektur. Für den Nutzer entsteht der Eindruck eines einheitlichen Modells, tatsächlich handelt es sich jedoch um ein orchestriertes Zusammenspiel mehrerer spezialisierter Komponenten, die je nach Anforderung in einer Pipeline angesteuert werden. Der Nutzer beschreibt lediglich seine Aufgabe, während Auswahl und Orchestrierung der passenden Modelle vollständig im Hintergrund erfolgen.

Dies verdeutlicht, dass LLMs für sich genommen keine universelle „Wunderwaffe“ sind – anders, als es in der öffentlichen Diskussion häufig verkürzt dargestellt wird. Ihre zentrale Rolle liegt vor allem in der Interpretation von Nutzeranfragen, der Steuerung nachgelagerter Modelle sowie der Aufbereitung und Rückführung der Ergebnisse. Der Mehrwert moderner Generative-AI-Lösungen entsteht somit nicht durch ein einzelnes Modell, sondern durch das koordinierte Zusammenspiel spezialisierter Modelle, die innerhalb einer übergreifenden Architektur aufgaben- und anforderungsabhängig orchestriert werden.

Auf dieser Grundlage lassen sich vortrainierte Modelle in benutzerfreundlichen Oberflächen wie Chat-Interfaces auch innerhalb einer Organisation einzusetzen, um Fragen in natürlicher Sprache an Unternehmensdaten zu stellen. Je nach Anwendungsfall werden dabei nur interne Datenquellen und bestehendes Modellwissen herangezogen, um diese Modelle innerhalb der Unternehmensumgebung zu nutzen und somit fundierte und kontextbezogene Antworten zu liefern. Wenn die unternehmensinterne Governance es zulässt, können die Kompetenzen der Modelle auch auf die zusätzliche Nutzung von externen Informationsquellen, wie das Internet, ausgeweitet werden.

Wichtig ist: Nicht jede Frage braucht ein LLM – und nicht jedes LLM oder andere neue KI-Funktionalitäten sind sofort in einem Unternehmen tragfähig und verantwortungsvoll einsetzbar.


Business Plan for AI Agents - Cloud Adoption Framework | Microsoft Learn

Der von Microsoft im Cloud Adoption Framework beschriebene Entscheidungsbaum verdeutlicht, dass der Einsatz von Generative AI insbesondere dann sinnvoll ist, wenn Aufgaben nicht vollständig strukturiert, deterministisch oder regelbasiert lösbar sind. Sobald für eine gegebene Eingabe stets das gleiche, fachlich eindeutig definierte Ergebnis erwartet wird, sind klassische Software- oder Machine-Learning-Ansätze in der Regel der robustere und effizientere Weg.

In solchen Szenarien liefern deterministische Verfahren reproduzierbare Ergebnisse, eine hohe Transparenz sowie eine deutlich einfachere Integration in bestehende Governance-, Sicherheits- und Betriebsmodelle. Dies gilt insbesondere für klassische betriebswirtschaftliche Fragestellungen wie Forecasting, Klassifikation, Segmentierung oder Anomalieerkennung. Bewährte ML-Verfahren bieten hier häufig eine bessere Erklärbarkeit, geringere Komplexität sowie ein schnelleres Deployment und lassen sich leichter in bestehende Analytics- und Tool-Landschaften integrieren.

Durch ihre nachvollziehbare Entscheidungslogik unterstützen diese Verfahren zudem Prüf-, Freigabe- und Compliance-Prozesse und ermöglichen eine saubere Einbettung in bestehende Unternehmens- und Kontrollstrukturen. Generative AI ergänzt diese Ansätze dort, wo Flexibilität, natürliche Sprachverarbeitung oder kontextuelle Unterstützung erforderlich sind – ersetzt sie jedoch nicht.

„GenAI ergänzt diese Verfahren – ersetzt sie aber nicht.“


3. Wo KI heute in Data & Analytics wirklich wirkt

3.1 Chat with your Data: Natürliche Sprache zur Datenanalyse

Mit „Chat with your Data“ z.B. mit Hilfe von Copilot for Power BI und Fabric IQ bzw. Fabric Data Agents und Ontologien verändert sich der Zugang zu Informationen grundlegend. Fachbereiche können Fragen in Alltagssprache stellen – etwa „Warum ist der Umsatz im Norden im Vergleich zu den anderen Regionen rückläufig?“ – und erhalten Antworten in Form von Text und Power-BI-Visualisierungen, inklusive möglicher Erklärungen zu den Ursachen.

Die eingesetzten Technologien für „Chat with your data“ ermöglichen neben der Mensch-Daten-Interaktion über natürliche Sprache auch das immens wichtige Grounding von AI-Anwendungen und AI-Agents mit den eigenen Unternehmensdaten. Agenten in Work IQ, Fabric IQ und Foundry IQ können mit Hilfe dieser „Tools“ selbstständig Informationen aus vorhandenen Analysemodellen ermitteln. Dies ist eine wichtige Grundlage für AI-gestützte teilautomatisierte Prozesse.

Semantische Modelle in Power BI und Fabric verlieren durch den Einsatz von GenAI und LLMs nicht an Ihrer zentralen Bedeutung für analytische Auswertungen. Im Gegenteil: Sie werden sowohl für den Einsatz von AI (z.B. „Chat with your data“) als auch für das Grounding von AI (z.B. Agenten in Work IQ, Fabric IQ und Foundry IQ) eine zentrale Rolle einnehmen. Semantische Modelle beinhalten aufbereitete und harmonisierte Daten, zentrale und einheitliche Kennzahlendefinitionen und wichtige Metadaten wie Beschreibungen, Synonyme, Übersetzungen, etc. Mit „Prep Data for AI“ können sie zudem zentral für den Einsatz von Copilot for Power BI und Fabric Data Agents optimiert werden. Daher sind semantische Modelle unserer Meinung nach die effizienteste Grundlage für das Grounding von AI mit analytischen Unternehmensdaten.

Der Fabric Data Agent greift dabei auf das zugrunde liegende semantische Modell zurück und übersetzt natürliche Sprache primär in strukturierte analytische Abfragen („Natural Language to DAX“). Auf dieser Basis können Kennzahlen berechnet, Filter angewendet und Analyseergebnisse konsistent ermittelt werden. Ergänzend lassen sich dem Agenten weitere kontextuelle Anweisungen in Textform mitgeben, etwa zur Interpretation oder Einordnung der Ergebnisse. Der Fabric Data Agent wird über das zugrunde liegende semantische Modell an unternehmensinterne Daten angebunden und darauf analytisch und kontrolliert „gegrounded“. Der Fabric Data Agent fungiert dabei nicht nur als eigenständige generative KI für Chats mit Endanwendern, sondern als spezialisiertes Analyse-Tool, das in übergeordnete Agenten- oder Copilot-Szenarien eingebunden werden kann – beispielsweise in Copilot Studio oder Microsoft Foundry. Dort wird er als gezielte Fähigkeit genutzt, um strukturierte analytische Ergebnisse bereitzustellen, die anschließend durch andere Agenten weiterverarbeitet oder in Geschäftsprozesse integriert werden können.

Die zugrunde liegenden LLMs werden – analog zu Copilot – durch Microsoft bereitgestellt und zentral gesteuert. Dadurch lassen sich solche Szenarien deutlich einfacher in bestehende Governance-, Sicherheits- und Compliance-Strukturen integrieren als bei der rein ad-hoc Nutzung von KI-Funktionalitäten und Chatbots ohne Einbettung in eine zentral gesteuerte und bestehende Plattformarchitektur mit definierten Daten-, Sicherheits- und Governance-Strukturen.

3.2 Lernen & Effizienz: KI als Entwicklungskollege

GenAI hat bereits begonnen und wird den Entwicklungsprozess in Data-&-Analytics-Projekten weiter verändern. Ein zentrales Ergebnis dieser Projekte ist ausführbarer Code – etwa in SQL, DAX, TMDL, TMSL oder Python. LLMs steigern dabei die Effizienz und Geschwindigkeit von Entwicklern, insbesondere beim Lernen neuer Technologien, beim Einarbeiten in bestehende Codebasen sowie beim KI-unterstützten Coding. Gleichzeitig verliert eine rein syntaktische „Code-Expertise“ an Bedeutung, da LLMs zunehmend in der Lage sind, auf Basis fachlicher Spezifikationen in natürlicher Sprache robusten Code zu erzeugen. Die fachliche Verantwortung für Logik, Semantik und Architektur verbleibt jedoch weiterhin beim Entwickler.

Der Effizienzgewinn ist besonders hoch, wenn KI direkt in die gewohnten Entwicklungsumgebungen integriert ist – etwa über Copilot for Power BI in Power BI Desktop oder GitHub Copilot in Visual Studio und Visual Studio Code. Dadurch entfallen Kontextwechsel sowie ineffiziente Trial-and-Error-Schleifen zwischen separaten Chatoberflächen und der eigentlichen Entwicklungsumgebung. Gleichzeitig steht der KI automatisch der relevante Projekt- und Modellkontext zur Verfügung: Copilot for Power BI greift direkt auf das geöffnete semantische Modell und Berichtsdefinition zu, während GitHub Copilot lesend auf die Inhalte des geöffneten Repository, Projekts oder Ordner zugreifen kann (z.B. Tabellen-, View-, Funktions- und Prozedurdefinitionen in einem SSDT-Projekt).

Erste KI-gestützte Funktionen unterstützen Entwickler heute bereits bei der Code-Erstellung, der Modell- und Tabellenentwicklung sowie bei Qualitäts- und Plausibilitätsprüfungen entlang von ETL- und Analytics-Pipelines. Der größte Mehrwert entsteht dabei aktuell durch die enge Verzahnung mit IDEs und Repository-basierten Entwicklungsprozessen. Gleichzeitig gilt: LLMs können Fehler machen. Ein reiner „Vibe-Coding“-Ansatz ohne technisches Grundverständnis ist aus unserer Sicht riskant und kann zu schwer nachvollziehbaren Fehlern führen. KI ersetzt Entwickler nicht. Sie erhöht aber deren Effizienz spürbar. Der konkrete Nutzen liegt in weniger Routinearbeit und mehr Fokus auf Semantik, fachliche Logik, Datenqualität und Architektur. Voraussetzung dafür sind klare Governance-, Review- und Freigabeprozesse.

3.3 GenAI gestützte Datentransformation: SQL Server × GenAI

Über REST-APIs lassen sich GenAI-Funktionen/Modelle und agentenbasierte Workflows gezielt in SQL-Server-Prozesse integrieren. So können Texte klassifiziert, fehlende Werte ergänzt oder analytische Anreicherungen im Rahmen nächtlicher ETL- und Batch-Prozesse durchgeführt werden – ohne Architekturbruch oder Ablösung bestehender Datenplattformen. Die Data-Warehouse-Struktur bleibt dabei führend, GenAI wird kontrolliert und zweckgebunden angebunden. Die Ergebnisse fließen nachvollziehbar als zusätzliche Spalten oder Tabellen zurück und lassen sich damit sauber in bestehende Governance-, Sicherheits- und Betriebsmodelle integrieren.

3.4 Nutzung der Data-Science-Umgebung in Microsoft Fabric

Neben natürlichen Sprachschnittstellen und Agentensystemen gewinnt auch die klassische Data-Science-Arbeit in der Fabric-Umgebung an Bedeutung. Fabric stellt eine integrierte Plattform bereit, in der Python-Notebooks, Feature Engineering und Modelltraining direkt auf der unternehmensinternen Datenbasis aufsetzen und durch grundlegende MLOps-Funktionalitäten ergänzt werden, wie die Versionierung von Code, Modellen und Notebooks, reproduzierbare Trainingsläufe und transparente Qualitäts- und Fehlermetriken.

Auf Basis des Fabric-Mirrorings lassen sich ML-Modelle auf der Datenbasis eines bestehenden On-Premises-SQL-Server-DWHs cloudbasiert in Fabric trainieren. Dadurch können Modelle für klassische Business-Use-Cases wie Forecasting, Klassifikation und Anomalieerkennung entwickelt, versioniert und operationalisiert werden – ohne zusätzliche Infrastruktur oder isolierte Data-Science-Plattformen.

Der entscheidende Mehrwert liegt in der engen Kopplung von Daten, Modellen und Analytics. Dadurch werden die Modelle direkt auf OneLake-Daten trainiert und ausgeführt, während der Output der ML-Modelle automatisiert in semantische Modelle, das On-Premises DWH oder das Reporting zurückgeführt werden. KI wird damit nicht als separates Data-Science-Projekt verstanden, sondern als integrierte Erweiterung der bestehenden Business-Analytics-Landschaft. Fabric stärkt so den produktiven Einsatz klassischer Machine-Learning-Verfahren – bewusst jenseits des GenAI-Hypes, aber in enger Verzahnung mit dessen Möglichkeiten und unter Einhaltung bestehender Governance- und Betriebsmodelle.


4. Die KI-Tool-Landschaft von Microsoft – kurz erklärt und sauber sortiert

Die KI-Tool-Landschaft von Microsoft entwickelt sich derzeit sehr dynamisch und ist für viele Unternehmen schwer zu überblicken. Um Orientierung zu schaffen, lässt sie sich entlang klarer Rollen und Verantwortlichkeiten strukturieren – von der Datenbasis über Analytics bis hin zur KI-Nutzung und -Orchestrierung.

Microsoft Foundry dient dabei als zentrale Plattform zur Bereitstellung, Konfiguration und Orchestrierung von KI-Modellen und Agenten. Sie ermöglicht die Nutzung vortrainierter Foundation Models sowie deren kontrollierte Einbindung in Agenten- und Copilot-Workflows. Der Fokus liegt nicht auf dem Training von Modellen auf Rohdaten, sondern auf deren kontextualisierter Nutzung, Steuerung und Überwachung im Zusammenspiel mit Unternehmensdaten und angebundenen Tools. Foundry übernimmt damit die Rolle der übergreifenden KI-Steuerungs- und Governance-Schicht.

Die Begriffe Work IQ, Fabric IQ und Foundry IQ beschreiben die intelligente Nutzung von KI-Funktionalitäten in unterschiedlichen Kontexten. Work IQ adressiert KI-Unterstützung in Microsoft-365-Szenarien, Fabric IQ den Einsatz von KI entlang der Daten- und Analytics-Plattform und Foundry IQ die Entwicklung, Orchestrierung und Governance von KI-Modellen und Agenten. Es handelt sich dabei weniger um eigenständige Produkte als um konzeptionelle Ebenen, die auf gemeinsamen KI- und Agentenfähigkeiten aufsetzen.

Microsoft Fabric bildet die integrierte Daten- und Analytics-Plattform innerhalb dieses Ökosystems. Sie vereint Datenintegration, Data Engineering, Analytics und Data Science auf einer gemeinsamen Datenbasis (OneLake) und stellt damit die Grundlage für KI-gestützte Szenarien bereit. Beispielsweise können in Python-Notebooks sogenannte AI Functions genutzt werden, die sich aus Entwicklersicht wie bekannte Bibliotheksfunktionen (z. B. `dropna()` in pandas) verwenden lassen, jedoch KI-gestützte Fähigkeiten wie Textzusammenfassungen, Übersetzungen oder die gekapselte Extraktion externer Produktbewertungen über kontrollierten Internetzugang. Die so erzeugten Ergebnisse werden strukturiert in das Data Warehouse oder das semantische Modell zurückgeführt und stehen anschließend in Power BI sowie für Fabric Data Agents zur Verfügung. Power BI ergänzt Fabric um die semantische und interaktive Schicht für Analyse, Visualisierung und Nutzerinteraktion.

Im Zusammenspiel liefert Fabric die konsolidierte und governance-konforme Datenbasis, Power BI stellt die analytische und nutzernahe Oberfläche bereit, während Foundry die Nutzung von KI-Modellen und Agenten steuert und orchestriert. So entsteht eine durchgängige End-to-End-Architektur, in der KI nicht als isolierte Funktion, sondern als integrierter Bestandteil der bestehenden Data-&-Analytics-Landschaft eingesetzt wird.


5. Unsere wichtigsten praxisnahen Einsatzfelder für KI in Data & Analytics

5.1 Use Case 1: Voraussetzung für den erfolgreichen Einsatz von GenAI: Erwartungshaltung, Kontext und präzises Prompting

Der produktive Einsatz von Generative AI steht und fällt mit Kontext und Struktur. Verlässliche Ergebnisse entstehen nur dann, wenn Fragestellungen klar formuliert, fachlich eingeordnet und auf konsistenten semantischen Grundlagen wie definierten Kennzahlen und KPI-Glossaren aufsetzen. Prompt Engineering und Context Engineering sind dabei weniger technische Disziplinen als vielmehr ein Denkmodell für präzise Aufgabenstellungen: Je besser, detaillierter und konkreter die Fragen formuliert sind und je mehr wichtiger Kontext (RAG) mitgegeben wird, desto besser sind die Ergebnisse.

5.2 Use Case 2: Chat with your Data

Fabric Data Agents können nicht nur von Anwendern genutzt werden, um direkt in Power BI per natürlicher Sprache mit den Daten in Fabric zu interagieren. Sie lassen sich auch als analytische Fähigkeiten anderen Agenten – etwa in Copilot Studio oder Microsoft Foundry – als Tool bzw. Wissensquelle zur Verfügung stellen. Diese Agenten nutzen die Fabric Data Agents im Hintergrund, um sich mit Informationen aus den zugrunde liegenden Daten zu grounden. Copilot-Studio-Agents und Microsoft-Foundry-Agents können dabei endanwendernah in das Microsoft-365-Umfeld integriert werden, beispielsweise in Teams, SharePoint oder Copilot für Microsoft 365.

Perspektivisch sind Fabric Data Agents zentrale Bausteine für komplexere Agentensysteme, die Workflows teilautomatisiert durchführen und Entscheidungsprozesse vorbereiten. Ziel ist es, fachliche Anweisungen, Metadaten und Beschreibungen einmal zentral im Fabric Data Agent zu definieren und für unterschiedliche Agenten wiederverwendbar zu machen. Dadurch wird vermieden, zentrale fachliche Logiken mehrfach zu implementieren – etwa die Regel, bei Anfragen nach „Umsatz“ oder „Erlösen“ konsistent die Measure `fact_Sales[Revenue]` aus dem semantischen Modell zu verwenden. Durch die enge Einbindung in das Microsoft-Ökosystem – einschließlich Entra ID zur Authentifizierung, Berechtigungskonzepten in Fabric und Power BI sowie Microsoft Purview – werden bei der Nutzung von Fabric Data Agents zentrale Anforderungen an Sicherheit, Compliance und Data Governance erfüllt.

5.3 Use Case 3: KI-gestützte Entwicklung & ETL-Automatisierung

Von automatisierten SQL-Vorschlägen über unterstützte Tabellen- und Modellentwürfe bis hin zur Anreicherung von ETL-Prozessen mit externen Marktdaten. KI ergänzt die Arbeit von Data Engineers gezielt bei wiederkehrenden, operativen Aufgaben und in der Qualitätssicherung. Dadurch lassen sich beispielsweise Immobilienpreise automatisiert in nächtlichen ETL-Läufen berechnen und als zusätzliche Merkmale strukturiert in die Datenbasis integrieren. Die fachliche Modelllogik, Bewertungsmaßstäbe und Governance verbleiben dabei bewusst in menschlicher Verantwortung. KI beschleunigt und standardisiert operative Tätigkeiten, ersetzt jedoch keine fachlichen oder architektonischen Entscheidungen.

5.4 Use Case 4: Fachliche KI-Unterstützung für schnelle Mehrwerte und Entscheidungshilfen bei der Unternehmenssteuerung

KI unterstützt Fachbereiche bei der schnellen Einordnung und Nutzung von Informationen, etwa durch automatische Übersetzungen, das Erstellen von Dokumentationen, die Generierung von KPI-Beschreibungen, die Pflege von Metadaten oder die semantische Erschließung von Inhalten über Embeddings und Vektor-Suche, also eine semantische Suche nach Bedeutung statt nach exakten Schlüsselwörtern. Diese Anwendungsfälle liefern schnell messbare Mehrwerte, indem sie Transparenz erhöhen und den Zugang zu relevanten Informationen vereinfachen. Ergänzend ermöglichen ML-basierte Forecasts und Anomalieerkennungen eine vorausschauende Unternehmenssteuerung, indem Entwicklungen frühzeitig sichtbar gemacht und Abweichungen auf Basis bestehender Datenstrukturen erkannt werden.

5.4.1 Use Case 4.1: ML-basiertes Forecasting & Anomalieerkennung – Vorausschauende Unternehmenssteuerung

Ein besonders reifer und unmittelbar wirkungsvoller Anwendungsfall ist die Kombination aus Forecasting und Anomalieerkennung auf Basis bestehender Microsoft-Datenplattformen. Über das Fabric-Mirroring werden DWH-Tabellen in die Data-Science-Umgebung übertragen, wo in Python-Notebooks das Feature Engineering, Modelltraining und Evaluierungen des Modells angelehnt an das CRISP-DM Framework durchgeführt werden. Dies geschieht mit klassischen, robusten und gut erklärbaren ML-Algorithmen und ohne eigenes LLM-Training.

Die resultierenden Prognosen – etwa zu Umsatz, Nachfrage oder Cashflow – sowie Anomalie-Scores werden strukturiert in das DWH zurückgeführt und über das semantische Modell in Power BI bereitgestellt. Fachbereiche profitieren dadurch von frühzeitigen Warnhinweisen, präziseren Planungsgrundlagen, What-if-Szenarien sowie einer besseren Transparenz über Abweichungen und treibende interne und externe Faktoren – unterstützt durch die parallele Durchführung einer Value-Driver-Analyse.


6. Warum datengetriebenes Forecasting mehr ist als KI auf Knopfdruck

Auch wenn moderne KI-Funktionen, AutoML- und Planning-Tools zunehmend Forecasting „auf Knopfdruck“ versprechen, zeigt die Praxis, dass ein unternehmensspezifisch entwickelter, skriptbasierter Forecasting-Ansatz in Python fachlich, technisch und organisatorisch häufig überlegen ist. Dies gilt insbesondere dann, wenn Forecasts nicht nur rechnerisch korrekt, sondern erklärbar, steuerbar und langfristig akzeptiert sein sollen.

Ein zentraler Unterschied liegt in der Gestaltbarkeit des Forecasting-Prozesses. In einem Data-Science-Ansatz können externe Einflussfaktoren, interne Werttreiber, Features, Parameter und Modellvarianten gezielt definiert, kombiniert und gegeneinander validiert werden. Das Ergebnis ist kein generischer Forecast, sondern ein bewusst konstruiertes Prognosemodell, das sich an der Logik, den Daten und dem konkreten Steuerungsbedarf des Unternehmens orientiert.

Ein typisches Beispiel hierfür ist das Demand Forecasting auf Produktebene. In der Praxis unterscheiden sich Zeitreihen erheblich: Während einige Produkte kontinuierlich und hochfrequent verkauft werden, weisen andere eine sporadische Nachfrage mit längeren Phasen ohne Verkäufe auf. Ein einheitlicher Modellansatz führt in solchen Szenarien häufig zu verzerrten oder instabilen Prognosen. In einem Data-Science-Ansatz lassen sich diese Muster gezielt identifizieren und unterschiedliche Modellstrategien je nach Produkt- und Zeitreihentyp einsetzen. Dadurch können Produkte mit geringer Verkaufsfrequenz anders behandelt werden als hochfrequente Artikel, was zu robusteren, fachlich plausibleren und realitätsnäheren Prognosen führt.

Darüber hinaus ist Transparenz ein entscheidender Erfolgsfaktor. Fehlermetriken, Modellannahmen, Einflussgrößen – sowohl interne als auch externe – sowie die zugrunde liegende Modelllogik lassen sich nachvollziehbar dokumentieren und erklären. Diese Nachvollziehbarkeit ist eine wesentliche Voraussetzung für Vertrauen und Akzeptanz in Fachbereichen, im Controlling und im Management.

Planning- und CPM-Systeme spielen in vielen Organisationen eine wichtige Rolle für Budgetierung, Konsolidierung und operative Planung. Für komplexe datengetriebene Forecasts stoßen sie jedoch häufig an Grenzen – insbesondere beim systematischen Feature Engineering, der Integration externer Einflussfaktoren oder der Bewertung alternativer Modellansätze. In der Praxis führt dies nicht selten dazu, dass trotz vorhandener Tools auf manuelle Excel-Forecasts zurückgegriffen wird.

Ein weiterer wesentlicher Unterschied liegt im Einsatz ensemblebasierter Verfahren. In der Data Science ist es gängige Praxis, mehrere Modelltypen gezielt zu kombinieren und deren Ergebnisse zu aggregieren, um robustere und stabilere Prognosen zu erzielen. Solche Ensemble-Ansätze sind in klassischen Planning- und CPM-Tools in der Regel nicht oder nur stark vereinfacht verfügbar, da deren Fokus auf standardisierten und leicht bedienbaren Prognoselogiken liegt.

Hinzu kommt die Integrationsfähigkeit eines skriptbasierten Ansatzes. Forecast-Modelle lassen sich sauber in bestehende ETL-Prozesse, Governance-Strukturen und SQL-basierte Data-Warehouse-Architekturen einbetten. Gleichzeitig wird deutlich, dass Datenqualität kein Nebenprodukt ist: Es existiert kein universelles Bereinigungs- oder Feature-Engineering-Skript. Daten müssen verstanden, strukturiert und fachlich angereichert werden – ein Aufwand, der sich nicht automatisieren lässt, ohne Qualität und Aussagekraft zu verlieren.

Ein skriptbasierter Forecast ist damit kein technischer Selbstzweck, sondern ein Mittel, um Data Science sinnvoll in die Unternehmenssteuerung zu integrieren, statt isolierte KI- oder Tool-Lösungen zu etablieren. Er verbindet fachliche Steuerbarkeit, Transparenz und Integrationsfähigkeit und macht Forecasting langfristig wirksam, vertrauenswürdig und anschlussfähig an bestehende Steuerungs- und Planungsprozesse.

CPM-Tools planen – Data Science erklärt und prognostiziert

7. Governance, Datenqualität und Realismus als Erfolgsfaktoren

Mehr KI-Funktionen erzeugen nicht automatisch mehr Nutzen. Entscheidend sind stabile Daten, klare Rollen- und Verantwortungsmodelle sowie ein verantwortungsvoller Einsatzrahmen. Unser Anspruch ist es, neue KI-Trends frühzeitig zu evaluieren, realistisch einzuordnen und nur jene Ansätze weiterzugeben, die in realen Unternehmensumgebungen fachlich sinnvoll, sicher betreibbar und langfristig tragfähig sind.

In der Praxis bedeutet das: Wir starten mit einer nüchternen Einordnung von Datenlage, Governance und Zielbild – und leiten daraus die wenigen Use Cases ab, die kurzfristig messbaren Nutzen liefern.


8. Fazit: KI als Ergänzung – nicht als Ersatz

KI hat enormes Potenzial für BI- und DWH-Landschaften auf der Microsoft-Datenplattform – als Ergänzung, nicht als Ablöser bewährter Prozesse. „Chat with your Data“ wird klassische Power-BI-Reports nicht ersetzen, aber Analysen beschleunigen, Fragen im Alltag beantworten und Entscheidungen besser vorbereiten. Den größten Nutzen erzielen Unternehmen, wenn GenAI, ML und Automatisierung strukturiert auf einer belastbaren Datenbasis, sauberer Semantik und klarer Governance aufsetzen – von Data Agents und Copilots bis zu Forecasting, Anomalieerkennung und Value-Driver-Analysen.
Genau dafür steht AI meets Data & Analytics: Wir übersetzen KI-Funktionen in eine realistische, sichere und messbare Roadmap im Microsoft-Ökosystem – pragmatisch, governance-konform und integrierbar in Ihre bestehende Architektur. Wenn Sie wissen wollen, welche 2–3 Use Cases in Ihrer Organisation kurzfristig den größten Effekt liefern und welche Voraussetzungen dafür fehlen, lassen Sie uns das in einem kurzen, strukturierten Assessment gemeinsam bestimmen.




Foto von Marco Nielinger
Marco Nielinger
Management Consultant
+49 2506 93020




Leon Kahrig
Consultant
+49 2506 93020


Zurück