Mit Chat GPT zum Projekterfolg – Künstliche Intelligenz unterstützt ETL-Modernisierung beim nwb Verlag
Wie ein durchdachter ChatGPT-Einsatz die Einführung des nDPA-Orchestrators beschleunigt
//
Data & Analytics

Der nwb Verlag ist seit vielen Jahren ein geschätzter Kunde von noventum. In der BI-Landschaft des Verlags wurde klassisch mit SQL Server, SSIS und SSAS gearbeitet – in unserem etablierten DWH-Schichtenmodell, allerdings noch nicht mit dem noventum Data Platform Accelerator (nDPA) und daher mit einer inflexiblen, schichtenbasierten Beladung über geschachtelte SSIS-Pakete. Ziel eines aktuellen Projektes war es, den nDPA Orchestrator einzuführen, um bestehende ETL-Prozesse zu modernisieren und flexibler zu gestalten. Doch bevor der Orchestrator seine Arbeit aufnehmen konnte, stand eine mühsame Fleißarbeit an: die Abhängigkeitsanalyse von rund 500 SSIS-Paketen.
In dieser Ausgangslage griff unser Projektteam zu einem ungewöhnlichen Mittel: ChatGPT. Und siehe da – mit dem richtigen Prompt-Engineering wurde die Künstliche Intelligenz zum wertvollen Projektassistenten.
Ausgangslage: Viele Pakete, wenig Struktur
Der nwb Verlag verfügte über mehrere SSIS-Projekte, von denen zwei („DWH“ und „BooX“) im Fokus standen. Entgegen der ursprünglichen Schätzung von ca. 230 Paketen stellte sich heraus, dass rund 480 SSIS-Pakete zu analysieren waren – eine Mischung aus komplexen Konstrukten mit Lookups und SQL-Tasks, aber auch vielen einfachen, wiederkehrenden Mustern. Zusätzlich musste die abschließende Prozessierung von acht SSAS-Datenbanken berücksichtigt werden.
Bisher erfolgte die Beladungslogik strikt schichtenbasiert (DAL → DIL → DPL), orchestriert über geschachtelte SSIS-Masterpakete. Fehler in einem der unteren Layer führten dazu, dass ganze Schichten erneut geladen werden mussten – ein Aufwand, den der nDPA Orchestrator künftig drastisch reduzieren sollte.
Die Herausforderung: Abhängigkeiten erkennen
Zentrale Aufgabe für die Integration in den Orchestrator war die manuelle Ermittlung von Tasks und deren Daten- und Sequenzabhängigkeiten. Wenn man diese Aufgabe manuell angeht, bedeutet das: jedes SSIS Paket muss geöffnet, analysiert und in das Metadatenmodell des nDPA Orchestrators überführt werden – ein zeitraubender und fehleranfälliger Prozess, der bei hunderten Paketen schnell an die Grenzen der Projektbudgets stößt. Insbesondere für die vielen einfachen, wiederkehrenden Muster eine undankbare Fleißaufgabe.
Schon früh stand die Idee im Raum: „Das muss doch auch schlauer gehen.“
Der Game Changer: ChatGPT als Assistent für Fleißarbeit
Während ein Entwicklerteam des nwb bereits ein Python-Skript zur Analyse der DTSX-Dateien vorbereitet hatte, entstand im noventum-Team parallel die Idee, ChatGPT zur Unterstützung heranzuziehen – zunächst experimentell, dann mit wachsender Begeisterung.
Ziel war es, ein Prompt zu entwickeln, das ChatGPT befähigt, die strukturierte Analyse von SSIS-XML-Dateien vorzunehmen. Und zwar so, dass daraus ein deterministischer, lokal ausführbarer Python-Code generiert werden kann – ohne dass sensible Kundendaten in irgendeiner Form in die Cloud wandern.
Der Clou: Statt ChatGPT direkt das Python-Skript generieren zu lassen, wurde der Umweg über die Beschreibung der Parsing-Logik genommen – mit hohem Detailgrad. In mehreren Iterationen wurde der Prompt immer weiter verfeinert: von der Beschreibung der zu untersuchenden XML-Tags, über die Struktur der gewünschten Excel-Ausgabe bis hin zu konkreten Beispielen. Das Ergebnis: Ein „Einmal-und-gut“-Prompt, der sich in der Praxis bewährt hat.
Die Umsetzung: Effizient und datenschutzkonform
Nachdem das GPT-gestützte Prompt finalisiert war, ließ sich im gleichen Kontext daraus ein robustes Python-Skript generieren, das lokal beim Kunden auf den SSIS-Paketen ausgeführt wurde – ohne jeglichen Datenabfluss nach ChatGPT. Das Skript extrahierte Ziel- und Quelltabellen, Lookups und SQL-Kommandos aus allen Paketen und bereitete sie in einer Excel-Übersicht auf. Die darauf basierende Abhängigkeitsanalyse konnte damit größtenteils im Excel durchgeführt werden – ganz ohne mühseliges „Doppelklicken" im Visual Studio und nachfolgender Dokumentation der gefundenen Abhängigkeiten.
Der Projekterfolg spricht für sich: Ursprünglich war die Analyse von rund 250 Paketen geplant. Dank der Automatisierung durch ChatGPT und Python-Skript konnten in derselben Zeit alle knapp 500 Pakete verarbeitet werden.
Lessons Learned: Was macht ChatGPT (nicht)?

Die zentrale Erkenntnis aus dem Projekt: ChatGPT ist kein magischer Zauberstab – aber ein exzellenter Assistent, wenn man ihn richtig einsetzt.
Erfolgreich war das Projekt, weil:
- die Aufgabe textuell/tokenbasiert war (XML, SQL),
- ausreichend Zeit ins Prompt Engineering investiert wurde,
- der Ansatz nicht „automatisch alles lösen“, sondern „mit konkreten Anweisungen gezielt unterstützen“ lautete.
Der Ansatz ist spannend, mit ChatGPT eine Lösung über Prompting zu entwickeln, um daraus im Anschluss eine erste Version eines Python-Skripts zu generieren, das in der Folge nur ein FineTuning erhalten musste. Für einen Entwickler ohne tiefgehende Python-Erfahrung ist dieser Weg deutlich einfacher, als direkt mit ChatGPT unterstütztem Python-Coding auf der grünen Wiese zu starten.
Best Practice: Prompt Engineering als Schlüssel zum Erfolg
Ein entscheidender Erfolgsfaktor war die systematische Herangehensweise:
- Kontext schaffen – detaillierte Beschreibung der Aufgabe, Eingabestrukturen und Zielergebnisse.
- Iterieren – Prompts schrittweise verbessern, Rückmeldungen einbauen.
- Verstehen statt Raten – ChatGPT als Partner im Dialog nutzen, nicht als One-Shot-Lösung.
- Output validieren – Ergebnisse kritisch prüfen und ggf. nachrecherchieren.
Gerade letzteres ist entscheidend, um sogenannte „Halluzinationen“ der KI zu vermeiden – also plausible, aber faktisch falsche Aussagen bzw. in diesem Fall Code, der nicht zum gewünschten Ergebnis führt.
Ausblick: Weitere Einsatzszenarien für KI in Data-Projekten
Die im Projekt mit dem nwb Verlag gesammelten Erfahrungen zeigen, dass ChatGPT und vergleichbare KI-Werkzeuge nicht nur bei konkreten Aufgaben wie dem Coding oder Parsing hilfreich sein können. Sie eignen sich auch hervorragend als interaktives Lern- und Recherchewerkzeug – insbesondere dann, wenn man sich neue Themenbereiche wie z. B. Python erschließen möchte.
Ein zentraler Aspekt dabei ist der methodische Ansatz: Durch das Entwickeln einer Lösung über gut strukturiertes Prompting kann man eine komplexe Problemstellung schrittweise in eine lösbare Teilaufgabe überführen – ganz ohne direktes Expertenwissen. Diese Arbeitsweise erlaubt es, auch ohne tiefgreifende Vorkenntnisse funktionierende Lösungen (z. B. erste Python-Skripte) zu erzeugen, die anschließend verfeinert werden können. Gerade für Einsteiger ist dies oft effektiver, als direkt mit klassischem Coding zu beginnen.
Ein besonders empfehlenswerter Beitrag zu diesem Thema ist der Artikel "Myths, Magic and Copilot for Power BI" von Kurt Buhler. Darin wird anschaulich beschrieben, welche Rolle das eigene Kontextwissen bei der erfolgreichen Nutzung von LLMs spielt und welche typischen Fallstricke bei der Prompterstellung lauern. Wer sich intensiver mit dem Zusammenspiel von KI und BI-Entwicklung beschäftigen möchte, findet darin viele wertvolle Hinweise.
Es gibt unzählige weitere vielversprechende Einsatzbereiche im Data-Umfeld. Hier nur ein paar konkrete Anwendungsfälle aus unserer Praxis:
- Unterstützung beim Coding (SQL, DAX, Python, C#, etc.)
- Analyse von Tenant Settings aus HTML-Quellen (z. B. aus der offiziellen Microsoft-Dokumentation)
- Copilot für Power BI
- Strukturierte Generierung und Bewertung von DAX-Formeln in Power BI
- Verbesserung semantischer Modelle durch Copilot-optimierte Konventionen und linguistische Schemata
- Erstellung von Berichten und Visualisierungen als Ausgangspunkt für die manuelle Weiterentwicklung
- Generierung von Testdaten
- etc.
Wichtig ist bei der Verwendung von ChatGPT, nicht "faul" zu werden und keine magischen Ergebnisse auf Knopfdruck zu erwarten. Wer lediglich einen kurzen Prompt schreibt und auf ein perfektes Ergebnis hofft, wird meist enttäuscht. Stattdessen muss man sich auch fachlich und methodisch mit dem Thema sowie der Arbeitsweise von LLMs auseinandersetzen. Nur wenn man versteht, wie man präzise und kontextreiche Prompts formuliert und die Resultate kritisch hinterfragt, kann man die Stärken von KI-Systemen wirklich ausschöpfen. Erst durch diese aktive Auseinandersetzung entstehen Ergebnisse, die qualitativ überzeugen und echten Mehrwert liefern.
Die Qualität der Ergebnisse ist also immer stark abhängig von der Qualität der Prompts sowie dem Fachwissen, das in die Ausarbeitung einfließt. KI ist kein Ersatz für Wissen, sondern ein Beschleuniger für fundiertes Arbeiten.
Fazit
Im Projekt mit dem nwb Verlag hat sich ChatGPT als wertvolles Werkzeug erwiesen, um aufwendige Fleißarbeiten zu automatisieren und die Einführung des nDPA Orchestrators massiv zu beschleunigen. Der Schlüssel zum Erfolg lag in der Kombination aus klarer Zieldefinition, methodischem Vorgehen und einem tiefen Verständnis für die eigenen Prozesse – unterstützt durch eine KI, die mit dem richtigen Prompt zur Höchstform aufläuft.

noventum consulting GmbH
Münsterstraße 111
48155 Münster