Home > Magazin > adesso Data Day: KI ist im Alltag angekommen, aber nicht im Autopilot

adesso Data Day: KI ist im Alltag angekommen, aber nicht im Autopilot

Auf dem adesso Data Day in Frankfurt drehte sich alles um das Thema Künstliche Intelligenz.
Auf dem adesso Data Day in Frankfurt drehte sich alles um das Thema Künstliche Intelligenz. (Bild: © adesso SE)

Zwischen Agenten-Hype und Betriebsrealität: Warum Governance, Tests und Menschen die entscheidenden Faktoren sind

Viele Stadtwerke und Netzbetreiber stehen gerade an derselben Schwelle: KI soll in die Prozesse, aber bitte ohne Kontrollverlust. Beim adesso Data Day in Frankfurt wurde klar, was dafür in der Praxis zählt: messbarer Nutzen statt Spielerei, saubere Daten- und Architekturentscheidungen – und Systeme, die Menschen entlasten, ohne Entscheidungen zu automatisieren, die begründet werden müssen. Besonders prägnant ordnete Prof. Katharina Zweig ein, warum KI nicht „alles“ kann und weshalb genau das für gute Implementierungen entscheidend ist.

Schon vor dem ersten Kaffee ist klar, wie groß die Anfrage nach dem Thema Künstliche Intelligenz geworden ist. „Diesmal mussten wir die Anmeldung schließen, weil der Brandschutz das hier nicht weiter mitgemacht hätte“, sagt Benedikt Bonnmann, Vorstandsmitglied der adesso SE, zur Eröffnung. Im Saal sitzen nach seiner Schätzung „über 600 Teilnehmer “. Der Ton ist ambitioniert. Weg von Pilotprojekten, hin zu messbarem Nutzen.

Benedikt Bonnmann setzt drei Pflöcke ein. Erstens: KI sei „die Schlüsseltechnologie bis 2030“. Zweitens: Souveränität werde zur praktischen Frage der Handlungsfähigkeit. Drittens: KI in der Softwareentwicklung verspreche spürbare Produktivität. „Wir reden von echtem Business Value, von echtem Nutzen, den wir heben, zählen, messen und wiegen können“, sagt er. Und zur KI Toolchain von Anforderungen bis Test wird er konkret: „Dann reden wir von echten 20 Prozent Impact.“ Das klinge harmlos, sei es aber nicht. „In Mannschaft, in Delivery Time, in Output, das ist gigantisch.“

Das Grundgefühl des Tages lässt sich so zusammenfassen: KI kann viel, aber sie ersetzt keine Verantwortung. Wer KI produktiv machen will, braucht Regeln, Prozesse und Menschen, die am Ende entscheiden.

Zweig: Warum der Hype bei Agenten schnell gefährlich wird

Stark ist gleich zu Beginn der Vortrag von Prof. Katharina Zweig, Professorin an der RPTU Kaiserslautern und Gründerin des Algorithm Accountability Lab. Sie beginnt mit einem Alltagsrisiko. Ein agentisches System bekommt Rechnerrechte, Zugang zur Kreditkarte und darf „mal machen“. Das Ergebnis in ihrem Beispiel: Eine ungeplante Ausgabe von 2.997 Dollar für ein Online Programm, weil der Bot nach ein paar Motivationsclips eine Rendite „ausgerechnet“ hat.

Zweigs eigentliche Frage richtet sich aber an die Organisationen im Raum. „Ich frage mich schon auch, wie der Mensch eine solche Entscheidung trifft“, sagt sie, also eine unbekannte Software zu installieren und ihr weitreichende Rechte zu geben. Ihr Gegenmittel klingt altmodisch, ist aber hochaktuell: „Ich habe heute Slow Reading mitgebracht.“ Ihr Punkt: Entscheidungen müssen wieder ruhiger werden, sonst überholt Marketing die Urteilskraft.

Zweig liefert dafür ein Handwerkszeug, das im Energiealltag gut passt. Sie greift ein Organisationsmodell von Stafford Beer auf. Operatives Tagesgeschäft, Ressourcenallokation, Ausnahmebehandlung, Umweltbeobachtung und Identität. KI sieht sie vor allem unten im operativen Bereich. Aber auch dort nur in klar abgegrenzten Bereichen. „Dünne Regeln leben in konstruierten Taschen der Welt“, sagt sie mit Blick auf regelhafte Prozesse. Der Rest sei voller Ausnahmen, die Urteilskraft brauchen.

Sie warnt deshalb vor einer falschen Erwartung an Agenten. Als Beispiel nennt sie Salesforce. Der Konzernchef Marc Benioff habe im August 2025 noch erklärt: „I’ve reduced the workforce from 9000 hats to about 5000.“ Nur wenige Monate später werde das Vertrauen offener relativiert. „We all had more trust in the LLM a year ago“, zitiert Zweig eine Salesforce Managerin. Nun müsse das Unternehmen „3000 bis 5000 Personen wieder einstellen“, weil der Sprung zu agentischen Systemen zu schnell gewesen sei.

Zweig listet typische Fehlerbilder: kognitive Überlastung bei zu vielen Instruktionen, fehlende Instruktionstreue, Drift bei Nebenfragen. Und dann der Rückgriff auf klassische Kontrolllogik. Salesforce baue Agenten wieder stärker mit deterministischen Komponenten ab. If then else statt Wunschdenken.

Qualität bleibt wichtiger als Quantität

Ein Satz bleibt hängen, weil er die Businesslogik trifft. „Nearly 40 Percent of AI time savings are lost to fixing low quality output“, sagt Zweig mit Verweis auf eine Studie. Wer KI einführt, muss also die Nacharbeit mitrechnen. Sonst stimmt die Wirtschaftlichkeit nicht.
Ihre Leitplanken sind pragmatisch. Singuläre Entscheidungen taugen nicht fürs Lernen. Faktische Entscheidungen können passen, wenn es ein Verifikationsverfahren gibt. Risikoprognosen brauchen Vorsicht, weil Vorhersagen die Zukunft verändern können. Werturteile gehören nicht in die Maschine. „Gerade im Bereich HR lassen Sie die Maschine nicht die nächste Person auswählen“, sagt sie.

Für die Umsetzung fordert sie einen Prozess, der in vielen Energieunternehmen noch nicht Standard ist. Problemspezifikation statt „wir wollen KI machen“. Technikneutral prüfen, ob einfache Verfahren reichen. Betroffene einbinden. Sauber implementieren. Und dann braucht es Change Management und laufende Qualitätssicherung.

SIXT: Agenten ja, aber mit Gatekeeper und Testregime

Wie sich das praktisch anfühlen kann, zeigt SIXT im Customer Service. Der Autovermieter wächst stark. „Ein jährliches durchschnittliches Umsatzwachstum von etwa 12 Prozent“ zwischen 2014 und 2024, sagt Dominik Eberlein, Vice President Data Science. Die Leitfrage sei deshalb nicht Personalabbau, sondern Skalierung. „Nicht wie verringern wir unsere Mitarbeiterbasis, sondern wie schaffen wir es, dieses Wachstum zu ermöglichen?“
SIXT setzt auf eine Kombination aus Regelwerk und generativer KI. Salesforce Service Cloud als Case Management, dazu eine eigene GenAI Plattform für Klassifikation und E Mail Unterstützung. Celonis hilft beim Process Mining. Und für den agentischen Teil arbeiten SIXT und adesso mit einer Multi Agent Architektur.

Sören Jäger, Conversational AI Experte bei adesso, formuliert die Kernbotschaft sehr klar. „GenAI alleine reicht nicht aus.“ Im Support seien die Risiken sofort spürbar. Compliance, Security, Qualität, Testing, Integration in CRM und Buchungssysteme. Dazu Performance und Kosten. Und ein Problem, das viele aus dem Alltag kennen. Kunden wollen sich nicht wiederholen. „Wir wollen klare Prozesse“, sagt Jäger.

Die Architektur folgt deshalb einem Prinzip, das auch in der Energiewirtschaft vertraut ist. Zuständigkeiten trennen und kritische Aktionen absichern. Ein Orchestrator steuert spezialisierte Agenten. Ein Authentifizierungsagent wirkt als Gatekeeper, bevor sensible Daten oder Transaktionen möglich sind. Das Ziel ist Geschwindigkeit ohne Kontrollverlust. Eberlein berichtet, der Einstieg über Chat Messaging sei in UK in „etwa vier Wochen“ produktiv gegangen. Danach folgte der Rollout, auch über WhatsApp. Ein VoiceBot läuft inzwischen je nach Land teilweise mit hohem Anteil am Traffic. Wichtig sei aber die Übergabe an Menschen bei komplexen Fällen.

Spannend ist auch der Blick auf die Ursache statt nur auf Automatisierung. SIXT spricht von Root Cause Elimination. Wenn Kunden fragen „Wo ist der Schalter?“, dann sollte es idealerweise gar nicht erst zum Kontakt kommen. Also bessere Kommunikation in der Buchungsbestätigung, nicht nur ein besserer Bot.

RWE Generation: Dashboards und KI waren nicht genug

Aus der Energiewirtschaft liefert RWE Generation eine bodenständigste KI Lektion. Der Kraftwerksbetrieb hat sich verändert. Mehr Volatilität, mehr Flexibilität, mehr Kostendruck. Benjamin Bolte von RWE beschreibt es konkret: Kraftwerke laufen nicht mehr konstant, sondern „bedarfsorientiert“. Damit steigen die Anforderungen an Verfügbarkeit und Instandhaltung.

RWE hat früh mit Datenplattform und BI begonnen. Ein Data Lake namens YUMA, Power BI Dashboards und KI Auswertungen. Aber dann kam die Praxis. „Dashboards und KI alleine waren nicht genug“, sagt Bolte. Es fehlte Personalisierung, es fehlte Verknüpfung, es fehlte Prozessintegration. Und plötzlich ging es nicht nur um Analyse, sondern auch um Dateneingabe. „Zettel und Stift“ mussten digital ersetzt werden.

Die Lösung ist weniger ein neues Modell, mehr ein Produktansatz. React als Frontend rahmt Dateneingabe, Visualisierung und KI Services. Ein Backend hält den Kontext. Ein Chatbot kennt Filter und Selektionen, damit Nutzer nicht jedes Mal neu erklären müssen, worum es geht. Der Mehrwert entsteht nicht durch einzelne Insights, sondern durch eine Oberfläche, die jeden Tag genutzt wird. Bolte nennt es „nachhaltige Effizienzsteigerung“ statt isolierter Erkenntnisse.

Die Takeaways klingen nach Organisation, nicht nach Tool. „Vorsprung durch den Menschen“, nennt es Bolte. Es brauche ein gemischtes Team, intern und extern, mit Freiraum. Christoph Lehmann von adesso ergänzt: „Fail fast.“ Und Sascha Wahlers, ebenfalls von adesso, fasst zusammen: „In Lösungen zu denken.“ Technologie sei austauschbar, entscheidend sei die konsistente Oberfläche.

E.ON: Modernisieren, ohne das Haus abzureißen

E.ON Digital Technology zeigt einen Weg, der vielen Stadtwerken vertraut vorkommt. Die Datenwelt ist historisch gewachsen. Ein reifes SAP BW Finanzdatenmodell, genutzt auch jenseits der Finance. Gleichzeitig kommen neue Quellen dazu, etwa SaaS Systeme und Databricks Daten. Die Frage lautet: wie modernisieren, ohne alles neu zu bauen.

Florian Goltz von adesso beschreibt den Ansatz mit einem Satz: „Wir reißen das Haus nicht ab, sondern wir wollen eine neue, moderne Schicht auf einem soliden Fundament aufsetzen.“ E.ON entscheidet sich für ein hybrides Modell mit SAP Datasphere. BW Inhalte werden über einen Model Transfer übernommen, Databricks wird per Connector integriert. Das Ziel: bestehende Investitionen nutzen und trotzdem schneller neue Use Cases anbinden. Der Preis ist eine Abhängigkeit, die später aufgelöst werden muss. Als Zeithorizont fällt das Jahr 2040, wenn BW Support ausläuft.

Bemerkenswert ist die Migrationslogik. Erst Inbound Layer, dann Harmonisierung, dann Reporting. Und ein realistischer Blick auf Parallelbetrieb. Für viele Netzbetreiber ist genau das die Normalität. Doppelte Datenhaltung ist kein Schönheitsfehler, sondern eine Übergangsphase.

Dataiku: Souveränität heißt wechseln können, ohne Krise

Zwischen den Use Cases zieht sich ein zweites Leitmotiv durch den Tag. Souveränität. Julian Hirth von Dataiku definiert sie ohne Pathos. „Souveränität ist es, Kontrolle zu behalten, auch unter Druck.“ Es gehe nicht nur darum, wo Daten liegen. Sondern ob ein Technologiewechsel zur strategischen Krise wird. Vendor Lock in, enge Kopplung und technische Schuld seien die echten Risiken. Seine Folgerung passt zu Zweigs Warnung vor zu viel Autonomie. Agenten müssen dort laufen können, wo die Daten sind. Human in the loop bleibt wichtig. Und Architektur entscheidet darüber, ob man wechseln kann.

Was bleibt für Stadtwerke und Netzbetreiber

Der Data Day zeigt, dass in Energiehäusern KI-Knowhow gerade erst aufgebaut wird. Erstens: Der Nutzen entsteht nicht im Labor, sondern im Prozess. Zweitens: Agenten sind kein Freifahrtschein. Ohne Gatekeeper, Tests und Monitoring werden sie teuer. Drittens: Datenplattformen sind notwendig, aber nicht ausreichend. RWE zeigt, dass der Produktansatz den Unterschied macht. Viertens: Modernisierung gelingt oft hybrid. E.ON beweist, dass man neue Schichten auf Altsysteme setzen kann, wenn man sauber modelliert. Und fünftens: Das stärkste KI Argument ist nicht Geschwindigkeit, sondern Verantwortung. Oder, wie Zweig es indirekt sagt: Wer ruhig liest, entscheidet besser.