Die Speaker für den World of Data 2026 stehen in den Startlöchern.
Entdecke unser inspirierendes Line-up:




Tim ist ein erfahrener Data Engineer mit langjähriger Berufserfahrung und hat in verschiedensten Branchen und mit unterschiedlichen Technologien gearbeitet. Er ist versiert darin, Teams zu führen, Datenlösungen zu entwickeln und aus Daten wertvolle Insights abzuleiten, um Unternehmensziele zu unterstützen. Eine weitere Leidenschaft von ihm ist es, Teamprozesse zu optimieren und zu automatisieren, mit Fokus auf DataOps und DevOps.

Germany’s “Energiewende” represents an ambitious and necessary transformation. This shift brings both significant technological innovation and digital challenges. 50Hertz is committed to leading the integration of renewable energy and is therefore developing a new control system. Data is essential to achieving this vision and enabling a sustainable, future-proof power grid.




Jochen ist seit mehreren Jahren bei der Atruvia AG tätig und dort unter anderem für die Umsetzung der Datenstrategie sowie die Weiterentwicklung analytischer Plattformen verantwortlich. Zuvor sammelte er vielseitige Berufserfahrung als Full-Stack Software Developer, Data Engineer, DevOps Engineer und IT-Architekt.

Das Thema der digitalen Souveränität hat im europäischen Raum in den letzten Jahren enorm an Wichtigkeit gewonnen. Geopolitische Risiken, Abhängigkeiten aufgrund internationaler Verflechtungen, globale Krisen oder gar Kriege sind aufgrund der jüngsten Geschichte längst kein abstraktes Bedrohungsszenarion mehr. Dieser Vortrag beschreibt mögliche Voprgehen für Unternehmen, die nach Strategien zur Reduktion von Abhängigkeiten, zur Stärkung der Kontrolle über ihre Daten sowie zur Gestaltung resilienter Datenarchitekturen suchen und daraufhin gezielte Technologieentscheidungen treffen wollen.




Arndt ist auf Advanced Analytics, Business Intelligence und Cloud-Initiativen spezialisiert. Mit seiner Expertise im Aufbau moderner Data Stacks nutzt er Technologien wie SAP S/4HANA, BigQuery und die Google Cloud Platform für datengetriebene Lösungen, darunter statistische Prognosen und Machine-Learning-Anwendungen.

What happens when you combine a massive Google Cloud transformation with a simultaneous S/4 HANA migration? You get a masterclass in complexity—and a lot of lessons learned the hard way. We’re pulling back the curtain on our journey, moving beyond the slides to discuss the pitfalls of dual transformations and the "scars" we earned along the way. We focus specifically on the technical integration and strategic data usage that bridge these two worlds. From the failures that stalled us to the high-impact use cases that saved us, this is a story of heartbreak, hard work, and—eventually—a data-driven transformation that actually works.




Bilal ist renommierter Keynote-Speaker, Unternehmer und Experte für KI. Er studierte BWL in Düsseldorf, ist regelmäßig im Silicon Valley und absolvierte KI-Kurse in den USA an den Eliteuniversitäten Harvard und Stanford. Er zählt zu den gefragtesten Speakern in Deutschland sowie Europa und wird regelmäßig von internationalen Unternehmen engagiert. Zudem ist Bilal aus verschiedenen TV-Formaten bekannt. Im September ist sein erstes Buch “Der klügste Freund, den wir je hatten” im Buchhandel erschienen.

„Jahrhundert-Chance: KI“ ist eine interaktive Keynote, die einen kompakten Überblick über den aktuellen Stand der Künstlichen Intelligenz weltweit gibt – mit frischen Einblicken aus dem Silicon Valley, China und Europa. Anhand konkreter Beispiele werden Anwendungsmöglichkeiten von KI in Unternehmen, im Alltag sowie ihre sozialen Auswirkungen beleuchtet. Zudem zeigt die Keynote, wie KI Medizin und Gesundheit verändert und bietet persönliche Einblicke in die zugrunde liegenden Technologien – verständlich, inspirierend und praxisnah.




Michael ist für das Cloud Program Management bei Controlware im Bereich Business Development verantwortlich. Er gestaltet die Partnerschaften mit AWS, HashiCorp an IBM Company, OVHcloud und Google GCP. Er verfügt über mehr als 25 Jahre internationaler ITK-Erfahrung in der IT-, Finanz-, Automobil-, Fertigungs- und Luftfahrtbranche.





Andrea ist Consultant für Marketing/Vertriebs Solutions bei Cornelsen mit Schwerpunkt auf Anforderungsanalyse und Systemumsetzung. Sie verfügt über langjährige Erfahrung in Marketingservices, Planungsprozessen sowie Prozessberatung und -implementierung. Zusätzlich verfügt sie über Erfahrung im Projektmanagement und in der Prozessoptimierung im Einklang mit systemischer Unterstützung.

Der Vortrag zeigt, wie der Cornelsen Verlag MARMIND als zentrales Steuerungsinstrument für Marketingaktivitäten etabliert und nahtlos mit SAP verzahnt hat. Im Fokus stehen die Neugestaltung der Planungs- und Freigabeprozesse, eine einheitliche Datenbasis sowie die Konzeption der Schnittstellen zwischen beiden Systemen. Die Projektreise – von den ersten Anforderungen bis zum laufenden Betrieb – liefert Einblicke, Erfolgsfaktoren und Lessons Learned für ähnliche Integrationsvorhaben.




Carsten Schweiger verfügt über mehr als 20 Jahre Berufserfahrung, davon 15 Jahre im Consulting mit Schwerpunkt Business Intelligence und Data Warehousing. Nach seinem Wirtschaftsinformatik-Studium bei HP sammelte er erste Business-Intelligence-Erfahrungen im Controlling und verantwortete zahlreiche Data-Warehouse-Projekte, unter anderem als Requirements Engineer, Architekt sowie Datenbank- und ETL-Entwickler. Sein fachlicher Fokus liegt auf Automatisierung, API-Entwicklung, Operations und Support sowie dem Aufbau nachhaltiger, skalierbarer Datenarchitekturen. In den vergangenen zehn Jahren begleitete er als Scrum Master und Agile Coach über 25 Teams in Transformationsprozessen. Seit 2024 ist er als Data & AI Enabler bei der 2150 Datavault Builder AG tätig. Dort verantwortet er unter anderem GenAI-basiertes Wissensmanagement, die Integration moderner AI-Architekturen einschließlich MCP-Servern sowie das Online-Training- und Certification-Programm.

Datenmodellierung ist oft abhängig von Erfahrung, Kontextwissen und vielen manuellen Schritten. KI kann diesen Prozess sinnvoll unterstützen. In diesem Talk zeige ich in einer Live-Demo von Anfang bis Ende, wie KI-Agenten den Weg von der fachlichen Anforderung bis zur Datenabfrage im DWH-Prozess unterstützen. Sie sehen: 1) ... wie aus einer fachlichen Beschreibung und bestehenden Quelldatenmodellen direkt ein Data Vault Modell entsteht. 2) ... wie das Modell per MCP Server regelkonform, konsistent und nachvollziehbar auf der Datenbank umgesetzt wird. 3) ... wie Daten per natürlicher Sprache abgefragt werden können – ohne SQL-Kenntnisse. Das Model Context Protocol (MCP) verbindet KI-Agenten direkt mit Modellierungswerkzeugen und Datenbanken. So wird aus einem Chatbot ein echter Arbeitsassistent. Eines vorweg: KI übernimmt das Handwerk. Die Architekturentscheidungen bleiben (noch) beim Menschen. Erleben Sie eine Live-Demo auf Basis von Datavault Builder und Database MCP Servern.




Als Chief Solution Architect gestaltet Johannes seit über 12 Jahren bei disy zukunftsfähige Lösungen für souveräne Dateninfrastrukturen, Datenplattformen und datenbasierte Entscheidungsunterstützung. Sein Fokus liegt darauf, mit disy Cadenza Fachlichkeit, moderne Datenanalyse und Location Intelligence zu einer leistungsfähigen, souveränen Analyseplattform zu verbinden, die Organisationen nachhaltige Handlungsfähigkeit und fundierte Entscheidungen ermöglicht.









Sönke verantwortet seit mehr als 15 Jahren Data- & Analytics-Organisationen in verschiedenen Industrien (u. a. Telefónica, Handelsblatt, XING, Fitness First und HRS). Seine Schwerpunkte sind die Entwicklung von Digitalisierungs- und Datenstrategien und deren Operationalisierung mit cloudbasierten analytischen Plattformen und ML-/AI-Lösungen. Er präsentiert seine innovativen Ergebnisse regelmäßig auf nationalen und internationalen Konferenzen.





Yannick leitet das KI & Daten-Team der Deutschen Presse-Agentur (dpa), der größten Nachrichtenagentur Deutschlands. Nach seinem Master in Management & Data Science sammelte Yannick mehrere Jahre Erfahrung als Data Scientist und Teamleiter in der IT-Beratung. Seit Anfang 2025 entwickelt sein Team innovative KI-Lösungen im Medien- und Informationsökosystem.

KI-Systeme sind nur so gut wie die Informationen, auf deren Basis sie Entscheidungen treffen. Mit dpa-iq bauen wir eine Retrieval-Infrastruktur auf AWS und Databricks, die verifizierte Informationen & Content in Echtzeit an LLM-basierte Agenten liefert - für interne Produktteams und externe Kunden gleichermaßen. Ein Blick hinter die Kulissen: Herausforderungen, Architektur und Umsetzung einer Plattform, die als Grounding-Backbone für agentische Workflows & Produkte dient.




Alex Merced ist Head of DevRel bei Dremio und bringt Erfahrung als Entwickler und Trainer mit. Seine berufliche Laufbahn umfasst Stationen bei GenEd Systems, Crossfield Digital, CampusGuard und General Assembly. Er ist Co-Autor von „Apache Iceberg: The Definitive Guide“ und „Apache Polaris: The Definitive Guide“, beide erschienen bei O’Reilly, sowie von „Architecting an Apache Iceberg Lakehouse“ bei Manning. Alex hat weltweit auf namhaften Events gesprochen, darunter SQLbits, DataEngBytes, Data Day Texas, Data Council und weitere. Er ist begeistert von Technologie und teilt seine Expertise über Blogs, Videos und seinen Podcast „Alex Merced's Tech Podcast“. Außerdem hat er mit Libraries wie SencilloDB und CoquitoJS Beiträge zu den JavaScript-, Rust- und Python-Communities geleistet. Zudem ist er der Entwickler des Pangolin Open Source Lakehouse Catalog.

Teams haben in Lakehouses, Pipelines und Dashboards investiert. Dennoch bleibt das Vertrauen in Daten gering. Analyst:innen duplizieren weiterhin Logik. AI-Systeme haben Schwierigkeiten, auf unvollständigem Kontext zu agieren. Die Ursache ist einfach: Der Semantic Layer hat nicht Schritt gehalten. Diese Session zeigt, wie fragmentierte Definitionen und isolierte Logik sowohl Analytics als auch AI ausbremsen. Anschließend wird ein einheitlicher Semantic Layer vorgestellt, der alle Datenquellen ohne Duplikation verbindet. Basierend auf einer offenen Architektur bringt dieser Layer konsistente Bedeutung in jede Abfrage, jedes Modell und jede Anwendung. Wenn Semantik geteilt wird, werden Daten vom Engpass zur verlässlichen Grundlage für Entscheidungen. Takeaways: 1) Warum Semantic Drift versteckte Data Debt erzeugt. 2) Wie mangelnder Kontext AI-Ergebnisse schwächt. 3) Wo der Semantic Layer in einer modernen Architektur verankert sein sollte. 4) Wie sich wiederverwendbare, governance-konforme Geschäftslogik skalierbar aufbauen lässt.




Claudia verfügt über 20 Jahre Berufserfahrung in den Bereichen Data Science, Artificial Intelligence und Innovation Management. Als Chief Data Officer bei der FIEGE Logistik ist sie zentral für die Daten und KI-Themen zuständig. Bis Sommer 2024 leitete sie bei der Deutschen Bahn das Data Intelligence Center und verantwortete die Daten & KI Strategie des Konzerns. Davor leitete sie das Machine Learning Team bei den T-Labs, der Forschungseinheit der Deutschen Telekom. Nebenher ist Claudia Angel Investorin. Sie ist Speakerin sowie Autorin und engagiert sich für die Bildung von Kindern und jungen Menschen im Bereich Daten & KI. Claudia wurde vielfach ausgezeichnet: 2019 als „Global Women Leader in AI“, „40 over 40 – Germany's Most Inspiring Women 2022“, als eine von „30 Outstanding Women in Data – 2023 Global Recognition“ und kürzlich mit dem ILD Leadership Award 2025 in der Kategorie „Inspiring Leader“.

KI rennt uns allen davon, doch wir frickeln noch an den Daten rum. Claudia Pohlink gibt Antworten aus dem Maschinenraum: dort, wo Datenqualität, Governance und operative Realität darüber entscheiden, ob KI-Projekte skalieren oder scheitern. Sie zeigt, wie ein klassisches Logistikunternehmen den Weg von der Datenstrategie zur messbaren KI-Wertschöpfung geht – mit all seinen Umwegen, Rückschlägen und echten Erfolgen. Kein Hochglanz, kein Buzzword-Bingo. Sondern Klartext und der Anti-Hype.





Sascha verfügt über mehr als 20 Jahre Berufserfahrung in den Bereichen Data Management, Data Governance, Analytics und digitale Transformation. Aktuell ist er Head of Data & AI Foundations bei der FIEGE Logistik. In dieser Rolle verantwortet er unter anderem die Themen zentrale Datenplattform, Data Management, Data Governance, Datenqualität sowie Self-Service-Analytics. Sein Fokus liegt auf skalierbaren, wirtschaftlich tragfähigen Datenarchitekturen und der nachhaltigen Verankerung von Datenkompetenz im Unternehmen. Zuvor war Sascha als Data Officer der Konzernleitung bei der Deutsche Bahn tätig und wirkte er als Chief Data Officer der Berlin Hyp AG. Zentrale Punkte bei ihm sind die praxisnahe Umsetzung von Data- & KI-Strategien, die Kosten-Nutzen-Optimierung von Dateninvestitionen sowie den erfolgreichen Aufbau leistungsfähiger Datenorganisationen.






Simon ist eine erfahrene Führungspersönlichkeit für Transformationen, Datenstrategien, Digitalisierungsinitiativen und Prozessoptimierungen. Als Global Head of Data Excellence bei der Giesecke+Devrient GmbH verantwortet er den globalen Umgang mit Daten sowie verschiedene Transformationsprogramme. Zuvor war er in leitenden Rollen bei UniCredit und PwC tätig mit Fokus auf Strategieentwicklung, Target Operating Models sowie Banking-Digitalisierung.





Thomas ist Head of Data-Driven Applications & Services bei GRENKE in Baden-Baden. GRENKE ist ein Finanzlösungsanbieter, der Dienstleistungen in mehr als 30 Ländern weltweit anbietet. Seine Abteilung hat das Ziel, geschäftlichen Mehrwert durch Daten sowie datenbezogene Services und Anwendungen zu liefern. Er hat die letzten 20 Jahre mit Daten, Datenbanken, IT-Services und zugehöriger Infrastruktur verbracht. Davor war er Rettungssanitäter beim Deutschen Roten Kreuz.

Organizations sit on mountains of data, yet without a strategy, they risk sinking into a swamp of disorganized information, where potential insights are lost. Many companies treat data as a commodity rather than a strategic driver, leaving untapped potential on the table. This session explores how organizations can move beyond reactive data management and establish a forward-looking strategy that aligns with business goals. Whether you're a DBA, data scientist, or manager, the first step is asking why your data matters, what value it brings, and how it can empower decision-making. We will identify why data initiatives fail and data strategies fall short. You'll see how defining a clear vision anchors your strategy. We'll discuss how to build a culture that embraces data as a strategic asset, not just a technical tool. Crucially, we will explore the human side of data because data is only as valuable as the impact it creates for the people who use it. Discover why your data strategy might be doomed before it starts and what you can do about it before you're knee-deep in the swamp.




Tamara ist Datenanalystin in der E‑Mobilität mit dem Schwerpunkt auf der Digitalisierung von Fertigungslinien. Ihr Fokus liegt darauf, Maschinen‑ und Produktdaten in Echtzeit für Anwender nutzbar zu machen, um datengetriebene Prozessoptimierungen zu ermöglichen und die Transparenz in der Linieninbetriebnahme nachhaltig zu erhöhen. Aufbauend auf der Erfahrung in der Projektkoordination der Produktreifegradentwicklung elektrischer Antriebe.

Der Vortrag beschreibt die datenarchitektonische Transformation eines Maschinenbauunternehmens, das gemeinsam mit b.telligent Microsoft Fabric zur Ablösung von SAP BW implementiert hat. Aus einem zunächst SAP fokussierten Projekt entstand ein Multisource Setup mit REST APIs, Kafka Eventstreams, SQL Datenbanken, usw. – aufgebaut im domänenübergreifenden Hub and Spoke System und ausgerichtet auf einen Single Point of Truth. Die Architektur verbindet dabei die SAP Lakehouse Welten mit hochfrequenten Engineering Datenströmen. Besonders im Engineering steht Self Service in Echtzeit Dashboards mit KQL Querysets im Mittelpunkt, um Fachbereiche nachhaltig zu befähigen.





Thomas ist Controller bei den GROB‑Werken mit Schwerpunkt auf Reporting und Projektanalyse. In seiner Rolle als Projektleiter verantwortet er zudem die BI‑Strategie der GROB‑Gruppe. Er bringt langjährige Erfahrung im Controlling, in der Projektsteuerung und im Management‑Reporting mit und verfügt über tiefgehendes, modulübergreifendes SAP‑Know‑how sowie umfassende Expertise in der Weiterentwicklung datenbasierter Steuerungsprozesse.

Der Vortrag beschreibt die datenarchitektonische Transformation eines Maschinenbauunternehmens, das gemeinsam mit b.telligent Microsoft Fabric zur Ablösung von SAP BW implementiert hat. Aus einem zunächst SAP fokussierten Projekt entstand ein Multisource Setup mit REST APIs, Kafka Eventstreams, SQL Datenbanken, usw. – aufgebaut im domänenübergreifenden Hub and Spoke System und ausgerichtet auf einen Single Point of Truth. Die Architektur verbindet dabei die SAP Lakehouse Welten mit hochfrequenten Engineering Datenströmen. Besonders im Engineering steht Self Service in Echtzeit Dashboards mit KQL Querysets im Mittelpunkt, um Fachbereiche nachhaltig zu befähigen.





Als Bergsteiger ist Alexander Huber in der steilen Welt der Berge körperlich wie auch mental oft genug an die Grenzen gegangen. Es ist eben nicht nur die physische Kraft, die einen erfolgreichen Bergsteiger auszeichnet, sondern ganz im Gegenteil: die wahren Pioniere waren schon immer diejenigen mit der größten visionären Kraft! Dabei ist es mehr als offensichtlich, dass sich Ideen und Visionen nur dann erfolgreich umsetzen lassen, wenn geschickte Strategie und Planung die Grundlage bilden – nur so lässt sich das vorhandene Potential voll ausschöpfen. Die dazu notwendige Motivation wird dabei immer nur von der grundsätzlichen Freude am Schaffen generiert: die Passion als Quelle der Kraft! Das eingespielte Team Alexander und Thomas beginnt sich bereits in ihrer Kindheit zu bilden. Sie suchen gemeinsam nach Herausforderungen und tragen als Seilpartner aber dennoch Eigenverantwortung. Die Passion Berg steht als Metapher für das Leben und lässt Raum für Betrachtungen von beeindruckend bildgewaltigen Standpunkten… Denn es ist nicht der Berg, den man bezwingt, sondern immer nur das eigene Ich!

Weitere Informationen folgen in Kürze.




Marco verantwortet als Senior Director den Digital & Innovation Hub bei Infineon und treibt dort seit 2017 die digitale Transformation und Innovationsthemen des Unternehmens voran. Seine vorherigen Stationen umfassen leitende Funktionen im Kooperations-, Produkt- und Projektmanagement bei ADAC Finanzdienste und ADAC Autovermietung sowie Beratungserfahrung bei EY.





Daniel ist seit mehr als 20 Jahren in der IT-Branche tätig und fokussiert sich dabei konsequent auf Partner Management und Business Development. Seit 5 Jahren treibt er bei IONOS den Aufbau des Partner-Ökosystems voran, verantwortet das gemeinsame Projektgeschäft und entwickelt Partner-managed PaaS- und SaaS-Services als strategische Erweiterung des IONOS Produktportfolios.









Kai ist seit Mitte 2025 Solution Architect, Data & Analytics bei Karl Storz. Als ganzheitlich denkender, ergebnisorientierter Architekt konzentriert er sich auf Konzepte, Strategie und Governance – verankert in einem starken technischen Fundament. Er schlägt die Brücke zwischen KI, BI und geschäftlichen Anforderungen, um echten Mehrwert zu schaffen. Frühere Stationen umfassten kundennahe Beratung und Architektur in datengetriebenen Unternehmen.

Self Service Analytics verspricht Geschwindigkeit und Freiheit, doch führt bei wachsendem Erfolg schnell zu Unübersichtlichkeit. Auch bei Karl Storz sorgen viele Tools und immer mehr Dashboards dafür, dass Orientierung und Vertrauen leiden. Wir zeigen unseren aktuellen Lösungsansatz: den Schritt von einzelnen Dashboards hin zu klar definierten und zertifizierten Analytics Products.





Livia ist IT-Architektin mit Spezialisierung auf moderne Datenplattformen und skalierbare Analytics-Architekturen. Derzeit wirkt sie an der Entwicklung einer globalen Analytics-Plattform mit und gestaltet dabei Architekturprinzipien sowie Governance-Standards. Zuvor arbeitete sie als Data Engineer mit Schwerpunkt auf Requirements Engineering und enger Zusammenarbeit mit Fachbereichs-Stakeholdern. Ihre Arbeit umfasste die Integration und Modellierung von SAP- und CRM-Daten für analytische Datenplattformen.

Self Service Analytics verspricht Geschwindigkeit und Freiheit, doch führt bei wachsendem Erfolg schnell zu Unübersichtlichkeit. Auch bei Karl Storz sorgen viele Tools und immer mehr Dashboards dafür, dass Orientierung und Vertrauen leiden. Wir zeigen unseren aktuellen Lösungsansatz: den Schritt von einzelnen Dashboards hin zu klar definierten und zertifizierten Analytics Products.





Jonathan verantwortet die MarTech-Architektur sowie die technische Steuerung bei Mytheresa, Net-A-Porter und Mr Porter. In seiner Rolle leitet er den Fachbereich für Tracking und Datenintegrität und fungiert als zentrale Schnittstelle zwischen Marketingzielen und technischer Strategie. Mit einem fundierten Hintergrund in CRM-Technologie, Performance-Marketing und Tracking gestaltet er das übergreifende Governance-Framework und definiert die strategische Ausrichtung des gesamten MarTech-Stacks.

Achieving a precise understanding of marketing impact often means moving beyond the limitations of standardized platforms. In this session, I will share how we designed and deployed a full-scale internal attribution framework at Mytheresa. I’ll walk through our approach to connecting scattered data sources, the engineering behind our unified tracking layer, and why we prioritized full ownership of our data and processes. We’ll look at the technical architecture and the practical steps we took to build a centralized system for a complete view of the customer journey.




Caroline ist Chief Data Officer der Münchener Hypothekenbank eG. Nach ihrer Ausbildung zur Bankkauffrau und einem VWL-Studium in München und Madrid begann sie im Kreditrisikomanagement. Es folgten Jahre in der Bankenberatung sowie im Risikocontrolling, wo sie einen zentralen Datenhaushalt aufbaute und BCBS 239 umsetzte. Seit Januar 2024 verantwortet sie bei der MHB das fachliche Datenmanagement.

Viele Projekte zur Verbesserung der Datenarchitekturen in großen Unternehmen haben einen konkreten regulatorischen Ausgangspunkt oder starten mit definierten technischen Zielen – und kämpfen mit Problemen in der Umsetzung. Warum? Weil sie als reine Umsetzungsprojekte verstanden werden, obwohl ihr Kern in der Veränderung von Organisation, Kultur und Arbeitsweisen liegt. Dieser Vortrag beleuchtet, warum der Aufbau eines nachhaltigen Datenmanagements weit mehr ist als die Einführung von Tools und Prozessen. Im Fokus steht der oft unterschätzte Change-Charakter von derartigen Initiativen wie beispielsweise der Umsetzung von BCBS 239 in der Bankenwelt: von der Etablierung klarer Verantwortlichkeiten über den Umgang mit Widerständen bis hin zur Verankerung von einem nachhaltigen Umgang mit Datenqualität im täglichen Handeln. Anhand praxisnaher Erfahrungen wird aufgezeigt, woran Datenprogramme typischerweise scheitern – und welche Erfolgsfaktoren entscheidend sein können, um sie wirksam und nachhaltig umzusetzen. Teilnehmer erhalten konkrete Impulse, wie sie den notwendigen Wandel aktiv gestalten und die Umsetzung damit zum Erfolg führen können.




Jonas ist Data Scientist und Product Owner bei OTTO, wo er seit 2023 an verschiedenen Produkten im Kontext Marketing-Optimierung und Kundenanalyse mitgewirkt hat. Aktuell verantwortet er die Entwicklung und Anwendung der Customer Lifetime Values (CLV). Vor OTTO arbeitete er fünf Jahre bei L’Oréal, ebenfalls an Analytics-Themen in den Rollen Data Analyst und Data Scientist.

Um Budgets gezielt nach Kundenpotenzial einzusetzen, braucht es eine individuelle Profitabilitätsbewertung auf Einzelkundenebene. Seit diesem Geschäftsjahr setzt OTTO ein neues statistisches CLV-Modell ein, das den Kundenwert konkret als erwarteten Profit des kommenden Jahres definiert und individuell vorhersagt. Damit wird eine differenzierte Ansprache je nach Potenzial ermöglicht, ob im CRM, Customer Care oder bei Marketingentscheidungen. Im Vortrag beleuchten wir neben dem technischen Hintergrund vor allem unsere praktischen Erfahrungen in der Anwendung. Ein besonderes Augenmerk liegt dabei auf dem Change Management: Die Steuerung nach einem prognostischen Profit-CLV erfordert an einigen Stellen ein echtes Umdenken und genau darin liegt eine der spannendsten Herausforderungen dieses Projekts.




Kolja ist bei Rameder für die Datenstrategie, das Datenteam und die greenfield Data & Analytics-Plattform verantwortlich. Bevor er zu Rameder kam, führte er das Data Foundation-Team bei MediaMarktSaturn. Dort leitete er die Migration vom Legacy-DWH zur neuen Cloud-Datenplattform. Seine Laufbahn begann Kolja in der IT-Beratung, wo er in 10 Jahren Datenlösungen für zahlreiche Kunden erarbeitete.

Wie bei vielen Unternehmen im kleineren Mittelstand war die Datenwelt bei Rameder bis Herbst 2024 eine heterogene Insellandschaft. SAP im Zentrum, mehrere Cloud-Services wie Google Analytics rund herum und einzelne - von verschiedenen Bereichen aufgebaute - Datenbanken dazwischen. Um systemübergreifende Analysen in hoher Qualität zu ermöglichen, wurde Ende 2024 die Entscheidung für eine Greenfield-Datenplattform in der Google Cloud getroffen. Der Vortrag zeigt die Plattformarchitektur und den Ansatz, wie alle Datenquellen an die neue Datenplattform angebunden werden konnten. Die größte Herausforderung war dabei die Integration von SAP BW. Zusätzlich enthielt es die meiste zu migrierende Geschäftslogik. Daher schauen wir uns dort die Details an, inkl. erstem fehlgeschlagenen Pilotprojekt und der erfolgreichen zweiten Lösung.




Nach Abschluss seines Masterstudiums in Maschinenbau, Wirtschaftswissenschaften und Automobilmanagement begann Detlev seine Karriere bei Vodafone und Colt Telecom im Bereich Service Provider. Ab 1999 hatte er verschiedene internationale Vertriebsaufgaben bei Cisco inne, wo er für globale Kunden zuständig war und das Service-Provider-Team leitete. 2017 wechselte er zu Arista Networks, wo er das Emerging EMEA Sales Team leitete, dessen Schwerpunkt auf KI-gesteuerter Netzwerkautomatisierung und -verwaltung lag. Seit 2025 ist er bei Red Hat im EMEA AI Platform Team als Sales Specialist tätig.









Seit 15 Jahren in der IT-Industrie tätig, ist Nicolas aktuell als Senior Platform Strategist bei Red Hat für App-Plattformen und den FSI-Bereich verantwortlich. Er verfügt über langjährige Erfahrung in der Einführung von Plattformen, der Zusammenführung von Business und IT sowie der Adoption von Innovationen in den Bereichen Hybrid Cloud und KI – stets im Sinne des Open-Source-Gedankens.









Mit über fünf Jahren Erfahrung an der Schnittstelle von KI-Strategie und technischer Lösungsentwicklung hat Christoph Organisationen in verschiedensten Branchen dabei unterstützt, Daten in echten geschäftlichen Mehrwert zu verwandeln – von der Beratung zu Enterprise-KI-Governance bis hin zur Entwicklung und Implementierung produktionsreifer KI-Anwendungen. Heute ist er auf Generative KI spezialisiert und hilft Unternehmen, die Komplexität von Enterprise-KI zu durchdringen.





Stefan ist Head of Data Strategy & Analytics bei der SPAR Österreich Gruppe. In dieser Rolle gestaltet er die Weiterentwicklung der Data Analytics Strategie und den Einsatz moderner Datenplattformen. Dabei begleitet er die Transformation der Analytics-Landschaft sowie die Umsetzung der SPAR-Datenstrategie in Organisation und Kultur.

In diesem Vortrag geben wir Einblicke in die Datenreise bei SPAR und zeigen, wie wir datengetriebenes Arbeiten im Unternehmen neu denken. Dabei beleuchten wir, wie aus isolierten Datenquellen eine vernetzte Datenlandschaft entsteht, welche organisatorischen und technologischen Veränderungen dafür notwendig waren. Anhand konkreter Beispiele zeigen wir, wie aus Daten echter Mehrwert entsteht, und welche Learnings wir auf diesem Weg mitgenommen haben.




Sönke verfügt über langjährige Praxiserfahrung im Bereich Big Data. Er unterstützt Kunden bei der Konzeption und Umsetzung von Lösungen und engagiert sich aktiv in Open-Source-Projekten. Durch seine intensive Beschäftigung mit dem Aufbau und der Wartung von Infrastrukturen hat er umfassende Einblicke in die vielfältigen Anforderungen und Rahmenbedingungen gewonnen, die für effektive Big-Data-Architekturen entscheidend sind. Als CPO bei Stackable lässt er dieses Fachwissen in das Produkt einfließen, um sicherzustellen, dass es den Bedürfnissen jedes einzelnen Kunden voll und ganz gerecht wird.









Nancy ist Senior Data Engineer bei den Stadtwerken Düsseldorf. Sie betreut fachliche Use Cases von der Anforderung bis zur produktiven ETL-Pipeline – mit Fokus auf Data Mesh, Data Vault 2.0 und messbarem Business Value. Ihre Technologien sind Databricks, dbt Labs und Azure Services.

Daten entscheiden. Aber wer darf sie sehen? In vielen Unternehmen lautet die ehrliche Antwort: die IT – und sonst kaum jemand. Dieser Vortrag ist für alle, die das ändern wollen. Ich erzähle, warum Self-Service Analytics bei uns zunächst gescheitert ist, was wir intern überwinden mussten – und wie es am Ende doch funktioniert hat. Kein technischer Deep-Dive, sondern eine ehrliche Geschichte über Daten, Verantwortung und die Frage: Wem gehören eigentlich die Erkenntnisse in deinem Unternehmen?




Ulisse ist Regional VP Solution Consulting EMEA bei Tealium und verfügt über mehr als 15 Jahre Erfahrung in Softwareentwicklung und Solution Consulting. Er ist darauf spezialisiert, Unternehmen bei der Nutzung von KI und Echtzeit-Datenorchestrierung zu unterstützen, um vertrauenswürdige, klar geregelte Datenfundamente aufzubauen, die intelligentere und stärker personalisierte Kundenerlebnisse ermöglichen. Mit Expertise in den Bereichen CDP, MarTech und AdTech ist Ulisse ein anerkannter Vordenker und Sprecher, der Innovation an der Schnittstelle von KI und Datenaktivierung vorantreibt.

Lorem ipsum dolor sit amet, consetetur sadipscing elitr, sed diam nonumy eirmod tempor invidunt ut labore et dolore magna aliquyam erat, sed diam voluptua. At vero eos et accusam et justo duo dolores et ea rebum. Stet clita kasd gubergren, no sea takimata sanctus est Lorem ipsum dolor sit amet. Lorem ipsum dolor sit amet, consetetur sadipscing elitr, sed diam nonumy eirmod tempor invidunt ut labore et dolore magna aliquyam erat, sed diam voluptua.




Birgitta arbeitet bei Telefónica Germany im Bereich AI, Analytics und BI Platforms. Sie verantwortet cloud-native KI-Architekturen mit Azure und Databricks und zeigt, wie GenAI über DevOps, Governance und Security auch in hochregulierten Umgebungen produktiv betrieben werden kann.

KI in stark regulierten Umgebungen erfolgreich einzusetzen erfordert mehr als Technologie. In diesem Beitrag stellen wir unser praxiserprobtes Framework vor, das KI ganzheitlich von Strategie und Use‑Case‑Priorisierung über Governance, Compliance und Architektur bis hin zum sicheren Betrieb betrachtet. Anhand konkreter Beispiele zeigen wir, wie Organisationen mit klaren Leitplanken Innovation ermöglichen, regulatorische Anforderungen erfüllen und nachhaltigen Business‑Mehrwert aus KI schaffen.





Franz ist Senior Process Manager im Bereich DevOps mit Schwerpunkt Cloud, Machine Learning und AI. Er gestaltet strategische cloud-native Transformationen, optimiert End-to-End-DevOps-Prozesse und arbeitet eng mit Security, Datenschutz und Betriebsrat zusammen, um moderne KI- und Cloud-Architekturen sicher, compliant und nachhaltig in Unternehmen zu verankern.

KI in stark regulierten Umgebungen erfolgreich einzusetzen erfordert mehr als Technologie. In diesem Beitrag stellen wir unser praxiserprobtes Framework vor, das KI ganzheitlich von Strategie und Use‑Case‑Priorisierung über Governance, Compliance und Architektur bis hin zum sicheren Betrieb betrachtet. Anhand konkreter Beispiele zeigen wir, wie Organisationen mit klaren Leitplanken Innovation ermöglichen, regulatorische Anforderungen erfüllen und nachhaltigen Business‑Mehrwert aus KI schaffen.





Als Head of Digital People, Culture bei der WACKER Chemie AG in München ist Julia verantwortlich für die erfolgreiche Einführung von Daten‑, Analytics‑ und KI‑Lösungen und legt dabei einen klaren Fokus auf den Menschen als entscheidenden Erfolgsfaktor. Ihre Schwerpunkte liegen auf nachhaltiger Nutzung, messbarem Erfolg und der Entwicklung einer starken Daten‑ und Veränderungskultur.

Unternehmen investieren in Daten, KI und digitale Tools – doch die Wirkung hängt von einer tatsächlichen Verhaltensänderung bei den Mitarbeitenden ab. In diesem Beitrag erläutert Julia Pogorzelski, User Adoption Expert bei WACKER, was Benutzerakzeptanz wirklich bedeutet – nicht nur die Einführung von Tools, sondern eine menschenzentrierte Förderung von Bewusstsein, Fähigkeiten und nachhaltiger Nutzung. Sie erfahren, wie Sie den Erfolg messen, KPIs an den Akzeptanzergebnissen ausrichten und Ängste und psychologische Biases angehen können, die die digitale Akzeptanz behindern. Anhand realer Fälle, wie der Einführung von MS Copilot, erleben Sie, wie die Prinzipien von User Adoption zielgerichtet eingesetzt werden und dadurch Kompetenz, Transformation und Kultur gefördert werden.




Tim ist seit mehr als 15 Jahren im Bereich Business Intelligence tätig. Über die Zeit hat sich sein Aufgabenschwerpunkt von der Erstellung von Reports und Dashboards, über die Projektarbeit mit dem Fokus auf neue Informationssysteme hin zu dem Aufbau einer BI Platform verändert. Hierzu zählt die erfolgreiche globale Einführung und Etablierung von Power BI als Analyse-/ Reporting Platform bei Weidmüller und ganz aktuell, der Aufbau einer Data Platform basierend auf Microsoft Fabric. Hierbei liekt aktuell sein Fokus auf der Entwicklung und Etablierung einer Platform Strategie und einer Platform Governance.

Der Vortrag „Schatzkarte statt Datendschungel – Organisation & Data Catalog als Erfolgsfaktor“ beginnt mit einer Reise in die Vergangenheit und die Evolution der Data und Analytics Plattform bei Weidmüller wird umrissen. Anschließend wird die gegenwärtige Organisation dargestellt und Erfolgsfaktoren bei der Realisierung benannt. Zudem wird der mit Microsoft Tools eigenständig entwickelte Data Catalog – der an den Bedarfen im Unternehmen ausgerichtet ist – vorgestellt.
