Unser Programm für den World of Data 2026 ist vollgepackt mit spannenden Themen und inspirierenden Speakern. Fehlende Infos ergänzen wir in Kürze – schau regelmäßig vorbei, um keine Updates zu verpassen!


Alex Merced ist Head of DevRel bei Dremio und bringt Erfahrung als Entwickler und Trainer mit. Seine berufliche Laufbahn umfasst Stationen bei GenEd Systems, Crossfield Digital, CampusGuard und General Assembly. Er ist Co-Autor von „Apache Iceberg: The Definitive Guide“ und „Apache Polaris: The Definitive Guide“, beide erschienen bei O’Reilly, sowie von „Architecting an Apache Iceberg Lakehouse“ bei Manning. Alex hat weltweit auf namhaften Events gesprochen, darunter SQLbits, DataEngBytes, Data Day Texas, Data Council und weitere. Er ist begeistert von Technologie und teilt seine Expertise über Blogs, Videos und seinen Podcast „Alex Merced's Tech Podcast“. Außerdem hat er mit Libraries wie SencilloDB und CoquitoJS Beiträge zu den JavaScript-, Rust- und Python-Communities geleistet. Zudem ist er der Entwickler des Pangolin Open Source Lakehouse Catalog.


Michael ist für das Cloud Program Management bei Controlware im Bereich Business Development verantwortlich. Er gestaltet die Partnerschaften mit AWS, HashiCorp an IBM Company, OVHcloud und Google GCP. Er verfügt über mehr als 25 Jahre internationaler ITK-Erfahrung in der IT-, Finanz-, Automobil-, Fertigungs- und Luftfahrtbranche.


Jochen ist seit mehreren Jahren bei der Atruvia AG tätig und dort unter anderem für die Umsetzung der Datenstrategie sowie die Weiterentwicklung analytischer Plattformen verantwortlich. Zuvor sammelte er vielseitige Berufserfahrung als Full-Stack Software Developer, Data Engineer, DevOps Engineer und IT-Architekt.


Marco verantwortet als Senior Director den Digital & Innovation Hub bei Infineon und treibt dort seit 2017 die digitale Transformation und Innovationsthemen des Unternehmens voran. Seine vorherigen Stationen umfassen leitende Funktionen im Kooperations-, Produkt- und Projektmanagement bei ADAC Finanzdienste und ADAC Autovermietung sowie Beratungserfahrung bei EY.


Als Chief Solution Architect gestaltet Johannes seit über 12 Jahren bei disy zukunftsfähige Lösungen für souveräne Dateninfrastrukturen, Datenplattformen und datenbasierte Entscheidungsunterstützung. Sein Fokus liegt darauf, mit disy Cadenza Fachlichkeit, moderne Datenanalyse und Location Intelligence zu einer leistungsfähigen, souveränen Analyseplattform zu verbinden, die Organisationen nachhaltige Handlungsfähigkeit und fundierte Entscheidungen ermöglicht.


Sönke verfügt über langjährige Praxiserfahrung im Bereich Big Data. Er unterstützt Kunden bei der Konzeption und Umsetzung von Lösungen und engagiert sich aktiv in Open-Source-Projekten. Durch seine intensive Beschäftigung mit dem Aufbau und der Wartung von Infrastrukturen hat er umfassende Einblicke in die vielfältigen Anforderungen und Rahmenbedingungen gewonnen, die für effektive Big-Data-Architekturen entscheidend sind. Als CPO bei Stackable lässt er dieses Fachwissen in das Produkt einfließen, um sicherzustellen, dass es den Bedürfnissen jedes einzelnen Kunden voll und ganz gerecht wird.


Seit 15 Jahren in der IT-Industrie tätig, ist Nicolas aktuell als Senior Platform Strategist bei Red Hat für App-Plattformen und den FSI-Bereich verantwortlich. Er verfügt über langjährige Erfahrung in der Einführung von Plattformen, der Zusammenführung von Business und IT sowie der Adoption von Innovationen in den Bereichen Hybrid Cloud und KI – stets im Sinne des Open-Source-Gedankens.


Nach Abschluss seines Masterstudiums in Maschinenbau, Wirtschaftswissenschaften und Automobilmanagement begann Detlev seine Karriere bei Vodafone und Colt Telecom im Bereich Service Provider. Ab 1999 hatte er verschiedene internationale Vertriebsaufgaben bei Cisco inne, wo er für globale Kunden zuständig war und das Service-Provider-Team leitete. 2017 wechselte er zu Arista Networks, wo er das Emerging EMEA Sales Team leitete, dessen Schwerpunkt auf KI-gesteuerter Netzwerkautomatisierung und -verwaltung lag. Seit 2025 ist er bei Red Hat im EMEA AI Platform Team als Sales Specialist tätig.


Daniel ist seit mehr als 20 Jahren in der IT-Branche tätig und fokussiert sich dabei konsequent auf Partner Management und Business Development. Seit 5 Jahren treibt er bei IONOS den Aufbau des Partner-Ökosystems voran, verantwortet das gemeinsame Projektgeschäft und entwickelt Partner-managed PaaS- und SaaS-Services als strategische Erweiterung des IONOS Produktportfolios.


Mit über fünf Jahren Erfahrung an der Schnittstelle von KI-Strategie und technischer Lösungsentwicklung hat Christoph Organisationen in verschiedensten Branchen dabei unterstützt, Daten in echten geschäftlichen Mehrwert zu verwandeln – von der Beratung zu Enterprise-KI-Governance bis hin zur Entwicklung und Implementierung produktionsreifer KI-Anwendungen. Heute ist er auf Generative KI spezialisiert und hilft Unternehmen, die Komplexität von Enterprise-KI zu durchdringen.


Bilal ist renommierter Keynote-Speaker, Unternehmer und Experte für KI. Er studierte BWL in Düsseldorf, ist regelmäßig im Silicon Valley und absolvierte KI-Kurse in den USA an den Eliteuniversitäten Harvard und Stanford. Er zählt zu den gefragtesten Speakern in Deutschland sowie Europa und wird regelmäßig von internationalen Unternehmen engagiert. Zudem ist Bilal aus verschiedenen TV-Formaten bekannt. Im September ist sein erstes Buch “Der klügste Freund, den wir je hatten” im Buchhandel erschienen.


Jonathan verantwortet die MarTech-Architektur sowie die technische Steuerung bei Mytheresa, Net-A-Porter und Mr Porter. In seiner Rolle leitet er den Fachbereich für Tracking und Datenintegrität und fungiert als zentrale Schnittstelle zwischen Marketingzielen und technischer Strategie. Mit einem fundierten Hintergrund in CRM-Technologie, Performance-Marketing und Tracking gestaltet er das übergreifende Governance-Framework und definiert die strategische Ausrichtung des gesamten MarTech-Stacks.


Thomas ist Controller bei den GROB‑Werken mit Schwerpunkt auf Reporting und Projektanalyse. In seiner Rolle als Projektleiter verantwortet er zudem die BI‑Strategie der GROB‑Gruppe. Er bringt langjährige Erfahrung im Controlling, in der Projektsteuerung und im Management‑Reporting mit und verfügt über tiefgehendes, modulübergreifendes SAP‑Know‑how sowie umfassende Expertise in der Weiterentwicklung datenbasierter Steuerungsprozesse.


Tamara ist Datenanalystin in der E‑Mobilität mit dem Schwerpunkt auf der Digitalisierung von Fertigungslinien. Ihr Fokus liegt darauf, Maschinen‑ und Produktdaten in Echtzeit für Anwender nutzbar zu machen, um datengetriebene Prozessoptimierungen zu ermöglichen und die Transparenz in der Linieninbetriebnahme nachhaltig zu erhöhen. Aufbauend auf der Erfahrung in der Projektkoordination der Produktreifegradentwicklung elektrischer Antriebe.


Als Bergsteiger ist Alexander Huber in der steilen Welt der Berge körperlich wie auch mental oft genug an die Grenzen gegangen. Es ist eben nicht nur die physische Kraft, die einen erfolgreichen Bergsteiger auszeichnet, sondern ganz im Gegenteil: die wahren Pioniere waren schon immer diejenigen mit der größten visionären Kraft! Dabei ist es mehr als offensichtlich, dass sich Ideen und Visionen nur dann erfolgreich umsetzen lassen, wenn geschickte Strategie und Planung die Grundlage bilden – nur so lässt sich das vorhandene Potential voll ausschöpfen. Die dazu notwendige Motivation wird dabei immer nur von der grundsätzlichen Freude am Schaffen generiert: die Passion als Quelle der Kraft! Das eingespielte Team Alexander und Thomas beginnt sich bereits in ihrer Kindheit zu bilden. Sie suchen gemeinsam nach Herausforderungen und tragen als Seilpartner aber dennoch Eigenverantwortung. Die Passion Berg steht als Metapher für das Leben und lässt Raum für Betrachtungen von beeindruckend bildgewaltigen Standpunkten… Denn es ist nicht der Berg, den man bezwingt, sondern immer nur das eigene Ich!


Livia ist IT-Architektin mit Spezialisierung auf moderne Datenplattformen und skalierbare Analytics-Architekturen. Derzeit wirkt sie an der Entwicklung einer globalen Analytics-Plattform mit und gestaltet dabei Architekturprinzipien sowie Governance-Standards. Zuvor arbeitete sie als Data Engineer mit Schwerpunkt auf Requirements Engineering und enger Zusammenarbeit mit Fachbereichs-Stakeholdern. Ihre Arbeit umfasste die Integration und Modellierung von SAP- und CRM-Daten für analytische Datenplattformen.


Andrea ist Consultant für Marketing/Vertriebs Solutions bei Cornelsen mit Schwerpunkt auf Anforderungsanalyse und Systemumsetzung. Sie verfügt über langjährige Erfahrung in Marketingservices, Planungsprozessen sowie Prozessberatung und -implementierung. Zusätzlich verfügt sie über Erfahrung im Projektmanagement und in der Prozessoptimierung im Einklang mit systemischer Unterstützung.


Als Head of Digital People, Culture bei der WACKER Chemie AG in München ist Julia verantwortlich für die erfolgreiche Einführung von Daten‑, Analytics‑ und KI‑Lösungen und legt dabei einen klaren Fokus auf den Menschen als entscheidenden Erfolgsfaktor. Ihre Schwerpunkte liegen auf nachhaltiger Nutzung, messbarem Erfolg und der Entwicklung einer starken Daten‑ und Veränderungskultur.


Stefan ist Head of Data Strategy & Analytics bei der SPAR Österreich Gruppe. In dieser Rolle gestaltet er die Weiterentwicklung der Data Analytics Strategie und den Einsatz moderner Datenplattformen. Dabei begleitet er die Transformation der Analytics-Landschaft sowie die Umsetzung der SPAR-Datenstrategie in Organisation und Kultur.


Caroline ist Chief Data Officer der Münchener Hypothekenbank eG. Nach ihrer Ausbildung zur Bankkauffrau und einem VWL-Studium in München und Madrid begann sie im Kreditrisikomanagement. Es folgten Jahre in der Bankenberatung sowie im Risikocontrolling, wo sie einen zentralen Datenhaushalt aufbaute und BCBS 239 umsetzte. Seit Januar 2024 verantwortet sie bei der MHB das fachliche Datenmanagement.


Franz ist Senior Process Manager im Bereich DevOps mit Schwerpunkt Cloud, Machine Learning und AI. Er gestaltet strategische cloud-native Transformationen, optimiert End-to-End-DevOps-Prozesse und arbeitet eng mit Security, Datenschutz und Betriebsrat zusammen, um moderne KI- und Cloud-Architekturen sicher, compliant und nachhaltig in Unternehmen zu verankern.


Birgitta arbeitet bei Telefónica Germany im Bereich AI, Analytics und BI Platforms. Sie verantwortet cloud-native KI-Architekturen mit Azure und Databricks und zeigt, wie GenAI über DevOps, Governance und Security auch in hochregulierten Umgebungen produktiv betrieben werden kann.


Nancy ist Senior Data Engineer bei den Stadtwerken Düsseldorf. Sie betreut fachliche Use Cases von der Anforderung bis zur produktiven ETL-Pipeline – mit Fokus auf Data Mesh, Data Vault 2.0 und messbarem Business Value. Ihre Technologien sind Databricks, dbt Labs und Azure Services.


Sascha verfügt über mehr als 20 Jahre Berufserfahrung in den Bereichen Data Management, Data Governance, Analytics und digitale Transformation. Aktuell ist er Head of Data & AI Foundations bei der FIEGE Logistik. In dieser Rolle verantwortet er unter anderem die Themen zentrale Datenplattform, Data Management, Data Governance, Datenqualität sowie Self-Service-Analytics. Sein Fokus liegt auf skalierbaren, wirtschaftlich tragfähigen Datenarchitekturen und der nachhaltigen Verankerung von Datenkompetenz im Unternehmen. Zuvor war Sascha als Data Officer der Konzernleitung bei der Deutsche Bahn tätig und wirkte er als Chief Data Officer der Berlin Hyp AG. Zentrale Punkte bei ihm sind die praxisnahe Umsetzung von Data- & KI-Strategien, die Kosten-Nutzen-Optimierung von Dateninvestitionen sowie den erfolgreichen Aufbau leistungsfähiger Datenorganisationen.


Claudia verfügt über 20 Jahre Berufserfahrung in den Bereichen Data Science, Artificial Intelligence und Innovation Management. Als Chief Data Officer bei der FIEGE Logistik ist sie zentral für die Daten und KI-Themen zuständig. Bis Sommer 2024 leitete sie bei der Deutschen Bahn das Data Intelligence Center und verantwortete die Daten & KI Strategie des Konzerns. Davor leitete sie das Machine Learning Team bei den T-Labs, der Forschungseinheit der Deutschen Telekom. Nebenher ist Claudia Angel Investorin. Sie ist Speakerin sowie Autorin und engagiert sich für die Bildung von Kindern und jungen Menschen im Bereich Daten & KI. Claudia wurde vielfach ausgezeichnet: 2019 als „Global Women Leader in AI“, „40 over 40 – Germany's Most Inspiring Women 2022“, als eine von „30 Outstanding Women in Data – 2023 Global Recognition“ und kürzlich mit dem ILD Leadership Award 2025 in der Kategorie „Inspiring Leader“.


Kolja ist bei Rameder für die Datenstrategie, das Datenteam und die greenfield Data & Analytics-Plattform verantwortlich. Bevor er zu Rameder kam, führte er das Data Foundation-Team bei MediaMarktSaturn. Dort leitete er die Migration vom Legacy-DWH zur neuen Cloud-Datenplattform. Seine Laufbahn begann Kolja in der IT-Beratung, wo er in 10 Jahren Datenlösungen für zahlreiche Kunden erarbeitete.


Jonas ist Data Scientist und Product Owner bei OTTO, wo er seit 2023 an verschiedenen Produkten im Kontext Marketing-Optimierung und Kundenanalyse mitgewirkt hat. Aktuell verantwortet er die Entwicklung und Anwendung der Customer Lifetime Values (CLV). Vor OTTO arbeitete er fünf Jahre bei L’Oréal, ebenfalls an Analytics-Themen in den Rollen Data Analyst und Data Scientist.


Simon ist eine erfahrene Führungspersönlichkeit für Transformationen, Datenstrategien, Digitalisierungsinitiativen und Prozessoptimierungen. Als Global Head of Data Excellence bei der Giesecke+Devrient GmbH verantwortet er den globalen Umgang mit Daten sowie verschiedene Transformationsprogramme. Zuvor war er in leitenden Rollen bei UniCredit und PwC tätig mit Fokus auf Strategieentwicklung, Target Operating Models sowie Banking-Digitalisierung.


Thomas ist Head of Data-Driven Applications & Services bei GRENKE in Baden-Baden. GRENKE ist ein Finanzlösungsanbieter, der Dienstleistungen in mehr als 30 Ländern weltweit anbietet. Seine Abteilung hat das Ziel, geschäftlichen Mehrwert durch Daten sowie datenbezogene Services und Anwendungen zu liefern. Er hat die letzten 20 Jahre mit Daten, Datenbanken, IT-Services und zugehöriger Infrastruktur verbracht. Davor war er Rettungssanitäter beim Deutschen Roten Kreuz.


Yannick leitet das KI & Daten-Team der Deutschen Presse-Agentur (dpa), der größten Nachrichtenagentur Deutschlands. Nach seinem Master in Management & Data Science sammelte Yannick mehrere Jahre Erfahrung als Data Scientist und Teamleiter in der IT-Beratung. Seit Anfang 2025 entwickelt sein Team innovative KI-Lösungen im Medien- und Informationsökosystem.


Tim ist seit mehr als 15 Jahren im Bereich Business Intelligence tätig. Über die Zeit hat sich sein Aufgabenschwerpunkt von der Erstellung von Reports und Dashboards, über die Projektarbeit mit dem Fokus auf neue Informationssysteme hin zu dem Aufbau einer BI Platform verändert. Hierzu zählt die erfolgreiche globale Einführung und Etablierung von Power BI als Analyse-/ Reporting Platform bei Weidmüller und ganz aktuell, der Aufbau einer Data Platform basierend auf Microsoft Fabric. Hierbei liekt aktuell sein Fokus auf der Entwicklung und Etablierung einer Platform Strategie und einer Platform Governance.


Kai ist seit Mitte 2025 Solution Architect, Data & Analytics bei Karl Storz. Als ganzheitlich denkender, ergebnisorientierter Architekt konzentriert er sich auf Konzepte, Strategie und Governance – verankert in einem starken technischen Fundament. Er schlägt die Brücke zwischen KI, BI und geschäftlichen Anforderungen, um echten Mehrwert zu schaffen. Frühere Stationen umfassten kundennahe Beratung und Architektur in datengetriebenen Unternehmen.


Ulisse ist Regional VP Solution Consulting EMEA bei Tealium und verfügt über mehr als 15 Jahre Erfahrung in Softwareentwicklung und Solution Consulting. Er ist darauf spezialisiert, Unternehmen bei der Nutzung von KI und Echtzeit-Datenorchestrierung zu unterstützen, um vertrauenswürdige, klar geregelte Datenfundamente aufzubauen, die intelligentere und stärker personalisierte Kundenerlebnisse ermöglichen. Mit Expertise in den Bereichen CDP, MarTech und AdTech ist Ulisse ein anerkannter Vordenker und Sprecher, der Innovation an der Schnittstelle von KI und Datenaktivierung vorantreibt.


Tim ist ein erfahrener Data Engineer mit langjähriger Berufserfahrung und hat in verschiedensten Branchen und mit unterschiedlichen Technologien gearbeitet. Er ist versiert darin, Teams zu führen, Datenlösungen zu entwickeln und aus Daten wertvolle Insights abzuleiten, um Unternehmensziele zu unterstützen. Eine weitere Leidenschaft von ihm ist es, Teamprozesse zu optimieren und zu automatisieren, mit Fokus auf DataOps und DevOps.


Sönke verantwortet seit mehr als 15 Jahren Data- & Analytics-Organisationen in verschiedenen Industrien (u. a. Telefónica, Handelsblatt, XING, Fitness First und HRS). Seine Schwerpunkte sind die Entwicklung von Digitalisierungs- und Datenstrategien und deren Operationalisierung mit cloudbasierten analytischen Plattformen und ML-/AI-Lösungen. Er präsentiert seine innovativen Ergebnisse regelmäßig auf nationalen und internationalen Konferenzen.


Carsten Schweiger verfügt über mehr als 20 Jahre Berufserfahrung, davon 15 Jahre im Consulting mit Schwerpunkt Business Intelligence und Data Warehousing. Nach seinem Wirtschaftsinformatik-Studium bei HP sammelte er erste Business-Intelligence-Erfahrungen im Controlling und verantwortete zahlreiche Data-Warehouse-Projekte, unter anderem als Requirements Engineer, Architekt sowie Datenbank- und ETL-Entwickler. Sein fachlicher Fokus liegt auf Automatisierung, API-Entwicklung, Operations und Support sowie dem Aufbau nachhaltiger, skalierbarer Datenarchitekturen. In den vergangenen zehn Jahren begleitete er als Scrum Master und Agile Coach über 25 Teams in Transformationsprozessen. Seit 2024 ist er als Data & AI Enabler bei der 2150 Datavault Builder AG tätig. Dort verantwortet er unter anderem GenAI-basiertes Wissensmanagement, die Integration moderner AI-Architekturen einschließlich MCP-Servern sowie das Online-Training- und Certification-Programm.


Arndt ist auf Advanced Analytics, Business Intelligence und Cloud-Initiativen spezialisiert. Mit seiner Expertise im Aufbau moderner Data Stacks nutzt er Technologien wie SAP S/4HANA, BigQuery und die Google Cloud Platform für datengetriebene Lösungen, darunter statistische Prognosen und Machine-Learning-Anwendungen.


Weitere Informationen folgen in Kürze.

Das Thema der digitalen Souveränität hat im europäischen Raum in den letzten Jahren enorm an Wichtigkeit gewonnen. Geopolitische Risiken, Abhängigkeiten aufgrund internationaler Verflechtungen, globale Krisen oder gar Kriege sind aufgrund der jüngsten Geschichte längst kein abstraktes Bedrohungsszenarion mehr. Dieser Vortrag beschreibt mögliche Voprgehen für Unternehmen, die nach Strategien zur Reduktion von Abhängigkeiten, zur Stärkung der Kontrolle über ihre Daten sowie zur Gestaltung resilienter Datenarchitekturen suchen und daraufhin gezielte Technologieentscheidungen treffen wollen.

Organizations sit on mountains of data, yet without a strategy, they risk sinking into a swamp of disorganized information, where potential insights are lost. Many companies treat data as a commodity rather than a strategic driver, leaving untapped potential on the table. This session explores how organizations can move beyond reactive data management and establish a forward-looking strategy that aligns with business goals. Whether you're a DBA, data scientist, or manager, the first step is asking why your data matters, what value it brings, and how it can empower decision-making. We will identify why data initiatives fail and data strategies fall short. You'll see how defining a clear vision anchors your strategy. We'll discuss how to build a culture that embraces data as a strategic asset, not just a technical tool. Crucially, we will explore the human side of data because data is only as valuable as the impact it creates for the people who use it. Discover why your data strategy might be doomed before it starts and what you can do about it before you're knee-deep in the swamp.

Weitere Informationen folgen in Kürze.

KI in stark regulierten Umgebungen erfolgreich einzusetzen erfordert mehr als Technologie. In diesem Beitrag stellen wir unser praxiserprobtes Framework vor, das KI ganzheitlich von Strategie und Use‑Case‑Priorisierung über Governance, Compliance und Architektur bis hin zum sicheren Betrieb betrachtet. Anhand konkreter Beispiele zeigen wir, wie Organisationen mit klaren Leitplanken Innovation ermöglichen, regulatorische Anforderungen erfüllen und nachhaltigen Business‑Mehrwert aus KI schaffen.

Der Vortrag beschreibt die datenarchitektonische Transformation eines Maschinenbauunternehmens, das gemeinsam mit b.telligent Microsoft Fabric zur Ablösung von SAP BW implementiert hat. Aus einem zunächst SAP fokussierten Projekt entstand ein Multisource Setup mit REST APIs, Kafka Eventstreams, SQL Datenbanken, usw. – aufgebaut im domänenübergreifenden Hub and Spoke System und ausgerichtet auf einen Single Point of Truth. Die Architektur verbindet dabei die SAP Lakehouse Welten mit hochfrequenten Engineering Datenströmen. Besonders im Engineering steht Self Service in Echtzeit Dashboards mit KQL Querysets im Mittelpunkt, um Fachbereiche nachhaltig zu befähigen.

Germany’s “Energiewende” represents an ambitious and necessary transformation. This shift brings both significant technological innovation and digital challenges. 50Hertz is committed to leading the integration of renewable energy and is therefore developing a new control system. Data is essential to achieving this vision and enabling a sustainable, future-proof power grid.

Viele Projekte zur Verbesserung der Datenarchitekturen in großen Unternehmen haben einen konkreten regulatorischen Ausgangspunkt oder starten mit definierten technischen Zielen – und kämpfen mit Problemen in der Umsetzung. Warum? Weil sie als reine Umsetzungsprojekte verstanden werden, obwohl ihr Kern in der Veränderung von Organisation, Kultur und Arbeitsweisen liegt. Dieser Vortrag beleuchtet, warum der Aufbau eines nachhaltigen Datenmanagements weit mehr ist als die Einführung von Tools und Prozessen. Im Fokus steht der oft unterschätzte Change-Charakter von derartigen Initiativen wie beispielsweise der Umsetzung von BCBS 239 in der Bankenwelt: von der Etablierung klarer Verantwortlichkeiten über den Umgang mit Widerständen bis hin zur Verankerung von einem nachhaltigen Umgang mit Datenqualität im täglichen Handeln. Anhand praxisnaher Erfahrungen wird aufgezeigt, woran Datenprogramme typischerweise scheitern – und welche Erfolgsfaktoren entscheidend sein können, um sie wirksam und nachhaltig umzusetzen. Teilnehmer erhalten konkrete Impulse, wie sie den notwendigen Wandel aktiv gestalten und die Umsetzung damit zum Erfolg führen können.

Weitere Informationen folgen in Kürze.

Der Vortrag „Schatzkarte statt Datendschungel – Organisation & Data Catalog als Erfolgsfaktor“ beginnt mit einer Reise in die Vergangenheit und die Evolution der Data und Analytics Plattform bei Weidmüller wird umrissen. Anschließend wird die gegenwärtige Organisation dargestellt und Erfolgsfaktoren bei der Realisierung benannt. Zudem wird der mit Microsoft Tools eigenständig entwickelte Data Catalog – der an den Bedarfen im Unternehmen ausgerichtet ist – vorgestellt.

Daten entscheiden. Aber wer darf sie sehen? In vielen Unternehmen lautet die ehrliche Antwort: die IT – und sonst kaum jemand. Dieser Vortrag ist für alle, die das ändern wollen. Ich erzähle, warum Self-Service Analytics bei uns zunächst gescheitert ist, was wir intern überwinden mussten – und wie es am Ende doch funktioniert hat. Kein technischer Deep-Dive, sondern eine ehrliche Geschichte über Daten, Verantwortung und die Frage: Wem gehören eigentlich die Erkenntnisse in deinem Unternehmen?

Weitere Informationen folgen in Kürze.

Wie bei vielen Unternehmen im kleineren Mittelstand war die Datenwelt bei Rameder bis Herbst 2024 eine heterogene Insellandschaft. SAP im Zentrum, mehrere Cloud-Services wie Google Analytics rund herum und einzelne - von verschiedenen Bereichen aufgebaute - Datenbanken dazwischen. Um systemübergreifende Analysen in hoher Qualität zu ermöglichen, wurde Ende 2024 die Entscheidung für eine Greenfield-Datenplattform in der Google Cloud getroffen. Der Vortrag zeigt die Plattformarchitektur und den Ansatz, wie alle Datenquellen an die neue Datenplattform angebunden werden konnten. Die größte Herausforderung war dabei die Integration von SAP BW. Zusätzlich enthielt es die meiste zu migrierende Geschäftslogik. Daher schauen wir uns dort die Details an, inkl. erstem fehlgeschlagenen Pilotprojekt und der erfolgreichen zweiten Lösung.


KI rennt uns allen davon, doch wir frickeln noch an den Daten rum. Claudia Pohlink gibt Antworten aus dem Maschinenraum: dort, wo Datenqualität, Governance und operative Realität darüber entscheiden, ob KI-Projekte skalieren oder scheitern. Sie zeigt, wie ein klassisches Logistikunternehmen den Weg von der Datenstrategie zur messbaren KI-Wertschöpfung geht – mit all seinen Umwegen, Rückschlägen und echten Erfolgen. Kein Hochglanz, kein Buzzword-Bingo. Sondern Klartext und der Anti-Hype.

Unternehmen investieren in Daten, KI und digitale Tools – doch die Wirkung hängt von einer tatsächlichen Verhaltensänderung bei den Mitarbeitenden ab. In diesem Beitrag erläutert Julia Pogorzelski, User Adoption Expert bei WACKER, was Benutzerakzeptanz wirklich bedeutet – nicht nur die Einführung von Tools, sondern eine menschenzentrierte Förderung von Bewusstsein, Fähigkeiten und nachhaltiger Nutzung. Sie erfahren, wie Sie den Erfolg messen, KPIs an den Akzeptanzergebnissen ausrichten und Ängste und psychologische Biases angehen können, die die digitale Akzeptanz behindern. Anhand realer Fälle, wie der Einführung von MS Copilot, erleben Sie, wie die Prinzipien von User Adoption zielgerichtet eingesetzt werden und dadurch Kompetenz, Transformation und Kultur gefördert werden.

What happens when you combine a massive Google Cloud transformation with a simultaneous S/4 HANA migration? You get a masterclass in complexity—and a lot of lessons learned the hard way. We’re pulling back the curtain on our journey, moving beyond the slides to discuss the pitfalls of dual transformations and the "scars" we earned along the way. We focus specifically on the technical integration and strategic data usage that bridge these two worlds. From the failures that stalled us to the high-impact use cases that saved us, this is a story of heartbreak, hard work, and—eventually—a data-driven transformation that actually works.

KI-Systeme sind nur so gut wie die Informationen, auf deren Basis sie Entscheidungen treffen. Mit dpa-iq bauen wir eine Retrieval-Infrastruktur auf AWS und Databricks, die verifizierte Informationen & Content in Echtzeit an LLM-basierte Agenten liefert - für interne Produktteams und externe Kunden gleichermaßen. Ein Blick hinter die Kulissen: Herausforderungen, Architektur und Umsetzung einer Plattform, die als Grounding-Backbone für agentische Workflows & Produkte dient.

Self Service Analytics verspricht Geschwindigkeit und Freiheit, doch führt bei wachsendem Erfolg schnell zu Unübersichtlichkeit. Auch bei Karl Storz sorgen viele Tools und immer mehr Dashboards dafür, dass Orientierung und Vertrauen leiden. Wir zeigen unseren aktuellen Lösungsansatz: den Schritt von einzelnen Dashboards hin zu klar definierten und zertifizierten Analytics Products.

In diesem Vortrag geben wir Einblicke in die Datenreise bei SPAR und zeigen, wie wir datengetriebenes Arbeiten im Unternehmen neu denken. Dabei beleuchten wir, wie aus isolierten Datenquellen eine vernetzte Datenlandschaft entsteht, welche organisatorischen und technologischen Veränderungen dafür notwendig waren. Anhand konkreter Beispiele zeigen wir, wie aus Daten echter Mehrwert entsteht, und welche Learnings wir auf diesem Weg mitgenommen haben.

Ehrliche Erfahrungsberichte über die Skalierung von KI-Projekten – von den Herausforderungen in der Praxis bis zu den Lessons Learned.

Praktische Umsetzung des EU AI Acts und wie man Governance als strategischen Wettbewerbsvorteil nutzt.

Podiumsdiskussion und Publikums-Q&A. Diskussion über die Entscheidung zwischen Eigenentwicklung, Kauf und Kooperation mit Fokus auf Datensouveränität und DSGVO.

Fokus auf den echten ROI der KI-Transformation und strategische Priorisierung anhand von simplen Case Studies oder Expertenrunden.

Achieving a precise understanding of marketing impact often means moving beyond the limitations of standardized platforms. In this session, I will share how we designed and deployed a full-scale internal attribution framework at Mytheresa. I’ll walk through our approach to connecting scattered data sources, the engineering behind our unified tracking layer, and why we prioritized full ownership of our data and processes. We’ll look at the technical architecture and the practical steps we took to build a centralized system for a complete view of the customer journey.

Um Budgets gezielt nach Kundenpotenzial einzusetzen, braucht es eine individuelle Profitabilitätsbewertung auf Einzelkundenebene. Seit diesem Geschäftsjahr setzt OTTO ein neues statistisches CLV-Modell ein, das den Kundenwert konkret als erwarteten Profit des kommenden Jahres definiert und individuell vorhersagt. Damit wird eine differenzierte Ansprache je nach Potenzial ermöglicht, ob im CRM, Customer Care oder bei Marketingentscheidungen. Im Vortrag beleuchten wir neben dem technischen Hintergrund vor allem unsere praktischen Erfahrungen in der Anwendung. Ein besonderes Augenmerk liegt dabei auf dem Change Management: Die Steuerung nach einem prognostischen Profit-CLV erfordert an einigen Stellen ein echtes Umdenken und genau darin liegt eine der spannendsten Herausforderungen dieses Projekts.

Der Vortrag zeigt, wie der Cornelsen Verlag MARMIND als zentrales Steuerungsinstrument für Marketingaktivitäten etabliert und nahtlos mit SAP verzahnt hat. Im Fokus stehen die Neugestaltung der Planungs- und Freigabeprozesse, eine einheitliche Datenbasis sowie die Konzeption der Schnittstellen zwischen beiden Systemen. Die Projektreise – von den ersten Anforderungen bis zum laufenden Betrieb – liefert Einblicke, Erfolgsfaktoren und Lessons Learned für ähnliche Integrationsvorhaben.



