Dyn ist seit August 2023 das neue Zuhause für die Sportarten Handball, Basketball, Volleyball, Tischtennis und Feldhockey. Im Vortrag geben Johannes und Felix einen Einblick, wie Dyn innerhalb weniger Monate eine BI Architektur für einen Streaming-Dienst mit mehr als 2.000 Live-Spielen pro Saison aufgebaut hat.
Automatisierungsplattformen werden zunehmend metadatengesteuert und nutzen Metadaten, um Datenmanagementprozesse zu orchestrieren und zu automatisieren. Automatisierungstools können Aufgaben wie Datenintegration, -umwandlung und -verwaltung intelligent automatisieren, indem sie Metadaten nutzen, um die Struktur, Beziehungen und Herkunft von Datenbeständen zu verstehen. VaultSpeed ist ein Pionier in dieser Entwicklung. Wir bieten das einzige Automatisierungstool, das das Geschäftsverständnis mit Metadaten aus allen Quellen kombiniert, um ein umfassendes unternehmensweites Datenmodell vorzuschlagen und die Transformation und Integration von Daten zur Befüllung dieses Modells zu automatisieren. Die zugrunde liegende Magie liegt in unseren integrierten Integrationstemplates, die ETL- und DDL-Anweisungen für verschiedene Quellen und Technologien generieren und 2220 einzigartige Kombinationen umfassen. VaultSpeed setzt sich auch für die Möglichkeit ein, dass Dateningenieure benutzerdefinierte Geschäftslogikautomatisierungen, wie z. B. KPIs, programmieren und diese auf alle Datenpräsentationen in der Informationsschicht anwenden können. Wir freuen uns, Ihnen einen Einblick in unsere neuesten Fortschritte in der automatisierten Datenumwandlung zu geben. Unser Team konzentriert sich derzeit darauf, Funktionen zu erstellen und zu testen, die es den Benutzern erleichtern, maßgeschneiderte Datenumwandlungen sowohl upstream als auch downstream durchzuführen. Wir arbeiten intensiv an einer intuitiven, grafischen Drag-and-Drop-Oberfläche, die den Zugang zur Datenautomatisierung für jedes Datenteam erleichtern wird. Dies wird ihnen ermöglichen, Konsistenz in der gesamten Organisation in Übereinstimmung mit ihren Geschäftszielen und Datenverwaltungsrichtlinien zu gewährleisten.
Die führenden Unternehmen in der Wirtschaft von morgen werden Daten + KI-Unternehmen sein. Heute ist das Data Lakehouse ein bewährtes Verfahren, da es die Leistung und Zuverlässigkeit von Data Warehouses mit der Elastizität und Kosteneffizienz von Data Lakes verbindet. Aber was ist mit KI? Das Data-Intelligence-Paradigma von morgen bettet KI in jede Schicht und alle Funktionen der modernen Datenplattform ein, um Unternehmen auf der ganzen Welt zu verändern. In dieser Breakout-Session werden wir einen Blick hinter die Kulissen werfen und sehen, was uns in Zukunft erwartet.
KI- oder ML-Prozesse erfordern oft, dass Daten aus dem Datenspeicher gezogen, verarbeitet und die Ergebnisse/Vorhersagen schließlich wieder im Datenspeicher gespeichert werden. Dies bringt eine gewisse Komplexität mit sich und sollte vermieden werden. Wir zeigen Ihnen, wie ein KI-/ML-Modell direkt am Ort Ihrer Daten ausgeführt werden kann, ohne dass diese vorher bewegt werden müssen - ein Vorteil, um die Komplexität und die Kosten niedrig und die Qualität hoch zu halten.
Wir erkunden einen innovativen Ansatz zur Erstellung von Maskottchen, der KI-Agenten und feinabgestimmte Grundmodelle kombiniert, um Markenstandards aufrechtzuerhalten. Während traditionelle Grundmodelle einen soliden Ausgangspunkt bieten, sind sie oft nicht spezifisch genug für markenzentrierte Inhalte. Durch die Integration von KI-Agenten in Verbindung mit der „Stable-Diffusion“-Technologie und einer benutzerfreundlichen Oberfläche (UI) geben wir Einblick in eine Lösung, die es kreativen Mitarbeitern ermöglicht, unser geliebtes Maskottchen, den POINTEE, zu generieren - und das zugeschnitten auf die einzigartige Identität von PAYBACK. Begleite uns, während wir erforschen, wie diese Synergie zwischen KI-Agenten und Grundmodellen die Erstellung von Maskottchen revolutionieren kann, aber auch, wo ihre praktischen Grenzen liegen.
Bitte bringen Sie Ihren eigenen Laptop für die praktische Übung mit. Keine AWS-Vorkenntnisse erforderlich, Grundkenntnisse in Programmiersprachen sind hilfreich. In diesem Workshop werden die Teilnehmer:innen einen generativen KI-Prototypen auf Basis von Amazon Bedrock entwickeln. Durch eine Reihe von praktischen Übungen, die sowohl für Anfänger als auch Fortgeschrittene geeignet sind, werden die Teilnehmer:innen lernen, die Fähigkeiten von Large Lanugage Models (LLMs) einzusetzen und mittels Amazon Bedrock Geschäftsprozesse zu verbessern. Amazon Bedrock ist ein vollständig verwalteter Dienst, der eine Auswahl hochleistungsfähiger Foundational Models (FMs) von führenden KI-Unternehmen wie AI21 Labs, Anthropic, Cohere, Meta, Mistral AI, Stability AI und Amazon über eine API-Schnittstelle bereitstellt um generative KI-Anwendungen sicher, gemäß aktueller Datenschutzverordnungen und auf Basis von ‘Responsible AI’ zu entwickeln und betreiben.
KI verändert bereits jede Branche, indem sie unsere Fähigkeiten erweitert, die Arbeit transformiert und eine neue Welt voller Möglichkeiten schafft. In dieser Masterclass-Session besprechen wir, wie das Cloud-Angebot von Microsoft Sie bei der KI-Transformation unterstützen kann. Von Copiloten, die Sie produktiver machen, bis hin zu fortgeschrittenen LLMs und SLMs werden wir uns mit den Technologien befassen, die Ihnen helfen, das Zeitalter der KI anzuführen. Wir werden auch über den Aufbau moderner Datenplattformen sprechen, die als Grundlage für Ihre KI-Initiativen dienen. Mit Microsoft Fabric für Analytics und Microsoft Purview für Governance und Sicherheit decken wir die gesamte Data Estate ab.
MediaMarktSaturn muss Datenanalysen im großen Maßstab ermöglichen, um den steigenden Marktanforderungen gerecht zu werden. Der Vortrag veranschaulicht die Reise von der zentralisierten Analytik des BICC über einen vollständig dezentralisierten Data-Mesh-Ansatz hin zu einer hybriden Lösung in der neuen analytischen Plattform. Wir betrachten die Vor- und Nachteile jedes Konzepts basierend auf eigenen Erfahrungen. Daraus ziehen wir Schlüsse, wie skalierbare Analysen erreicht werden können, wobei auch eine unternehmensweite Akzeptanz angestrebt wird. In diesem Zusammenhang können organisatorische Strukturen, analytische Reife und rechtliche Anforderungen größere Herausforderungen darstellen als die Technologie selbst.
Erfahre, wie Microsoft Fabric durch WhereScape verbessert wird. Lerne etwas über optimierte Migration, Low-Code-Integration und verbessertes Metadatenmanagement, das die Effizienz der Datenverwaltung steigert. Erlebe die Synergie zwischen WhereScape und Microsoft Fabric für fortschrittliche Datentechnologie.
Die Sporteinzelhandelsbranche setzt zunehmend auf die Nutzung von Daten als Teil des täglichen Geschäftsbetriebs. Mit ihrer neu modernisierten emnosSPORTS-Plattform hat emnos eine wahre Transformation erlebt, die auf der Grundlage von Echtzeit-Zusammenarbeit zwischen Sporteinzelhändlern und Sportmarken basiert. Um dies zu erreichen, benötigen sie intuitive, flexible Datenanalyse und -visualisierung für mehrere Nutzertypen und Organisationen - eine bekannte Herausforderung für emnos, die auf 15 Jahren Erfahrung in den Bereichen Sporteinzelhandel und Lebensmittelindustrie zurückgreifen können. Yellowfin und emnos arbeiten zusammen, um den Kunden von emnos, den Sporteinzelhändlern sowie den Sportmarken, schneller die neue emnosSPORTS-Plattform präsentieren zu können. Yellowfin stellt die eingebettete Analyseplattform bereit, die es emnos ermöglicht, ausgeklügelte Verkaufs-, Kunden- & Lager-KPIs und Prognosen für die Sportindustrie zu liefern – um letztendlich den Abverkauf von Sportartikel zu maximieren, Planungsineffizienzen zu reduzieren und sicherzustellen, dass die richtigen Produkte zur richtigen Zeit am richtigen Ort zu haben sind, um bei den Verbrauchern zu punkten.
Wirklich vollständige Data Vault Automatisierung bedeutet, dass kein Data Vault Know How mehr benötigt wird. Mit dieser Vision haben Reinhard und Marco Yotilla entwickelt. Der innovative Ansatz von Yotilla automatisiert die Data Vault Datenmodellierung vollständig und ermöglicht die Definition der Business Logik ohne Kenntnisse des Data Vault Datenmodells. Im Breaktalk stellen wir die Arbeitsweise mit Yotilla vor und zeigen wie Yotilla alle Änderungen am Data Warehouse automatisiert, sodass Sie mit geänderten oder neuen Anforderungen des Business zeitgleich Schritt halten können. Am Kundenbeispiel zeigen wir, dass Yotilla sowohl die Kosten für die Erstellung und Weiterentwicklung des Data Warehouse erheblich reduziert als auch deutlich schneller Nutzen stiftet.
Daten und AI als Team! Mache all deine Daten (strukturiert und unstrukturiert) AI-ready. Verstehe wie du mit GenAI neue Erkenntnisse gewinnst. Lerne wie du mit Google Cloud Komponenten ausgereifte Daten und AI Lösungen erstellen kannst.
Durch den Zugang zu vertrauensvollen Daten versuchen Organisationen auf effizientere Weise Mehrwerte für die Fachbereiche zu schaffen. In der Regel sind technische Rollen in den Prozess der Transformation von Rohdaten zu konsumierbaren Datenprodukten involviert. Durch die Bereitstellung alternativer Einstiegspunkte für weniger technisch versierte Personen, die sich am Transformationssprozess beteiligen und ihren Bedarf an vertrauenswürdigen Datenprodukten selbst decken können, kann eine schnellere Wertschöpfung erreicht werden.
Ein agiles Datenmanagement stellt für RAG (Retrieval Augmented Generation) eine entscheidendene Basis dar, um die Qualität der Antworten bei der Nutzung von generativer KI sicherzustellen. Die Integration von Retrieval- und Generationstechniken durch RAG ermöglicht umfassende und kontextuell relevante Ergebnisse und verbessert die Transparenz und Zuverlässigkeit von KI-Systemen. Durch das Einbeziehen von vorhandenem Wissen neben generativen Fähigkeiten unterstützt RAG eine zuverlässige Data Governance und verhindert Verzerrungen, was wesentliche Komponenten für ein steigendes Vertrauen bei der Nutzung von künstlicher Intelligenz sind. In dieser Sitzung lernst Du die entscheidende Rolle kennen, die effektives Datenmanagement in Verbindung mit Gen AI spielt, und wie die Denodo-Plattform die Nutzung von künstlicher Intelligenz verbessern kann, indem sie einen größeren Kontext bietet und die Vertrauenswürdigkeit fördert.
Die Nutzer einer modernen Data & AI Plattform können sehr unterschiedlich sein mit ihren individuellen Bedürfnissen bei Entwicklungsproduktivität, Performance, Benutzerfreundlichkeit und natürlich bei dem Einsatz neuester ML- & AI-Technologien. In dem Talk schauen wir uns drei Nutzertypen etwas genauer an: DATA PRODUCT BUILDER - ist als Technologist daran interessiert, fachliche Anforderungen schnell in intuitiv verwendbare Datenprodukte umzusetzen. Der Zugriff auf alle relevanten Daten, performante Pipelines, Datenqualität, professionelle Präsentation/Verwaltung der Datenprodukte sind hier wichtige Erfolgsfaktoren. CITIZEN DATA SCIENTIST - analysiert als Business User konkrete Fragestellungen am liebsten "at Speed of Thought" und weiß den einfachen Umgang mit Datenprodukten und ML-/AI-Funktionen zu schätzen. ML UND APPLICATION ENGINEER - hilft bei der Produktivsetzung eines AI-Experiments/MVPs, z.B. in Form einer intelligenten, skalierbaren App. Die Möglichkeit, geeignete Software/Frameworks (auf Container-Basis) einsetzen, MLOps-Praktiken anwenden und die gesamte Lösung sicher betreiben zu können, stehen hier im Fokus. Wie gut passt die Snowflake-Perspektive zur Datenstrategie Eures Unternehmens? Das Snowflake-Team vor Ort freut sich nach diesem Talk auf zahlreiche und rege Diskussionen! -- Kurz-Bio ---------------------------- Harald Erb arbeitet seit 2018 bei Snowflake Computing und unterstützt als Principal Solutions Engineer führende Unternehmen bei der Modernisierung und Fortentwicklung ihrer Daten- und AI-Plattformen. Zuvor war er in seiner 25-jährigen IT-Laufbahn bei Oracle, Pentaho/Hitachi Vantara als Solutions Architect, Projektleiter, Consultant und Sales Engineer in der DACH- und EMEA-Region in zahlreichen Kundenprojekten tätig (industrieübergreifend, bei Sicherheitsbehörden von Bund und Ländern). Ferner ist er regelmäßiger Sprecher auf Konferenzen, Snowflake-Events sowie Autor verschiedener Fach- und Blog-Artikel.
OTTO wandelt sich zur Plattform und ist längst nicht mehr nur reiner Händler, sondern auch Marktplatzanbieter. Die Anzahl der Marktplatz Partner wächst dabei kontinuierlich. Dies bietet viele Chancen - aber eben auch einige Herausforderungen. Wie wir die Unterstützung unserer Partner in Zukunft mit Hilfe eines GenAI basierten Chatbots effizienter gestalten wollen und wieso uns das einen ganzen Zoo bunter Tierchen zur Optimierung der KI beschert hat, erfährst du im Vortrag.
Wir bei LAYA haben uns für einen unkonventionellen Ansatz entschieden: Push statt Pull! In diesem Vortrag erzählen wir euch, warum und wie wir das gemacht haben. Mit unserer Azure Data Factory, Snowflake und dbt-basierten Architektur zeigen wir euch, wie wir die Herausforderungen gemeistert haben und was wir daraus gelernt haben.
Nimm teil, um die Welt der Data-Vault-Modellierung zu erkunden und die wesentlichen Faktoren für erfolgreiche agile EDW-Entwicklungen zu entdecken. Wir werden folgende Fragen beantworten: Was ist Data-Vault-Modellierung? Wie unterscheidet sie sich von anderen Methoden? Warum verwenden wir diese Methode? Und: Wie können wir Data Vault erfolgreich anwenden? Dies ist eine interaktive Session, in der wir Ideen verfolgen, Muster diskutieren und die ersten Schritte in Richtung Modellierung eines Data Vaults unternehmen werden. Du wirst außerdem Datenmodellierer kennenlernen und etwas Neues dazulernen.
Künstliche Intelligenz (KI) ist momentan ein zentrales Thema und revolutioniert Branchen mit einer Dynamik, die an den rasanten Aufstieg des Internets erinnert. Algorithmen wie Regressionen, Collaborative Filtering oder Factorization werden bereits seit Jahren genutzt, um Empfehlungen zu generieren. Doch welche Möglichkeiten eröffnen die neuesten generativen Technologien, und wie können wir deren Potenziale weiter ausschöpfen? In diesem Vortrag werden Sie durch effektive Use Cases mit den innovativen Fähigkeiten der Bloomreach KI „Loomi“ vertraut gemacht und erhalten Einblick, wie diese neue Technologien in inspirierende Chancen umwandeln.
Bei der Thesenarena laden wir unser Publikum ein, mutige und möglicherweise provokante Thesen zur Diskussion zu stellen, um unsere Referent:innen auf der Bühne herauszufordern. Jede These wird den Rednern und Rednerinnen 100 Sekunden zur Verfügung gestellt, um darauf zu antworten. Dies verspricht eine spannende und intensive Auseinandersetzung mit wichtigen Themen und wird sicherlich zu interessanten Erkenntnissen führen. Teilnehmer:innen: Andreas Wiener, Geschäftsführer von BI or DIE, Pia Wolf, Gründerin & Geschäftsführerin von agrantis, Simon Faatz-Riccò, Team Lead Data Engineering bei RND, Friedrich Staufenbiel, Managing Director & Head of Tech bei Berlin Bytes, und Sebastian Amtage, Gründer & Geschäftsführer von b.telligent.
KI in der Steuerabteilung ist gekommen um zu bleiben. Ich zeige anhand von drei konkreten Beispielen, welchen Mehrwert KI in Steuerabteilungen schon heute liefern kann.
Unsere Unit hat die Chance, mit ihren Plattformen und Daten in die AWS Cloud zu gehen. Das ist eine positive Perspektive und eine große Herausforderung zugleich. Parallel zur technischen Transformation, versuchen wir, allen Mitarbeitenden ein Re-Skilling zu ermöglichen und eine kulturelle Transformation durchzuführen. Die Hauptherausforderungen, denen wir dabei begegnen, sind: Umgang mit Ungewissheit, das Buy-In der Mitarbeitenden für den Move in die Cloud zu erhalten, das Re-Skilling durchzuführen, den Menschen das Gefühl von Zugehörigkeit und psychologischer Sicherheit zu geben in einem komplexen Umfeld. Erfahre im Vortrag mehr dazu, wie wir mit diesen Herausforderungen umgehen (u. a. mit Nutzung von Erkenntnissen aus der Neuropsychologie und ohne besonderes Budget) und welche Maßnahmen am besten funktioniert haben! Wir freuen uns auf Euch!
In der heutigen digitalen Landschaft erkennen Unternehmen zunehmend die Vorteile der Migration einer Data Warehouse Infrastruktur in die Cloud. Dieser Übergang bietet unvergleichliche Skalierbarkeit und Flexibilität und ermöglicht es Unternehmen, das wahre Potenzial ihrer Datenbestände zu erschließen. Eine erfolgreiche Cloud-Migration erfordert jedoch eine sorgfältige Planung, eine flexible Denkweise und eine mutige Mentalität für die Herausforderungen und Chancen, die vor uns liegen. Dieser Vortrag soll einen umfassenden Überblick über die P7S1-Cloud-Migration im Kontext von Data Warehousing geben. Wir werden uns mit den wichtigsten Überlegungen, bewährten Verfahren und Fallstricken befassen, die Unternehmen umgehen müssen, um eine nahtlose und erfolgreiche Migration zu gewährleisten.
Erfahre die spannende Geschichte unseres Versuchs, ein 15-20 Jahre altes Legacy-Data-Warehouse von der Vor-Ort-Lösung in die Cloud zu verlagern, und warum es nicht geklappt hat. Trotz jahrelanger Investitionen und Bemühungen ist das Projekt gescheitert. Wir werden die Gründe dafür analysieren, von technischen Problemen bis hin zu strategischen Fehltritten, und den neuen Ansatz vorstellen, mit dem wir sicherstellen wollen, dass wir dieses Mal erfolgreich sind. Erfahre, wie Du häufige Fallstricke vermeidest und bessere Alternativen zur traditionellen Cloud-Migration findest.
Der Ansatz eines zentralen Data Warehouse für alles kann als Fehlschlag angesehen werden - zu teuer, zu langsam, zu umständlich. Doch wie kann eine ganzheitliche datenbasierte Sicht auf das Geschäft erreicht werden? Wie geht man mit Datensilos und verschiedenen Geschäftsprozessen nach Übernahmen um? Wie lässt sich ein Gleichgewicht zwischen dem Aufbau einer Datenplattform und der Bereitstellung spezifischer Antworten auf Geschäftsfragen herstellen? Dr. Clemens Schäffner wird diese Fragen diskutieren und aufzeigen, wie Gerresheimer eine geeignete Datenstrategie entwickelt hat, welche konkreten Umsetzungsschritte unternommen wurden und wie die langfristige Vision Schritt für Schritt angegangen wird.
Die vollständige Transparenz über alle Geschäftsprozesse sowie deren datenseitige Abbildung ist sicher schon lange ein Traum vieler. Doch vor allem im produzierenden Gewerbe ist damit ein hohes Investment verbunden, um die relevanten Daten innerhalb der Fertigung zu erfassen. Danach geht es an die Zentralisierung, Standardisierung und Integration mit anderen „klassischen“ Datenquellen. Die Fränkische IP hat sich dieser Herausforderung gestellt und betreibt heute eine Cloud-Plattform, die Daten vom Wareneingang über die Fertigung bis zur Auslieferung integriert auswertbar macht. In einem Traceability Portal stehen den Kunden der Fränkischen IP umfangreiche Analysemöglichkeiten für deren QA-Prozesse und weitere Planung von Produktionskapazitäten zur Verfügung.
Heutzutage ist „KI“ ein Schlagwort für alle (einschließlich des Senior Managements). Viele Data-&-Analytics-Teams erforschen, wie sie die neuen Potenziale der Generativen KI für ihre Arbeitsprozesse nutzen können. Der Vortrag erklärt die allgemeinen Gefahren der Generativen KI, die Auswirkungen durch gesetzliche Rahmenbedingungen und konzentriert sich darauf, wie DKV Mobility ihr KI-Framework entwickelt, um den Geschäftswert zu priorisieren.
Fußball ist ein bedeutendes globales Phänomen, und die Bundesliga ist bestrebt, das Fan-Engagement kontinuierlich auf ein beispielloses Niveau zu heben. Unser Ziel ist: „BECOME THE MOST FAN-CENTRIC LEAGUE IN THE WORLD“. Durch den Einsatz modernster Technologien und wegweisender Strategien sind wir in der Lage, personalisierte Inhalte und immersive Erlebnisse für alle zu bieten.
Carsten Schweiger, DWH-Engineer und Agile Coach, zeigt, wie langwierige und aufgeblähte DWH-Projekte ein Relikt der Vergangenheit werden. Ein model-driven Data Vault-Ansatz und kurze Feedback-Zyklen bringen Business und IT zusammen. Automatisierung und Standardisierung im Entwicklungsprozess senken Kosten und Aufwände drastisch. Willkommen in einer Welt, in der Time-to-Market kein Hindernis mehr darstellt, sondern einen Wettbewerbsvorteil bietet.
Auf Basis ihrer umfassenden Erfahrungen gibt Annabell Whitney exklusive Einblicke in das Rockstar- Leben und deren Erfolgsgeheimnisse. Sie zieht überraschende Parallelen zwischen beiden Welten und inspiriert die Teilnehmenden so mitreißend wie auch musikalisch, die eigene Rockstar-DNA zu entflammen. Diese Keynote setzt ungeahnte Energien frei, um Motivation und Begeisterung zu entfachen – für den persönlichen Erfolg.
Die stetig wachsende Anzahl an Multichannel Marketing-Kampagnen erhöht die Komplexität der abteilungsübergreifenden Zusammenarbeit zur Planung und Umsetzung der Maßnahmen. Die excelbasierten, dezentralen Planungen führten in der Vergangenheit zu großem manuellem Aufwand und Inkonsistenzen. Mit der Einführung einer cloudbasierten Marketing-Ressource-Management-Lösung (MRM) wird ein „Single-Point-of-truth“ geschaffen. Durch die integrierten Workflows kann zwischen den Beteiligten deutlich effizienter zusammengearbeitet werden.
Agile Arbeitsweisen in einem einzelnen Team einzuführen, ist relativ einfach. Die Umsetzung für mehrere Teams einer Abteilung wie DHW, Reporting oder BI ist deutlich komplexer. Bei der S-Kreditpartner (SKP) haben wir Scaling-Scrum-Methoden für uns angepasst und eine agile Arbeitsweise nach Scrum und Kanban in der Abteilung Datenmanagement eingeführt. Mit Erfolg! Dieser Erfahrungsbericht beschreibt unsere Reise vom Start mit mehreren, unabhängig agierenden Entwicklungsteams bis hin zu einer skalierenden Organisationseinheit mit integrierten Teams. Anhand von Beispielen werden wir die Herausforderungen und Erfahrungen dieser Reise schildern und welche Lektionen wir dabei mitnehmen konnten.
In der thermischen Abfallbehandlung entstehen umfangreiche Betriebsdaten. Die Herausforderung liegt in der komplexen Erfassung und Analyse dieser Daten, unter Wahrung der Datenintegrität und Cybersicherheit, um sie für schnelle und fundierte Entscheidungen nutzbar zu machen. Unser Ziel ist die Steigerung von Effizienz und Zuverlässigkeit durch Kombination von Datenverarbeitungs- und OEM-Prozesswissen in Verbrennung und Rauchgasreinigung. Unsere Lösung nutzt Edge-to-Cloud-Datenübertragung und -analyse auf der Stackable Plattform in der IONOS Cloud.
Metadaten als „Daten über Daten“ sollen helfen, Daten zu finden, sie zu verstehen und ihnen zu vertrauen. Oft wird das Thema aber rein technisch betrachtet, und die fachliche Bedeutung der Daten kommt zu kurz. Wir diskutieren, was es braucht, damit ein menschlicher Nutzer aus Metadaten Einsicht und Verständnis für die Arbeit mit Daten gewinnen kann, und welche Implikationen das in der Commerzbank für den Aufsatz eines Data Governance Programms und den Einsatz von Tools hat.