Unser Online-Kongress widmet sich voll und ganz dem zentralen Thema der Business Intelligence Automatisierung.
Im digitalen Zeitalter ist die Automatisierung von BI-Prozessen der Schlüssel zur Skalierbarkeit und Effizienzsteigerung. Ohne Automatisierung ist Deine Skalierbarkeit limitiert.
Auf diesem Kongress präsentieren führende Experten und Partner ihre umfassende Erfahrung, Expertise, Software und Lösungen zur BI-Automatisierung. Durch Interviews und Vorträge erfahren Sie alles Wichtige über die neuesten Technologien und Strategien, um Ihre BI-Prozesse zu automatisieren und dadurch wertvolle Ressourcen zu sparen.
Tauchen Sie tief in die Welt der Business Intelligence Automatisierung ein und lassen Sie sich inspirieren und informieren. Entdecken Sie, wie Sie durch automatisierte Prozesse die Effizienz und Skalierbarkeit Ihrer Datenanalyse massiv steigern können.
Stay tuned für wertvolle Insights und praktische Tipps zur Zukunft Ihrer BI-Strategie!
CBIA Agenda
Online-Kongress zur Automatisierung im Bereich Business Intelligence
Start: 8:00 Uhr (CET) mit einer Vorab-Session
Ende: 17:45 Uhr (CET) mit Abschlussworten
Thema: Skalierbarkeit und Effizienz durch Automatisierung in Business Intelligence
Untertitel: Entdecken Sie, wie Automatisierung Ihre BI-Prozesse transformieren kann
Agenda:
Die Automatisierung von Data Warehouses (DWA) revolutioniert die Entwicklungsprozesse und ermöglicht eine deutlich schnellere Umsetzung. Bevor jedoch ein geeignetes Tool zum Einsatz kommt, muss es sorgfältig ausgewählt werden – ein Prozess, der je nach Unternehmensstruktur und Kultur zwischen 2 Monaten und 2 Jahren in Anspruch nehmen kann. Mit dem Portal dwa-compare.info hat die DDVUG eine Plattform geschaffen, die diesen Auswahlprozess erheblich beschleunigt. In dieser Präsentation erläutern wir die Grundlagen für diesen Vergleich und geben wertvolle Tipps, wie Sie rasch ein passendes Tool finden können.
Erfahrungen zeigen, dass eine beschleunigte Entwicklung nicht immer bedeutet, dass neue Daten schneller bereitgestellt werden. Vielmehr können zuvor nebensächliche Themen zu zeitkritischen Herausforderungen werden. Viele dieser Aspekte liegen außerhalb Ihrer Kontrolle. Daher ist es ratsam, die Schnittstellen des Data Warehouses genau zu betrachten und über die Integration ins Unternehmen nachzudenken.
Michael Müller ist seit über 20 Jahren im Bereich Business Intelligence tätig. Sein Fachwissen umfasst Datenmodellierung, Datenarchitektur, Data Vault, DWH-Automatisierung und die Integration von BI ins Unternehmen. Derzeit ist er im Vorstand der deutschsprachigen Data Vault User Group (DDVUG) e.V. aktiv.
Diese Präsentation stellt einen innovativen Ansatz zur automatisierten Transformation von Daten in Data-Vault-Objekte innerhalb eines Enterprise Data Warehouse (EDW) vor. Ziel ist es, die Datenintegration zu standardisieren und zu optimieren, um eine nahtlose Nutzbarkeit für Fachleute und Nicht-Spezialisten zu gewährleisten. Durch die Integration der Prinzipien des Data Mesh fördern wir organisatorische Anpassungsfähigkeit und geteilte Verantwortung bei der Datenverarbeitung, was die Zusammenarbeit verbessert und domänenspezifisches Fachwissen erschließt. Unser erweitertes ETL-Framework mit Automatisierungskomponenten hat die Datenpipeline optimiert und sorgt für Stabilität und verbesserte Qualität. Wir teilen Einblicke in die Überwindung technischer Herausforderungen, die Förderung der organisatorischen Akzeptanz und die laufenden Bemühungen, diesen transformativen Ansatz zu verfeinern, der die Datenintegration und -verwaltung revolutionieren wird.
Data Mesh – Organisations-Adaption:
Wir haben uns intensiv mit den Prinzipien des Data-Mesh-Ansatzes befasst, um Funktionen, Prozesse und Mechanismen zu identifizieren, die für unsere Organisation relevant sind. Dabei prüfen wir, welche Aspekte bereits mit bestehenden Tools und Prozessen abbildbar sind und wo Entwicklungsbedarf besteht. Diese Überlegungen konnten wir nahtlos auf unsere Organisation übertragen.
Automatisierte Data Pipelines:
Das bisherige ETL-Framework wurde modular um eine Automatisierungskomponente erweitert. Diese ist einfach zu bedienen, vollständig in die Systemlandschaft integriert, qualitätsgesichert und betriebsstabil.
Mindset-Change – Veränderter Umgang mit Daten:
Die zuvor zentralisierte Verantwortung wurde in ein Modell geteilter Zuständigkeiten überführt. Dies fördert die Entfaltung von Stärken und Fachwissen. Data Vault-Modellierung, Kontextbeschreibung, regelbasierte Pipeline-Konfiguration sowie Anpassung und Betrieb der Datenstrecke sind nun gemeinsame Aufgaben. Dieser Mindset-Wandel ermöglichte es den Teams, neue Prozesse und Technologien effektiv zu nutzen und Datenintegration als festen Bestandteil ihrer täglichen Arbeit zu betrachten.
Aktueller Stand:
Die technologische Herausforderung der automatisierten Transformation wurde erfolgreich bewältigt. Ein entscheidender Faktor war das kontinuierliche Feedback auf technologischer und organisatorischer Ebene. So konnten wir die Automatisierungskomponente optimal auf verschiedene Datenkonstellationen abstimmen und die Effizienz von Datenmodellierungs-Workshops und Wissensvermittlung steigern. Zudem führten wir intensive Schulungen im Bereich Data Vault durch. Trotz der Fortschritte stehen wir weiterhin vor Herausforderungen, denen wir uns aktuell stellen.
Niveau: Mittelstufe
Dauer: 45 Minuten
Zusammenfassung:
Daten wirklich zu verstehen, erfordert Zeit. Es geht darum, tiefgehende Einblicke in die Nutzung von Daten zu gewinnen, Datenmodelle zu definieren und sie schrittweise zu verbessern, um genau darzustellen, was mit den Daten geschieht oder geschehen sollte. Dieser Prozess bringt oft Änderungen im Design und in der Implementierung mit sich, wie etwa Anpassungen am physischen Datenmodell oder den Datenlogistikprozessen.
Automatisierung bietet eine effektive Möglichkeit, diese Änderungen zu beschleunigen. Um erfolgreich zu sein, muss eine umfassende automatisierte Lösung verschiedene Konzepte, Frameworks und Komponenten integrieren, die zusammenarbeiten, um den sich wandelnden geschäftlichen Anforderungen in großem Maßstab und mit hoher Geschwindigkeit gerecht zu werden.
Diese Präsentation bietet einen detaillierten Überblick darüber, was es bedeutet, Automatisierung in Datenlösungen einzuführen. Es wird erläutert, was Automatisierung ist, wann und warum sie sinnvoll ist, und welche Schlüsselfaktoren für den Erfolg berücksichtigt werden sollten. Außerdem werden verschiedene Methoden zur Implementierung von Automatisierung vorgestellt, einschließlich Prozessautomatisierung und Codegenerierung, sowie praktische Einblicke, die Sie auf Ihre eigenen Datenlösungen anwenden können.
Roelant Vos hat eine vielseitige Karriere im Datenmanagement hinter sich. Als Berater, Trainer, Softwareanbieter und Unternehmensentscheider hat er breite Erfahrungen gesammelt und dabei einzigartige Einblicke in die Herausforderungen und Chancen in diesem Bereich gewonnen. Er betrachtet Datenmanagement aus verschiedenen Perspektiven und setzt sich leidenschaftlich für Datenautomatisierung und Codegenerierung ein.
Ein durchgängiges Thema in seiner Laufbahn ist die Entdeckung und Anwendung wiederholbarer Muster, die die Dateninterpretation und -verwaltung vereinfachen. Roelant ist fest davon überzeugt, dass diese Ansätze der Schlüssel zur Schaffung skalierbarer, flexibler und effizienter Datenlösungen sind.
Derzeit stellt Roelant sein Buch Data Engine Thinking fertig, das diese Prinzipien detailliert behandelt. Außerdem hat er Agnostic Data Labs gegründet, ein Unternehmen, das innovative Werkzeuge entwickelt, um Organisationen dabei zu unterstützen, Datenlösungen im Einklang mit seinen zukunftsweisenden Methoden zu implementieren.
Wie Sie Kosten senken und die Datenbereitstellung beschleunigen, indem Sie sich auf das Wesentliche konzentrieren und den Rest automatisieren
Fühlen sich Ihre Geschäftsanwender frustriert aufgrund langsamer Datenbereitstellung? Sind die Kosten für die Datenaufbereitung zu hoch? Wir zeigen Ihnen, wie Sie möglicherweise mit zwei Projekten gleichzeitig jonglieren – eines, das darauf abzielt, Ihr Unternehmen mit Informationen zu unterstützen, und ein anderes, das sich auf die Entwicklung einer IT-Lösung konzentriert. Und raten Sie mal: Eines dieser Projekte ist die Hauptursache für Ihre Kosten und Verzögerungen.
In dieser Präsentation werden wir besprechen, wie Sie den Wert aus Ihren Daten ziehen können, indem Sie die wesentlichen Aufgaben identifizieren, die erforderlich sind, um dieses Ziel zu erreichen. Historisch gesehen hat der Versuch, all diese Aufgaben manuell zu bewältigen, zu einer hohen Rate gescheiterter Projekte geführt. Wir werden verschiedene Architekturen vergleichen, die versprochen haben, die Komplexität zu reduzieren, aber oft gescheitert sind, da sie wichtige Funktionen ausgelassen haben.
Abschließend werden wir zeigen, wie Automatisierung es ermöglicht, alle notwendigen Aufgaben mit hoher Qualität und geringen Kosten zu erfüllen – vorausgesetzt, Sie gehen das Zwei-Projekt-Problem richtig an.
Carsten Schweiger ist Pre-Sales & Data Engineer bei der 2150 Datavault Builder AG. Er bringt umfassende Erfahrung in der Datenverarbeitung und -bereitstellung mit und unterstützt Unternehmen dabei, ihre Daten effizient und automatisiert zu verwalten.
Petr Beles ist Mitbegründer und CEO der 2150 Datavault Builder AG. Er verfügt über langjährige Erfahrung in der Datenarchitektur und -automatisierung und hat sich auf die Entwicklung von Lösungen spezialisiert, die Unternehmen dabei unterstützen, ihre Daten effizienter zu nutzen.
In meiner Beratungserfahrung zeigt sich oft, dass schlecht funktionierende Data Vault-Automatisierungen durch eine übermäßige Anzahl von Hubs und übermäßig komplexe Geschäftsregeln mit zahlreichen Abhängigkeiten zwischen dem Data Vault und Berichten auffallen. Typische Anzeichen sind auch Hub-Namen, die nicht mit dem Geschäftsmodell des Kunden übereinstimmen, sowie Abweichungen vom dimensionalen Modell. Diese Probleme führen in der Regel zu längeren Entwicklungszeiten, langsamerer Automatisierungssoftware, längeren Ladezeiten und höheren Kosten bei cloudbasierten Data-Warehouse-Lösungen.
Carsten Schweiger ist Pre-Sales & Data Engineer bei der 2150 Datavault Builder AG. Er bringt umfassende Erfahrung in der Datenverarbeitung und -bereitstellung mit und unterstützt Unternehmen dabei, ihre Daten effizient und automatisiert zu verwalten.
Petr Beles ist Mitbegründer und CEO der 2150 Datavault Builder AG. Er verfügt über langjährige Erfahrung in der Datenarchitektur und -automatisierung und hat sich auf die Entwicklung von Lösungen spezialisiert, die Unternehmen dabei unterstützen, ihre Daten effizienter zu nutzen.
Veränderung fühlt sich oft an wie das Überqueren einer Hängebrücke, die bei jedem unsicheren Schritt schwankt, besonders wenn es um das Management von organisatorischem Wandel (OCM) geht. In dieser dynamischen und anregenden Präsentation wird gezeigt, wie man das „Tal der Verzweiflung“ mit Resilienz und Mut überwindet und herausfordernde Übergänge in Chancen für persönliches und organisatorisches Wachstum verwandelt.
Die Präsentation beginnt mit der Kubler-Ross-Veränderungskurve, einem Modell, das den emotionalen Verlauf von Veränderungen beschreibt. Mit der Metapher der Hängebrücke wird das Konzept des „Many Firsts“-Mindsets vorgestellt, das dazu ermutigt, neue Erfahrungen zu nutzen, um alte Muster zu durchbrechen. Humorvolle und reale Erlebnisse, wie ein unerwarteter „Flug“ in einer Straßenbahn, veranschaulichen, wie Veränderung uns hilft, die Fähigkeit zu entwickeln, auf Lebensüberraschungen schnell und gestärkt zu reagieren. Darüber hinaus wird die Bedeutung von „Care and Candor“ in der Führung diskutiert, wobei Ehrlichkeit und Empathie als Schlüssel zum Aufbau von Vertrauen in herausfordernden Situationen hervorgehoben werden.
Regula Fischer ist eine erfahrene Expertin für organisatorischen Wandel, die auf humorvolle und einfühlsame Weise ihre eigenen Erlebnisse mit Veränderungen teilt. Mit ihrer Fähigkeit, komplexe Themen durch Geschichten greifbar zu machen, vermittelt sie wertvolle Einblicke in die Stärkung der persönlichen Resilienz und die Bedeutung von authentischer Führung. Ihre Präsentationen inspirieren die Teilnehmer, Veränderungen als Chance für persönliches Wachstum und stärkere Verbindungen mit anderen zu sehen.
Erfahren Sie, wie Generative AI (GenAI) die Business Intelligence revolutioniert und Unternehmen dabei unterstützt, schneller und effizienter datenbasierte Entscheidungen zu treffen. GenAI ermöglicht tiefere Einblicke durch natürliche Sprachinteraktionen, automatisierte Analysen und personalisierte Dashboards, ganz ohne komplexe technische Vorkenntnisse.
In diesem Seminar wird gezeigt, wie GenAI Datenmuster schnell erkennt, die Berichtserstellung automatisiert und Unternehmen agiler macht. Darüber hinaus wird erläutert, wie GenAI Risiken minimiert und sich nahtlos in bestehende Systeme integriert, um den Entscheidungsprozess zu beschleunigen und zu optimieren.
Jens Dorn ist ein erfahrener Experte im Bereich Künstliche Intelligenz und Business Intelligence. Mit seinem fundierten Wissen und praxisnahen Ansätzen zeigt er, wie Unternehmen die Vorteile von GenAI nutzen können, um tiefere Einblicke zu gewinnen und datengesteuerte Prozesse effizienter zu gestalten.
Copyright © 2024 Hahne Academy, eine Marke der Hahne Consulting GmbH | Webdesign by WebXConnect