Datenwissen von A-Z
WIKI
WIKI
A wie:
A wie: Azure Data Factory
Einführung
Azure Data Factory ist ein von Microsoft bereitgestellter cloudbasierter Datenintegrations- und Orchestrierungsdienst. Er ermöglicht Unternehmen die effiziente Verwaltung und Verarbeitung ihrer Daten (sowohl strukturiert als auch unstrukturiert) aus einer Vielzahl von Quellen, lokal und in der Cloud. Mithilfe einer intuitiven visuellen Benutzeroberfläche und leistungsstarker Funktionen können Benutzer datengesteuerte Workflows für die Datenverschiebung und -transformation erstellen, um ihre Daten einfach über verschiedene Systeme hinweg zu integrieren. Somit ist Azure Data Factory eine wertvolle Ergänzung für die Datenverwaltungsstrategie jedes Unternehmens.
Zusätzlich zur Datenverschiebung bietet Azure Data Factory auch eine breite Palette an Datentransformationsfunktionen, mit denen Benutzer ihre Daten einfach bereinigen, anreichern und transformieren können. Die integrierten Konnektoren und Integration mit anderen Azure-Diensten wie Azure HDInsight, Azure Machine Learning und Azure Synapse Analytics erleichtern die Durchführung komplexer Datentransformationen und -analysen.
Nutzen
- Azure Data Factory ist ein cloudbasierter Dienst von Microsoft, der es Unternehmen ermöglicht, ihre Daten einfach und effizient zu verwalten und zu verarbeiten.
- Durch die Skalierbarkeit des Dienstes können Organisationen ihre Ressourcen basierend auf ihren Datenverarbeitungsanforderungen einfach hoch- oder runterskalieren, ohne zusätzliche Investitionen in Hardware oder Infrastruktur tätigen zu müssen.
- Die Funktionen zur Datenintegration und -transformation von Azure Data Factory ermöglichen es Unternehmen, ihre Daten einfach zu verwalten und zu verarbeiten.
- Die integrierten Sicherheitsfunktionen wie Verschlüsselung und Zugriffskontrolle gewährleisten die Datensicherheit und die Einhaltung von Datenschutzbestimmungen.
- Die Integration von Azure Data Factory mit anderen Azure-Diensten wie Azure HDInsight, Azure Machine Learning und Azure Synapse Analytics ermöglicht es Unternehmen, tiefere Einblicke in ihre Daten zu gewinnen und datengestützte Entscheidungen zu treffen.
- Die visuelle, benutzerfreundliche Oberfläche erleichtert es Organisationen, ihre Datenpipelines zu verwalten und zu überwachen, was die Effizienz und Produktivität verbessert und den Zeitaufwand für die Datenverwaltung reduziert.
A wie: Azure DevOps
Einführung
Azure DevOps bietet Entwicklerdienste für Support-Teams zur Arbeitsplanung, zur Zusammenarbeit bei der Code-Entwicklung und zur Erstellung und Bereitstellung von Anwendungen. Azure DevOps unterstützt eine Kultur und eine Reihe von Prozessen, die Entwickler und Projektmanager zusammenbringen, um die Softwareentwicklung abzuschließen. Es ermöglicht Unternehmen, Produkte in einem schnelleren Tempo zu erstellen und zu verbessern, als dies mit herkömmlichen Softwareentwicklungsansätzen möglich ist.
Architektur
Azure Boards ist in mehreren hierarchischen Ebenen organisiert, um Flexibilität und Anpassungsfähigkeit in verschiedenen Organisationen zu gewährleisten.
- Eine Organisation ist das oberste Element der Architektur. Ihre Anzahl ist innerhalb eines einzelnen Unternehmens unbegrenzt. Jede Organisation kann mit einem Azure AD verknüpft werden, um nach Personen innerhalb der Organisation zu suchen. Jede Organisation hat einen und nur einen Eigentümer, der die meisten Rechte hat.
- Ein Projekt ist das zweite Top-Element der Architektur. Es bietet eine Reihe von Komponenten für die Arbeitsplanung und die Zusammenarbeit bei der Softwareentwicklung, darunter auch Azure Boards. Jedes Projekt muss sich innerhalb einer Organisation befinden und es gibt eine weiche Begrenzung von 300 Projekten pro Organisation auf Azure DevOps Services (Cloud-Version), aber keine Begrenzung auf Azure DevOps On-Premise. Jedes Projekt hat einen oder mehrere Projektadminsitratoren.
- Azure Boards ist eine der Komponenten eines jeden Projekts. Andere Komponenten sind Azure Repos, Azure Pipelines und Azure Artifacts. Azure Boards besteht aus einer Backlog-Liste, einem Kanban Board, einem Query Builder und Lieferplänen.
- Ein Work Item ist das Kernelement eines jeden Projekts in Azure Boards. Ein Work Item kann viele Typen haben, die durch einen Projektprozess definiert werden.
Azure Boards
Azure Boards bietet eine Reihe von Agile-Tools zur Unterstützung der Planung und Verfolgung von Arbeit, Code-Fehlern und Problemen mit Kanban- und Scrum-Methoden. Es ist eine der vielen Komponenten, die in Azure DevOps enthalten sind.
Es bietet Ihnen eine Reihe von vordefinierten Arbeitselementtypen zur Unterstützung der Verfolgung von Features, User Stories, Bugs und Aufgaben. Sie können schnell loslegen, indem Sie Ihr Product Backlog oder Kanban-Board verwenden. Unabhängig davon, welche agile Methode Sie verwenden, Azure Boards unterstützt Sie mit den Tools, die Sie für die Umsetzung dieser Methode benötigen.
Mit dem Azure Boards-Webdienst können Teams ihre Softwareprojekte verwalten. Er bietet eine Vielzahl von Funktionen, darunter native Unterstützung für Scrum und Kanban, anpassbare Dashboards und integrierte Berichte. Diese Tools skalieren mit dem Wachstum Ihres Unternehmens.
Verfolgen Sie schnell und einfach User Stories, Backlog-Elemente, Aufgaben, Features und Bugs, die mit Ihrem Projekt verbunden sind. Verfolgen Sie die Arbeit, indem Sie Arbeitselemente basierend auf den für Ihr Projekt verfügbaren Prozess- und Arbeitselementtypen hinzufügen.
Nutzen
Azure DevOps ist eine vollständige, skalierbare und datengesteuerte Lösung für das Projektmanagement, die eine agile Methode bietet und gleichzeitig alles unter dem Microsoft Stack hält. Die Nutzung von Azure Boards bleibt auch für große Organisationen kosteneffizient und bringt Struktur mit allen möglichen Microsoft-Integrationen und benutzerdefinierten Projektprozessen.
A wie: Azure Functions
Einführung
Mit Azure Functions können Sie die Logik Ihres Systems als ereignisgesteuerte, leicht verfügbare Codeblöcke in Ihrer bevorzugten Programmiersprache mit automatischer Bereitstellung implementieren. Diese Codeblöcke werden als „Funktionen“ bezeichnet.
Funktionen
Eine Funktion ist das wichtigste Konzept in Azure Functions. Eine Funktion enthält zwei wichtige Teile – Ihren Code und eine Konfigurationsdatei, die function.json. Bei kompilierten Sprachen wird diese Konfigurationsdatei automatisch aus den Anmerkungen in Ihrem Code generiert. Bei Skriptsprachen müssen Sie die Konfigurationsdatei selbst erstellen.
Die Datei function.json definiert den Auslöser der Funktion, die Bindungen und andere Konfigurationseinstellungen. Jede Funktion hat einen und nur einen Auslöser. Die Laufzeitumgebung verwendet diese Konfigurationsdatei, um die zu überwachenden Ereignisse und die Art und Weise der Datenübergabe und -rückgabe bei der Ausführung einer Funktion zu bestimmen.
Anwendungen
Azure Functions kann für die Erstellung von Systemen verwendet werden, die auf eine Reihe kritischer Ereignisse reagieren. Egal, ob Sie eine Web-API erstellen, auf Datenbankänderungen reagieren, IoT-Datenströme verarbeiten oder Nachrichtenwarteschlangen verwalten – jede Anwendung benötigt eine Möglichkeit, Code auszuführen, wenn diese Ereignisse eintreten.
Mit Azure Functions sind Sie in der Lage, die Logik Ihres Systems in Funktionen zu implementieren, die jederzeit ausgeführt werden können, wenn Sie auf kritische Ereignisse reagieren müssen. Azure Functions deckt den Bedarf mit so vielen Ressourcen und Funktionsinstanzen wie nötig – aber nur solange wie nötig. Wenn die Anfragen zurückgehen, werden alle zusätzlichen Ressourcen und Anwendungsinstanzen automatisch abgeschaltet. Sie zahlen nur, solange Ihre Funktionen laufen.
Bearbeitung von Funktionen
Mit dem in das Azure-Portal integrierten Funktionseditor können Sie Ihren Code und Ihre function.json-Datei direkt inline aktualisieren. Dies wird nur für kleine Änderungen oder Proofs of Concept empfohlen – am besten verwenden Sie ein lokales Entwicklungstool wie Visual Studio Code.
Nutzen
Hier sind einige Vorteile von Microsoft Azure Functions:
- Skalierbarkeit: Azure Functions sind von Natur aus skalierbar und können automatisch an die Anforderungen angepasst werden.
- Kosteneffektivität: Azure Functions berechnen nur die tatsächlich ausgeführte Zeit und vermeiden damit unnötige Kosten für ungenutzte Kapazitäten.
- Einfache Integration: Azure Functions können einfach mit anderen Azure-Diensten wie Azure Event Grid, Azure Blob Storage oder Azure Cosmos DB integriert werden.
- Programmiersprachen: Azure Functions unterstützt mehrere Programmiersprachen wie C#, Java, JavaScript und Python.
- Entwicklerfreundlichkeit: Azure Functions bieten eine einfache und schnelle Möglichkeit, Funktionen zu erstellen und zu testen.
- Schnelle Bereitstellung: Azure Functions werden automatisch bereitgestellt und aktualisiert, so dass sich Entwickler auf ihre Funktionen konzentrieren können, anstatt sich um Infrastrukturdetails zu kümmern.
- Flexibilität: Azure Functions können auf verschiedene Arten ausgelöst werden, z.B. durch HTTP-Anforderungen, Zeitpläne oder Ereignisse von Azure-Diensten.
A wie: Azure Machine Learning
Einführung
Azure Machine Learning ist ein cloudbasierter Service von Microsoft, der Unternehmen dabei unterstützt, den Workflow von Machine Learning Projekten zu managen. Dies beinhaltet die Datenvorbereitung, das Training und Deployment von Modellen sowie das Monitoring und die Verwaltung von Modellen durch MLOps.
Azure Machine Learning Studio bietet verschiedene Optionen zur Entwicklung von Machine Learning Modellen an, darunter:
- Notebooks: Benutzer können Jupyter Notebooks direkt in Azure Machine Learning Studio erstellen und ausführen.
- Automated Machine Learning: Mit automatisierten ML-Experimenten können Modelle über eine Benutzeroberfläche erstellt werden.
- Azure Machine Learning Designer: Der Designer ermöglicht das Training und Deployment von Machine Learning Modellen, ohne dass Benutzer Code schreiben müssen. Durch Drag & Drop von Datensätzen und Komponenten kann eine Machine Learning Pipeline erstellt werden.
Um die Leistung dieser drei Methoden zu bewerten, können sie für das Trainieren eines Modells zur Vorhersage der Kreditwürdigkeit von Hauskreditkunden verglichen werden. Diese Vorhersage ermöglicht Unternehmen, automatisch festzustellen, welche Kunden für die Kreditvergabe geeignet sind, basierend auf den Angaben der Kunden.
Nutzen
- Management des Workflows von Machine Learning Projekten
- Datenvorbereitung, Training und Deployment von Modellen
- MLOps zur Überwachung und Verwaltung von Modellen
- Möglichkeit, Modelle ohne eigenen Code zu schreiben zu trainieren und zu deployen
- Automatisierte ML-Experimente zur Erstellung von Modellen über eine Benutzeroberfläche
- Vergleich der Ergebnisse von verschiedenen Methoden zur Modellentwicklung
- Automatisierte Entscheidungen auf Basis von Kundenangaben
A wie: Azure Storage Accounts
Einführung
Azure Storage Accounts sind ein unverzichtbarer Bestandteil der Azure-Cloud-Plattform von Microsoft und ermöglichen Unternehmen und Entwicklern die Speicherung, Sicherung und den Abruf von Daten in der Cloud. Azure Storage zeichnet sich durch Skalierbarkeit, Sicherheit und Zuverlässigkeit aus und bietet somit eine ideale Lösung für die Datenspeicherung in der Cloud.
Jeder Azure Storage Account ist im Grunde ein Container, der dazu dient, Daten zu speichern. Es gibt verschiedene Arten von Azure Storage Accounts, wie beispielsweise Blob Storage, File Storage, Table Storage und Queue Storage. Jeder Typ bietet unterschiedliche Funktionen und Vorteile, die den spezifischen Anforderungen der Benutzer entsprechen.
- Blob Storage ist der am häufigsten verwendete Storage Account Service und eignet sich am besten für die Speicherung großer Binärdaten wie Bilder, Videos und Dokumente.
- File Storage ist ideal für die gemeinsame Nutzung von Dateien zwischen Anwendungen und Benutzern.
- Table Storage ermöglicht es Benutzern, strukturierte Daten in der Cloud zu speichern und abzurufen, während
- Queue Storage die Skalierung von Anwendungen unterstützt, die in der Cloud ausgeführt werden.
Nutzen
Azure Storage Accounts bieten eine Vielzahl von Vorteilen, die Unternehmen zu schätzen wissen werden. Dazu zählen insbesondere die Skalierbarkeit, Zuverlässigkeit und Sicherheit. Durch die Skalierbarkeit ist es jederzeit möglich, den Speicherbedarf zu erhöhen oder zu reduzieren, wodurch Unternehmen ihre Kosten flexibel steuern können, während sie sicherstellen, dass sie immer ausreichend Speicherplatz zur Verfügung haben. Azure Storage zeichnet sich auch durch eine hohe Verfügbarkeit und Ausfallsicherheit aus, so dass Daten jederzeit sicher und zuverlässig zugänglich sind.
B wie:
B wie: BI-Architektur
Einführung
Zur Auswahl des Business Intelligence Tools, welches sich am besten zur Erfüllung all Ihrer Ansprüche eignet, führen wir ein Tool-Benchmarking durch, um die unterschiedlichen Lösungen, die der Markt momentan bietet, miteinander zu vergleichen und zu bewerten. Anschließend entwickeln wir für Sie ein geeignetes, performanceorientiertes Datenmodell sowie ein Konzept zur Datenstrukturierung/-architektur. Zusätzlich kümmern wir uns um den reibungslosen Ablauf des ETL-Prozesses, wodurch Ihre Daten fehlerfrei aus verschiedensten Quellen in das Data Warehouse geladen werden.
Inhalte:
- Tool-Benchmarking
- Datenarchitektur
- Datenmodellierung (Queries)
- ETL
- Konnektoren
- Performanceoptimierungen
B wie: BI-Organisation
Einführung
Wir unterstützen Sie dabei, Fachkompetenzen für den Einsatz von Business Intelligence innerhalb eines Competence Centers in Ihrem Unternehmen aufzubauen. Zusätzlich sorgen wir dafür, dass Sie eine Reporting Factory für eine effiziente Aufbereitung der Unternehmensdaten einführen können, sodass die Daten in geeigneter Form den Verantwortlichen Ihres Unternehmens als Fundament für jegliche Entscheidungen zur Verfügung gestellt werden können.
Inhalte:
- Competence Center
- Reporting Factory
- Wissensmanagement
B wie: BI-Strategie
Einführung
Wir möchten mit Ihnen zusammen eine passende, ganzheitliche und zukunftsgerichtete Business Intelligence-Strategie für Ihr Unternehmen entwickeln.
Dafür erstellen wir zunächst ein auf Ihre Anforderungen zugeschnittenes Vorgehensmodell. Außerdem analysieren wir Ihren Reifegrad, um einen Überblick zur aktuellen Leistungsfähigkeit Ihrer Prozesse zu erhalten. Anschließend entwerfen wir zur Visualisierung des gesamten Weges von der aktuellen Situation bis hin zum gewünschten Ergebnis eine BI-Roadmap, um unser Vorgehen und unsere Leistungen transparent zu machen. Zusätzlich führen wir eine Analyse aller bisher gesammelten, relevanten Daten Ihres Unternehmens durch.
Inhalte:
- Vorgehensmodell
- Reifegradanalyse
- BI-Roadmap
- Datenanalyse
D wie:
D wie: Dashboard und Report
Einführung
Mithilfe von Business Intelligence Berichten können Sie all Ihre Unternehmensdaten erfassen, auswerten und in Reports sowie Dashboards visualisieren, um dadurch Key Performance Indicators (KPIs) zu ermitteln und somit wichtige Erkenntnisse zur Verbesserung Ihrer Geschäftsprozesse zu gewinnen. Eine ungeeignete Darstellung von Daten kann schnell zu Missverständnissen oder Fehlinterpretationen führen, weshalb wir Sie gerne bei der Entwicklung des passenden Designs bzw. Layouts Ihrer Berichte, Dashboards und ScoreCards unterstützen.
Inhalte:
- 3-Phasen Modell (Dashboardentwicklung)
- Data Story Telling
- Mockups
- KPI
- ScoreCard
- Automatisierte Berichterstattung
D wie: Data Analytics vs. Business Intelligence
Unterschiede zwischen BI & Data Analytics
Descriptive Analytics
Bei der deskriptiven Analyse werden Daten statistisch ausgewertet, um festzustellen, was in der Vergangenheit passiert ist. Die deskriptive Analyse hilft einem Unternehmen zu verstehen, wie es funktioniert, indem sie den Beteiligten bei der Interpretation der Informationen hilft. Dies kann in Form von Datenvisualisierungen wie Diagrammen, Tabellen, Berichten und Dashboards geschehen.
Diagnostic Analytics
Die diagnostische Analyse geht bei den beschreibenden Daten noch einen Schritt weiter und bietet eine tiefere Analyse, um die Frage zu beantworten: Warum ist das passiert? Häufig wird die diagnostische Analyse auch als Ursachenanalyse bezeichnet. Dazu gehören Prozesse wie
- Data Discovery,
- Data Mining,
- Drill Down und
- Drill Through.
Predictive Analytics
Bei der prädiktiven Analyse werden historische Daten in ein maschinelles Lernmodell eingespeist, das wichtige Trends und Muster berücksichtigt. Das Modell wird dann auf aktuelle Daten angewendet, um vorherzusagen, was als Nächstes passieren wird.
Prescriptive Analytics
Die präskriptive Analyse hebt prädiktive Daten auf die nächste Stufe. Jetzt, da Sie eine Vorstellung davon haben, was wahrscheinlich in der Zukunft passieren wird, was sollten Sie tun? Es werden verschiedene Handlungsoptionen vorgeschlagen und die potenziellen Auswirkungen der einzelnen Optionen aufgezeigt.
Cognitive Analytics
Cognitive Analytics wendet menschenähnliche Intelligenz auf bestimmte Aufgaben an und vereint eine Reihe von intelligenten Technologien, darunter
- Semantik,
- Algorithmen der künstlichen Intelligenz,
- Deep Learning und
- maschinelles Lernen.
D wie: Data Asset
Data Asset ist ein Begriff, der sich auf Daten als Vermögenswerte oder Ressourcen eines Unternehmens oder einer Organisation bezieht. Dies bedeutet, dass Daten als wertvolle Güter betrachtet werden können, ähnlich wie physische Vermögenswerte wie Gebäude, Maschinen oder Fahrzeuge, Daten bilden die Geschäftsgrundlage von vielen Unternehmen.
Data Assets können aus verschiedenen Arten von Daten bestehen, einschließlich strukturierter Daten, wie sie beispielsweise in Datenbanken gespeichert werden, oder unstrukturierter Daten, wie Texte, Bilder oder Videos. Auch Prozessdaten oder Logdaten können Teil von Data Assets sein.
Nutzen von Data Assets
Unternehmen nutzen Data Assets für verschiedene Zwecke, wie beispielsweise
- zur Verbesserung der Entscheidungsfindung,
- zur Identifizierung von Trends oder
- zur Entwicklung neuer Produkte und Dienstleistungen.
Durch die Analyse von Data Assets können Unternehmen auch Betriebsabläufe optimieren, Risiken minimieren und Wettbewerbsvorteile erlangen.
Es ist wichtig, dass Unternehmen ihre Data Assets sorgfältig verwalten und schützen, da sie oft vertrauliche Informationen enthalten können. Ein Verlust oder Missbrauch von Daten kann erhebliche negative Auswirkungen auf das Unternehmen haben.
Insgesamt sind Data Assets ein wichtiger Bestandteil moderner Unternehmen und Organisationen. Durch die sorgfältige Verwaltung und Nutzung dieser Ressource können Unternehmen ihre Wettbewerbsfähigkeit verbessern und langfristigen Erfolg sichern.
Prozess eines Data Assets
Den Prozess der
- Beschaffung,
- Nachverfolgung,
- Nutzung und
- Optimierung
von Data Assets wird als Data Asset Management bezeichnet.
D wie: Data Catalog
Ein Data Catalog (zu Deutsch: Datenkatalog) ist eine Art Verzeichnis oder Register, das Informationen über Daten innerhalb eines Unternehmens oder einer Organisation enthält. Der Data Catalog ist in der Regel eine zentrale Datenbank, die Informationen über alle verfügbaren Daten und deren Eigenschaften enthält, wie zum Beispiel
- ihre Quelle,
- ihre Struktur,
- ihre Bedeutung oder
- ihren Verwendungszweck.
Zweck eines Datenkatalogs
Der Zweck des Data Catalog besteht darin, eine Übersicht über alle verfügbaren Daten im Unternehmen oder in der Organisation zu bieten und so die Auffindbarkeit und Nutzung der Daten zu erleichtern. Durch die Katalogisierung von Daten können Nutzer schnell und einfach auf die benötigten Daten zugreifen, ohne lange suchen zu müssen. Dies kann die Effizienz von Arbeitsabläufen erhöhen und die Entscheidungsfindung verbessern.
Der Data Catalog ist auch ein wichtiger Bestandteil des Datenmanagements, da er es den Verantwortlichen ermöglicht, den Zugriff auf Daten zu kontrollieren und sicherzustellen, dass sie korrekt verwendet werden. Darüber hinaus kann der Data Catalog helfen, die Datenqualität zu verbessern, indem er die Standardisierung von Daten und Metadaten fördert und so sicherstellt, dass alle Nutzer auf dieselben Informationen zugreifen.
Nutzen eines Data Catalogs
Moderne Data Catalogs verwenden oft Künstliche Intelligenz (KI) und Machine-Learning-Algorithmen, um die Verwaltung von Daten zu automatisieren und die Suche nach Daten zu erleichtern. Die Integration von Data Catalogs in das Datenmanagementsystem eines Unternehmens oder einer Organisation kann einen erheblichen Mehrwert schaffen, indem die
- Auffindbarkeit,
- Verfügbarkeit und
- Qualität
von Daten verbessert wird.
D wie: Data Driven Culture
Eine datengesteuerte Kultur ist eine Kultur, in der Daten als grundlegender Bestandteil der Entscheidungsfindungsprozesse eines Unternehmens verwendet werden und in der jede:r Mitarbeiter:In, unabhängig von Position, ermutigt wird, Daten zur Unterstützung der Arbeit zu nutzen. Eine Data Driven Culture sieht Daten als strategisches Gut und als Quelle von Wettbewerbsvorteilen.
Zu den wichtigsten Merkmalen einer datengesteuerten Kultur gehören:
- Datenorientierte Entscheidungsfindung: In einer datengesteuerten Kultur werden Daten als Grundlage und Antrieb für die Entscheidungsfindung auf allen Ebenen des Unternehmens genutzt. Entscheidungen beruhen auf der Analyse von Daten und nicht auf Intuition oder Vermutungen.
- Datenkenntnis: Mitarbeiter:Innen in einer datengesteuerten Kultur verfügen über die notwendigen Fähigkeiten und Kenntnisse, um Daten zu verstehen und mit ihnen zu arbeiten, und sind in Datenanalysetools und -techniken geschult.
- Zugänglichkeit von Daten: Eine datengesteuerte Kultur zeichnet sich durch einen einfachen Zugang zu Daten und Analysetools aus, der es den Mitarbeiter:Innen ermöglicht, mit Daten zu arbeiten und sie zu nutzen.
- Eine Kultur des Experimentierens: In einer datengesteuerten Kultur werden die Mitarbeiter:Innen ermutigt, mit Daten zu experimentieren und sie zu nutzen, um Wachstums- und Verbesserungsmöglichkeiten zu ermitteln.
D wie: Data Governance
Was Data Governance ist
Data Governance beschreibt eine Reihe von Regeln, Verfahren und Standards, die sicherstellen sollen, dass Daten in Unternehmen
- qualitativ hochwertig sind,
- geschützt werden und
- sinnvoll genutzt werden können.
Dabei legt Data Governance fest, wer welche Daten nutzen darf und wie sie verwendet werden sollen. Außerdem definiert sie die Verantwortlichkeiten für die Qualität und Identifikation von einzelnen Datenbeständen sowie die Steuerung, Überwachung und Ausführung von datenbasierten Prozessen. Darüber hinaus regelt sie den Zugriff der Mitarbeiter auf relevante Daten.
Insgesamt hilft Data Governance Unternehmen dabei, den digitalen Wandel erfolgreich zu gestalten, indem sie sichere und wirtschaftliche Abläufe, konsistente Daten und valide Analyseergebnisse gewährleistet. Dadurch können Risiken gesteuert und Kosten reduziert werden, während gleichzeitig der größtmögliche Wert aus den vorhandenen Daten für das Unternehmen generiert wird.
Vorteile von Data Governance
Gemeinsames Datenverständnis
Durch Data Governance entsteht ein gemeinsames Verständnis der Daten, wodurch eine einheitliche Sicht auf die Daten und eine einheitliche Terminologie erreicht wird. Dabei können die einzelnen Geschäftseinheiten ihre Flexibilität behalten und dennoch auf eine einheitliche Datenbasis zugreifen.
Verbesserte Datenqualität
Ein gut durchdachter Data Governance-Plan sorgt für eine verbesserte Datenqualität, indem er die Genauigkeit, Vollständigkeit und Konsistenz der Daten sicherstellt. Dadurch wird gewährleistet, dass die Daten zuverlässig sind und für die verschiedenen Geschäftseinheiten nutzbar sind.
Durchgehende Compliance
Data Governance trägt zur durchgehenden Compliance bei, indem sie sicherstellt, dass gesetzliche Vorgaben wie die DSGVO (EU-Datenschutz-Grundverordnung), der US-HIPAA (Health Insurance Portability and Accountability Act) sowie branchenspezifische Anforderungen wie der PCI-DSS (Payment Card Industry Data Security Standards) eingehalten werden. Dadurch wird gewährleistet, dass das Unternehmen gesetzliche Vorgaben erfüllt und Strafen sowie Reputationsverluste vermieden werden können.
Single Source of Truth (SSoT)
Durch Data Governance können Organisationen eine 360-Grad-Sicht auf ihre Kunden und andere Geschäftseinheiten erlangen, indem sie eine „einzige Version der Wahrheit“ für zentrale Geschäftseinheiten festlegen und ein angemessenes Maß an Einheitlichkeit über verschiedene Einheiten und Geschäftsaktivitäten hinweg schaffen. Dadurch wird sichergestellt, dass alle Abteilungen und Geschäftsbereiche auf die gleichen Informationen zugreifen und eine konsistente Sicht auf die Geschäftsaktivitäten des Unternehmens haben.
Was Data Governance nicht ist
Data Governance ist nicht dasselbe wie Datenmanagement. Datenmanagement bezieht sich auf die Verwaltung des gesamten Lebenszyklus von Daten innerhalb einer Organisation. Data Governance ist ein zentraler Bestandteil des Datenmanagements und verbindet neun weitere Konzepte, wie beispielsweise
- Datenqualität,
- Referenz- und Stammdatenmanagement,
- Datensicherheit,
- Datenbankprozesse,
- Metadatenmanagement und
- Data Warehousing.
Data Governance ist auch nicht dasselbe wie Data Stewardship. Data Governance sorgt dafür, dass die richtigen Personen die richtigen Datenverantwortlichkeiten zugewiesen bekommen. Data Stewardship bezieht sich auf die notwendigen Aufgaben, um sicherzustellen, dass die Daten genau, kontrolliert und von den richtigen Benutzergruppen einfach zu finden und zu verarbeiten sind. Während es bei Data Governance in erster Linie um Strategie, Rollen, Organisation und Richtlinien geht, konzentriert sich Data Stewardship auf die Ausführung und Operationalisierung.
Data Governance ist auch nicht dasselbe wie Stammdatenmanagement. Das Stammdatenmanagement konzentriert sich darauf, wichtige Bereiche einer Organisation zu identifizieren und dann die Qualität dieser Daten zu verbessern. Es stellt sicher, dass Sie die vollständigsten und genauesten verfügbaren Informationen zu wichtigen Bereichen wie Kunden, Auftragnehmer, medizinische Dienstleister usw. haben.
D wie: DAX
DAX, kurz für Data Analysis Expressions, ist eine leistungsstarke Sprache für Datenanalyse, die in Microsoft Power BI, Excel Power Pivot und anderen Microsoft-Produkten verwendet wird. DAX ermöglicht es Benutzern, komplexe Datenmodelle zu erstellen, die auf große Datenmengen zugreifen und mithilfe von Formeln, Funktionen und Aggregationen analytische Erkenntnisse gewinnen können.
Die Grundlagen von DAX
DAX wurde entwickelt, um die Erstellung von Datenmodellen zu vereinfachen und die Abfrage von Daten zu beschleunigen. Die Sprache basiert auf einer Reihe von Funktionen, die ähnlich wie in Excel verwendet werden können, um Daten zu filtern, aggregieren und berechnen. Eine wichtige Funktion des DAX ist die Verwendung von Tabellen, die in der Regel aus einer Datenbank oder einem anderen Datensatz stammen. Diese Tabellen können dann mithilfe von DAX-Funktionen und -Formeln miteinander verknüpft werden, um komplexe Datenmodelle zu erstellen.
DAX-Funktionen
Eine der nützlichsten Funktionen von DAX ist die Möglichkeit, Aggregationen durchzuführen. Aggregationen sind eine Möglichkeit, um aus einer großen Datenmenge eine Zusammenfassung zu erstellen, die einfacher zu analysieren ist. DAX bietet verschiedene Aggregationsfunktionen wie
- SUM,
- AVERAGE,
- COUNT und
- MIN/MAX.
Diese Funktionen können verwendet werden, um schnell und einfach Zusammenfassungen zu erstellen und Trends in den Daten zu identifizieren.
Eine weitere wichtige Funktion von DAX ist die Möglichkeit, Filter anzuwenden. Filter ermöglichen es Benutzern, Daten zu filtern und nur die Daten anzuzeigen, die für ihre Analyse relevant sind. Filter können auch in Verbindung mit Aggregationsfunktionen verwendet werden, um genaue Ergebnisse zu erzielen. DAX bietet verschiedene Filterfunktionen wie
- ALL,
- FILTER und
- CALCULATETABLE,
die Benutzer:Innen die Flexibilität geben, ihre Datenanalyse auf ihre Bedürfnisse anzupassen.
Code-Beispiele
SUM (gibt die Summe der Spalte ‚Column‘)
SUM(‚Table'[Column])
AVERAGE (gibt den Durchschnittswert der Spalte ‚Column‘)
AVERAGE(‚Table'[Column])
CALCULATE (gibt die Summe der Spalte ‚Column‘, welche das Wort „Value“ in Column2 haben)
CALCULATE(SUM(‚Table'[Column]), ‚Table'[Column2] = „Value“)
Wenn Sie mehr über DAX und seine Anwendung in der Datenanalyse oder Business Intelligence erfahren möchten zögern Sie nicht uns zu kontaktieren.
H wie:
H wie: Hyperparameter
Was sind Hyperparameter bei neuronalen Netzen
Beispiele für Hyperparameter von neuronalen Netzen sind die
- Lernrate,
- Batchgröße und
- Menge an Epochen sowie
- die Anzahl an Hidden Layers und
- die Anzahl deren Neuronen.
Details zu Architektur & Funktionsweise neuronaler Netze, Lernrate, Batchgröße, Epochen, Hidden Layers, Neuronen, Aktivierungsfunktion sowie Kostenfunktion findet ihr im Impuls Architektur und Funktionsweise von neuronalen Netzen.
L wie:
L wie: Lernen von Algorithmen
Lernen am Beispiel von neuronalen Netzen
Beim Training eines neuronalen Netzes geht es darum, die Gewichte der Koeffizienten einzustellen. Je mehr Kanten es gibt, desto mehr Parameter muss das Modell lernen. Zum Lernen werden Trainingsdaten mit (x, y) Wertepaaren benötigt, wobei x den Input-Vektor mit den Werten für die einzelnen Features beschreibt und y die Zielvariable(n) enthält. Während des Trainings passt das neuronale Netz die Gewichte der Kanten so an, dass die Output-Neuronen möglichst ähnliche Werte zu y generieren, wenn x als Eingabewerte an die Input Layer übergeben wird.
Das neuronale Netz erzeugt durch eine Forwardpropagation von der Input Layer zur Output Layer Vorhersagen und beim Training lernt das neuronale Netz die richtige Einstellung der Parameter dadurch, dass der Fehler bei der Backpropagation in der entgegengesetzten Richtung zurückgegeben wird.
Details zu Architektur & Funktionsweise neuronaler Netze, Forwardpropagation, Backwordpropagation, Hyperparameter, Aktivierungsfunktion sowie Kostenfunktion findet ihr im Impuls Architektur und Funktionsweise von neuronalen Netzen.
N wie:
N wie: Neuronales Netz
Einführung
Neuronale Netze bestehen aus mehreren Schichten von miteinander verbundenen Neuronen zur Simulation des menschlichen Gehirns. Im Gegensatz zu traditionellen Machine Learning Algorithmen, wie Linearer Regression, profitieren neuronale Netze durch die Vielzahl an Parametern von einer enormen Menge an Trainingsdaten. Neuronale Netze eignen sich beispielsweise zur Klassifikation von
- Bildern,
- Spracherkennung oder für
- personalisierte Produktempfehlungen.
Architektur neuronales Netz
Ein neuronales Netz setzt sich zusammen aus einer
- Input Layer,
- beliebig vielen Hidden Layers und
- einer Output Layer.
Die Input Layer definiert die Features des Modells und nimmt entsprechend die Input-Werte dieser Features entgegen. Daher enthält die Input Layer für jedes Feature genau ein Neuron. In den Hidden Layers finden die Berechnungen statt, um auf Basis der Input-Werte Vorhersagen zu treffen. Die Anzahl der Hidden Layers und die Anzahl der Neuronen in den einzelnen Hidden Layers sind beliebig und müssen vom Entwickler als Hyperparameter festgelegt bzw. optimiert werden. Die Output Layer liefert schließlich das Ergebnis des neuronalen Netzes, wobei die Anzahl der Neuronen in der Output Layer der Anzahl der zu prädiktierenden Werten entspricht.
Details zu lernen neuronaler Netze, Forwardpropagation, Backwordpropagation, Hyperparameter, Aktivierungsfunktion sowie Kostenfunktion findet ihr im Impuls Architektur und Funktionsweise von neuronalen Netzen.
P wie:
P wie: Palantir Foundry.png)
Einführung
Foundry wurde neben Gotham und Apollo von Palantir Technologies entwickelt, einem amerikanischen Unternehmen, das sich auf Datenanalyse und -integration spezialisiert hat. Die Plattform wurde ursprünglich für Regierungsbehörden entwickelt, ist aber heute auch bei großen Unternehmen in verschiedenen Branchen wie Finanzen, Gesundheitswesen und Logistik im Einsatz.
Was ist Palantir Foundry?
Foundry ist eine leistungsstarke Datenplattform. Sie bietet Funktionen wie z.B.
- Datenintegration,
- Informationsmanagment und
- quantitative Analysen.
Mit Foundry können sie ihre Daten modellieren, analysieren und visualisieren, um wertvolle Erkenntnisse zu gewinnen und datengetriebene Entscheidungen zu treffen. Es unterstützt unter anderem auch die Integration von KI/ ML Modelle, um präzise Vorhersagen und komplexe Analyseprobleme zu lösen. Darüber hinaus hat Foundry die Fähigkeit zur Operationalisierung von Entscheidungen. Dieses ermöglicht das Modellieren von verschiedenen Szenarien und vergleichen von Optionen, bevor sie sich für eine Strategie entscheiden.
Trotz der Komplexität ist Foundry dennoch intuitiv und benutzerfreundlich gestaltet.
P wie: Plotly Dash
Einführung
Plotly bietet mit ihrer eigens entwickelten Open-Source-Python-Bibliothek Dash eine Möglichkeit zur Erstellung interaktiver und webbasierter Dashboards. Was Dash genau ist, wie es funktioniert und wie ein konkreter Use-Case für die Erstellung eines interaktiven, webbasierten Dashboards aussehen kann wird in dieser Impulsreihe erläutert.
Was ist Dash?
Dash ist eine von Plotly entwickelte Open-Source-Python-Bibliothek die als Low-Code-Framework für die schnelle Erstellung von Datenanwendungen in Python, R, Julia, F# und MATLAB genutzt werden kann. Durch eine Reihe einfacher Muster abstrahiert Dash alle Technologien und Protokolle, die für die Erstellung einer vollständigen Webanwendung mit interaktiver Datenvisualisierung erforderlich sind. Die Dash App Galerie veranschaulicht, was alles mit Dash möglich ist.
Neben der freiverfügbaren, lokal-laufenden Open-Source-Version bietet Plotly zusätzlich mit Dash Enterprise eine kostenpflichtige Version an. Mit Dash Enterprise unterstützt Plotly die sichere interne Nutzung einer Dash-Anwendung mittels eines Deployment-Servers sowie weitere Services zur Wartung, Fehlerbehebung und multiplen Nutzung der Anwendung.
P wie: (Microsoft) Power Apps
Einführung
Physische Ordner voller Dokumente, Datensilos mit unüberschaubaren Excel-Listen, versunkene E-Mails, in der Zeile verrutschte Einträge in Tabellen. Klingt nach Alltag? Hoffentlich nicht, denn genau das muss jetzt nicht mehr sein. Mit Microsoft Power Apps können Business Applikationen gebaut werden, die auf iOS, Android oder auf allen weiteren gängigen OS funktionieren – also ja, auch am Rechner.
Nutzen
Wie in allen Power Platform Applikationen, ist es auch in Power Apps möglich, Projekte gemeinsam zu bearbeiten und zu teilen. Power Apps ermöglicht die Einbindung von KI-Elementen, darunter Spracherkennung oder die Erfassung von Daten aus Scans oder Fotos von wichtigen Dokumenten. Der Vorteil der Power Apps: Die Benutzung auf allen gängigen Geräten und Betriebssystemen. Zu Beginn der Entwicklung einer App wird das Format festgelegt, also ob eine Mobile App oder eine Desktop- bzw. Tablett App entwickelt werden soll. Auch gibt es Unterschiede in der Art der Applikation. Je nach Use-Case können drei verschiedene Applikationstypen erstellt werden.
(1) Canvas-Apps stellen eine wie weiter oben bereits beschriebene „Fusion+“ aus Excel und PowerPoint dar. Durch Drag and Drop können, Formen, Tabellen, Eingabefelder und viele weitere nützliche Items auf einer weißen Fläche positioniert, mit ein wenig Code belebt und direkt einsatzfähig gemacht werden. Hierbei wird die User-Experience ins Zentrum gestellt, da das App Design vollkommen in der Hand des Entwicklers oder der Entwicklerin liegt. Die Datenanbindung kann über das Microsoft Dataverse, als auch über andere (Cloud)-Datenquellen erfolgen.

(2) Model-Driven-Apps bieten die Möglichkeit, ein datengetriebenes Modell als unterliegende Basis für die zu bauende Applikation zu erstellen. Anders als in der Canvas-App, werden bei Model-Driven-Apps relationale Datenbanken verwendet, die in Relation gesetzt werden – Power BI lässt grüßen. Das bedeutet, dass bei der Entwicklung einer solchen Applikation zunächst ein Datenmodell erstellt werden muss. Sobald dies geschehen ist, können Funktionen der App per Drag and Drop hinzugefügt und modifiziert werden. Hierbei ist kein Schreiben von Code notwendig. Und der Name ist Programm: Eine benutzerdefinierte optische Anpassung ist hierbei nicht im gleichen Rahmen wie bei Canvas-Apps möglich. Applikationen dieser Art stellen das Datenmodell (da die Apps eben um dieses aufgebaut werden) und die Features, die mit diesem ermöglicht werden in den Fokus – ganz nach der Devise „Form-Follows-Function“. Ein weiterer gravierender Unterschied liegt auf der Abhängigkeit zum Dataverse. Im Vergleich: Canvas-Apps können auch ohne Dataverse-Konnektoren entwickelt werden.

(3) Portal-Apps: Apps dieser Art, bieten die Möglichkeit mit externen Akteuren wie Kunden und Klienten über eine Webseite zu interagieren. Beispiele: Tickets ziehen, Anfragen stellen oder den Bearbeitungsstand einsehen. Durch Portal-Apps, also webbasierte Applikationen, können so auch außerhalb der eigenen Organisation, interne Daten angezeigt, hinzugefügt oder modifiziert werden. Wie bei den Model-Driven-Apps ist die Datenanbindung zum Dataverse erforderlich. Modifiziert wird die App per Drag and Drop, folglich ist die Entwicklung auch ohne Code möglich. Für individualisierte Features kommt man jedoch ohne ein wenig Code nicht herum.
Aufbau und Lizenzmodelle
Power Apps läuft über den Webbrowser. Entwickeln, Testen, Teilen, Löschen, Bearbeiten – die volle Funktionalität Power Apps ist Online aufzufinden. Das ist schön, aber wie steht es um das Thema Lizensierung? Jeder Nutzer benötigt eine Lizenz, um Apps zu entwickeln und zu konsumieren. Die Ausnahme bilden hier lediglich die Portal-Apps, welche auch von externen Usern ohne Lizenz genutzt werden können. Wichtig: Lediglich die Nutzung ist möglich, nicht die Entwicklung. Wie auch sonst, können je nach Use-Case hierbei unterschiedliche Lizenzmodelle in Frage kommen. Unterschieden wird zwischen Pro-App-Plänen und Pro-Benutzer-Plänen (bzw. subscription- und pay-as-you-go-plans).
Pro-App-Plan: Diese Lizenz ist für Nutzer geeignet, die nur wenige Apps entwickeln oder konsumieren. Pro Anwendung und Benutzer wird eine Lizenz verwendet. Wenn sich Anforderungen ändern, kann die Lizenz „aufgestapelt“ werden. Kostenpunkt: 4,20€/Benutzer/Monat.
Pay-as-you-go-Plan (Azure): Besitzt man ein Azure-Abonnement kann man den Pro-App-Plan mit einem Azure Abonnement „erweitern“ bzw. ersetzen. Genauer gesagt, zahlt man bei dieser Version nur bei der Erstellung oder dem Konsum von Apps (pro Monat und pro Benutzer). Für Organisationen mit schwankenden Anforderungen könnte diese Option am attraktivsten sein. Kostenpunkt: 8,43€/Benutzer/Monat + Nutzungskosten.
Pro-Benutzer-Plan: Bei dieser Lizenz können eine unbegrenzte Anzahl von Anwendungen und Portalen pro Benutzer zu einem monatlichen Pauschalpreis ausgeführt werden. Folglich ist dieser Plan oft in großen Organisationen vorzufinden. Kostenpunkt: 16,90€/Benutzer/Monat.

P wie: (Microsoft) Power Automate
Einführung
Power Automate ist die dritte Einheit im Bunde der Microsoft Power Platform. Wie der Name bereits andeuten lässt, dient Power Automate der Automatisierung. Und zwar nicht weniger der von Geschäftsprozessen. Angenehme Überraschung: Der Begriff „Geschäftsprozess“ ist extrem weit gefächert. Das heißt, dass Power Automate in einer Vielzahl von verschiedenen Kontexten eingesetzt werden kann. Darunter finden sich Tasks wie die Erinnerungen an überfällige Aufgaben und die automatische Versendung von Nachrichten wieder, das Verschieben von Geschäftsdaten nach Zeitplan zwischen Systemen oder das Herstellen von Verbindungen zu mehr als 500 Datenquellen und allen öffentlich zugänglichen APIs. Es können sogar Flows erstellt werden, die automatisiert das Berechnen von lokalen Excel-Dateien durchführen. Also, die Möglichkeiten sind schier grenzenlos.
Doch wie funktioniert das Ganze nun? Die Antwort ist simpel – über sogenannte Trigger. Trigger werden über Events „getriggert“, sie fungieren somit als Auslöser. Trigger rufen nach Auslösung eine Aktion aus, zum Beispiel das Ablegen von Dokumenten aus einer Mail in einem bestimmten Ordner. Diese Aktionen können weitere Auslöser/Trigger triggern und so weiter und so fort. Betrachtet man diese Kette zeichnet sich ein „Event-Flow“ ab, daher lässt sich auch der ursprüngliche Name erahnen: Power Flows. Da inzwischen aber neben der Flows, wie eben erwähnt, noch viel mehr möglich ist, ist der Name Power Automate doch ein wenig passender.
Nutzen
Power Automates Nutzen ist groß. Sehr groß. Mit einer riesigen Auswahl an Konnektoren (500+) stellt Microsoft Schnittstellen zu SAP, LinkedIn, Google Drive und vielen mehr. Dadurch ist Power Automate so vielfältig wie nur erdenklich einzusetzen. Power Automate kann also für jegliche Automatisierungen genutzt werden, um Tasks, die keine große kognitive Anstrengung erfordern „outsourcen“ zu können. Dabei wird Power Automate durch KI unterstützt, indem diese beispielsweise Informationen aus Rechnungen in PDF-Format extrahieren und direkt in Tabellen speichern oder Kommentare nach positiver oder negativer Gesinnung filtern und unterscheiden kann.
Jetzt mal im Detail. Es gibt fünf verschiedene Arten von Flows:
- Automatisierte Flows aka „Durch Ereignisse ausgelöste Flows“
- Geplante Flows aka „Zeitlich abgestimmte Flows“
- Direktflows aka „Manuell getriggerte Flows“
- Geschäftsprozessflows aka „Durchleiten eines mehrstufigen Prozesses“
- Benutzeroberflächenflows aka (RPA) Aufnehmen von Arbeitsschritten und diese anschließend abspielen lassen
Aufbau und Lizenzmodelle
Zwei Lizenzmodelle
Power Automate kommt mit sechs verschiedenen Lizenzmodellen auf den Markt. Diese lassen sich entweder den „Subscription plans“ oder den „Pay-as-you-go plans“ zuordnen. Subscription plans, also abonnementorientierte Pläne, bitten sie monatsweise zur Kasse, dafür erhalten Sie je nach Plan eine unbestimmte Anzahl an Flow-Ausführungen. Bei den Pay-as-you-go plans, wird lediglich die Ausführung eines Flows bepreist, dafür kein monatlicher Festbetrag.
Welches für wen?
Okay, soweit so gut. Doch für wen ist welches Lizenzmodell am besten geeignet? Diese Frage beantwortet Microsoft mit der Unterteilung der zwei Zahlungsmodelle. Organisationen, die eine fixe bzw. fest berechenbare Kostenstruktur präferieren können mit einem Subscription-Plan ihre Ziele am besten erreichen.
Andererseits sind Pay-as-you-go plans die Lösung für Organisationen, die Flexibilität präferieren und nur dann zahlen wollen, wenn sie einen Flow benutzen. Generell lässt sich aber sagen, dass in den meisten Fällen eine Mischung aus beiden Lizenztypen, die beste Lösung darstellt.
P wie: (Microsoft) Power BI
Einführung
Datenbasierte empirische Entscheidungen sind von essenzieller Bedeutung für Handlungsmaßnahmen in einem Unternehmen. Ob technische Daten wie Ausfallraten bestimmter Maschinen oder Finanzdaten zur Bestimmung von Konsumententrends, eine Entscheidung auf Bauchgefühl ist nicht mehr zeitgemäß und riskiert maßgeblich den Erfolg eines Unternehmens. Um diese Brücke zu schließen, wird Reporting benötigt. Und hier kommt Microsofts Power BI ins Spiel:
Power BI ist studienbelegt, die führende interaktive self-service Reporting-Plattform, welche für Business- als auch Data Analytics genutzt wird. Grundsätzlich kann man Power BI als Tool beschreiben, welches dazu dient Daten schnell, effizient und vor allen Dingen, einfach zu Analysieren und zu Visualisieren. Allerdings richtet sich Power BI nicht nur an Entwickler, Analysten oder verwandte Rollen, sondern auch an Konsumenten der erstellten Dashboards und Reports. Ein großer Vorteil der Power BI Applikation ist somit neben der klassischen Offline-Version, die von Microsoft bereitgestellte Cloud-Plattform welche lokalisationsübergreifend/ortsübergreifend die Zusammenarbeit verschiedener Akteure einer oder sogar unterschiedlicher Organisationen vereinfacht. Power BIs Handlungsraum spielt sich in einem breiten Spektrum von Daten ab. Angefangen bei kleinen Excel-Files bis hin zu Big Data wird die Applikation als Datenverarbeitungstool in einer Reihe von Unternehmen und Industrien eingesetzt.
Nutzen
Der Nutzen Power BIs lässt sich anhand einiger ausgewählter Punkte darstellen.
- Microsofttypisch bietet Power BI eine Vielzahl von (1) Schnittstellen zu diversen Datenquellen. Excel, SQL-Datenbanken, Cloudquellen, APIs und SharePoint-Listen sind nur ein kleiner Ausschnitt aus welchem Power BI Daten beziehen kann.
- (2) Datensäuberung und Datentransformation nehmen in der Datenanalyse eine zentrale Rolle ein. Eben dieser Punkt wird auf Basis der Programmiersprache Power Query M durch ein intuitives Userinterface vereinfacht, indem Spalten und Reihen von Datensätzen schnell modifiziert werden können, ohne tatsächlich programmieren zu müssen. Selbstverständlich können fortgeschrittenere User:innen dennoch auf Power Query M zurück greifen.
- Darauf aufbauend, können in Power BI Datensätze durch (3) Datenmodellierung in Relationen gesetzt, und anschließend optimiert werden. Der hervorstechendste Punkt hierbei ist DAX. DAX steht für Data Analysis & Expression und ist in der einfachsten Form lediglich eine Sammlung von Funktionen, Operatoren und Konstanten die durch bestimmte Ausdrücke/Formeln Werte berechnen oder zurückgeben kann. Vereinfacht gesagt: DAX hilft neue Informationen aus sich bereits im Modell befindenden Daten zu generieren.
- Letztlich kann ein fertiger Report, der zur Veröffentlichung bereitsteht, durch (4) Power BI Service in Microsoft Teams, Webseiten oder schlichtweg als alleinstehender Report publiziert, und von berechtigten Akteuren konsumiert werden.
Lizenz- und Kostenmodelle
Power BI ist nicht gleich Power BI. Es gibt im Wesentlichen zwei „Versionen“ von Power BI: Desktop und Service. Der Unterschied zwischen den beiden Applikationen liegt im Use-Case. Während PB Desktop darauf ausgelegt ist, Reports zu bauen, komplexe Datenmodelle aus diversen Datenquellen zu erstellen und weitere datenintensive Operationen durchzuführen, ist Power BI Service mehr auf den Konsum und die Verteilung der Reports ausgelegt. Dashboards bauen, Workspaces erstellen und teilen oder paginierte Reports exportieren, all das sind exklusive Service Features. Dennoch gibt es auch einige Gemeinsamkeiten zwischen den beiden Versionen. Grundsätzlich können beide Versionen Reports erstellen und sich Visuals und Filter zu eigen machen. Kurz um: Desktop ist für die Entwicklung gedacht, Service für den Konsum. Weitere Unterschiede und Gemeinsamkeiten erläutert die Abbildung.
Welches Lizenzmodell für Ihre Organisation am effizientesten ist, kann mit unserer kompetenten Beratung erörtert werden – vereinbaren Sie dazu einfach einen kostenlosen und unverbindlichen Termin.
P wie: (Microsoft) Power Virtual Agents
Einführung
Kundenservice. Was kommt bei diesem Wort zuerst in Ihre Gedanken? Lange Warteschleifen und Telefonate? Genervte Mitarbeiter, genervte Kunden, unzureichende Ergebnisse? Okay, vielleicht nicht ganz so schlimm. Inzwischen gibt es ja auch die Möglichkeit, ihre Organisation über Chat zu erreichen. Aber eben nur zwischen 9 Uhr und 12 Uhr. Die Mitarbeiter müssen schließlich auch mal in die Pause. Und nur auf Anfragen zu warten, das würde einfach zu viel potentielle Arbeitskraft und Geld kosten.
Naja, also doch zurück zum Telefon?
Nein. Natürlich nicht. Inzwischen gibt es Chat Bots. Intelligente Chat Bots. Chat Bots, die kaum vom Menschen unterschieden werden können und mit ihrer 24 Stunden Verfügbarkeit, ihrer Geschwindigkeit und Akkuratheit glänzen.
Und man hätte es kaum ahnen können, Microsoft macht wie immer kurzen Prozess und kommt mit einer Lösung auf den Markt die es in sich hat. Wir stellen vor: Microsoft Power Virtual Agents.
Nutzen
So weit so gut. Was PVA ist, ist jetzt klar. Doch welchen Nutzen birgt das einfach zu bedienende KI-Tool? Die Kurzform: es spart Ressourcen. Die einfache Bedienung, die auch von Nicht-Experten schnell und einfach angeeignet werden kann, schließt den Graben zwischen IT- und Domainexperten. Dadurch wird viel Zeit in der Entwicklung gespart- und somit auch Geld. Wartung und Bereitstellungszeiten werden verkürzt und somit kommen Anwender schneller zum Ziel.
Der Nutzen von PVA spiegelt sich neben den Bots selbst in der einfachen Handhabung wider. Das zeigt sich bereits bei der unkomplizierten und schnellen Integrierung eines Bots in Ihre Website, oder sogar bei internen Angelegenheiten in Ihr Microsoft Teams. Hier werden weder externe Tools noch jegliche andere komplexe Systeme herangezogen.
Zudem können nun Domainexperten ohne die Zusammenarbeit mit IT-Experten ihre eigenen Lösungen bauen und so den Graben zwischen fachlicher und technischer Expertise schließen.
Durch die Fähigkeit der Bots, sich bei so gut wie jeder Frage helfen zu wissen, entstehen natürlich klingende Konversationen mit vielschichtigen Konversationsverläufen. Die ist wie zuvor bereits beschrieben auf die von Microsoft vortrainierten Modelle zurückzuführen. „Trainiert“ werden die Bots, in dem sie ihnen einfach einige Wörter nennen, die im Zusammenhang mit ihrer Frage stehen et voilà, das Modell steht.
Lizenz- und Kostenmodelle
Der Kostenplan von PVA ist ziemlich simpel. Hierbei ist lediglich wichtig zu wissen, dass PVAs Kostenmodell über sogenannte Sitzungen läuft. Eine Sitzung kann quasi als beantwortete Anfrage eines Fragenstellers oder einer Fragestellerin gesehen werden. Grundsätzlich beginnt eine Sitzung, sobald ein Thema ausgelöst, sprich eine Konversation zielführend und themaorientiert startet, aber auch wieder terminiert wird. Terminiert wird eine Sitzung entweder durch das Beantworten der Frage durch den Bot, eine Zeitüberschreitung des Gesprächs von 60 Minuten oder dem Überschreiten von 100 Wortwechseln.
Und jetzt Tacheles: Stand November 2022 kostet PVA in seiner Grundform 168,70€ pro Monat. Inbegriffen sind hierbei 2000 Sitzungen. Weitere Sitzungen können über sogenannte „Sitzungs-Add-On(s)“ bereitgestellt werden. Der Kostenpunkt liegt bei 84,40€ pro Monat für weitere 1000 Sitzungen.
Fassen wir also nochmal zusammen. PVA ist ein kostengünstiges SaaS-Angebot von Microsoft, das schnell und intuitiv entwickelt, implementiert und gepflegt werden kann. PVA kann sich mit Kunden, Mitarbeitern oder sonstigen Akteuren zielführend unterhalten und in Kombination mit Microsoft Power Automate auch eigenständig handeln.
Q wie:
Q wie: Qlik Sense
Visualisierungen und Dashboards
Die einzigartige assoziative Technologie von Qlik ermöglicht branchenführende Analysen mit unübertroffener Leistung. Mit Qlik Sense können alle Benutzer Daten uneingeschränkt untersuchen, indem sie blitzschnelle Berechnungen durchführen, den jeweiligen Kontext berücksichtigen und beliebig skalieren. Dies ist ein einzigartiges Merkmal, das die Grenzen von abfragebasierten Analysen und Dashboards anderer Mitbewerber von Qlik weit hinter sich lässt.
Anwendungsfälle
- Self-Service Visualisierungen
- Interaktive Dashboards
- Such- un ddialogorientiert
- Alerting und Maßnahmen
- Reporting
- Maßgeschneidert und eingebettet
- Erweiterte Analysen
Leistungsfähige AI
Dank der integrierten AI-Technologie von Qlik Sense können Anwender Daten schneller und effizienter verstehen und nutzen, wodurch die kognitiven Verzerrungen vermieden werden, die menschliche Entscheidungen beeinflussen können. Mit Qlik Sense können Sie Ihre Datenkompetenz erweitern und die Auswertung und Untersuchung von Daten optimieren. Darüber hinaus bietet Qlik Sense umfangreiche Funktionen für Augmented Analytics:
- AI-basierte Analysen und Erkenntnisse
- Automatisiertes Daten-Scraping und -Aufbereitung
- Natürlichsprachliche Suche und Interaktion
- Machine Learning und Predictive Analytics
Aktive Analysen
Unternehmen müssen heutzutage schnell auf sich ändernde Informationen reagieren können, um im Wettbewerb zu bestehen. Herkömmliche Business Intelligence-Systeme, die nur statische Berichte und Dashboards bereitstellen, sind dazu oft nicht in der Lage. Qlik bietet eine Lösung, die eine Echtzeit-Datenpipeline mit handlungsorientierten Analysefunktionen kombiniert, um Active Intelligence zu schaffen. Damit erhalten Sie stets aktuelle Ergebnisse und können sofortige Maßnahmen ergreifen.
Das intelligente Alerting-System informiert Sie über Veränderungen in Ihren Daten, die Ihre Aufmerksamkeit erfordern. Durch leistungsfähige Funktionen zur Zusammenarbeit können Sie Ihre Erkenntnisse schnell und einfach mit anderen teilen und Entscheidungen gemeinsam treffen. Mit mobilen Anwendungen können Sie von überall aus auf Ihre Daten zugreifen und mit ihnen interagieren. Außerdem können automatisch angestoßene Aktionen Ihnen helfen, schneller auf Veränderungen in Ihren Daten zu reagieren und schneller Entscheidungen zu treffen.
Hybrid-Cloud-Plattform
Sichern Sie sich überzeugende Leistung und Flexibilität mit Qlik Sense auf Qlik Cloud®. Implementieren Sie eine komplette SaaS-Unternehmenslösung oder nutzen Sie die Bereitstellungsoptionen für Hybrid Clouds, um Analysen überall dort zu ermöglichen, wo sich Ihre Daten befinden.
Mit Qlik Sense auf Qlik Cloud® haben Sie die volle Kontrolle über Ihre Daten und Analysen. Unsere Plattform unterstützt jede Kombination von Public Cloud, Private Cloud und On-Premises-Standorten, um Ihnen maximale Flexibilität zu bieten. So können Sie Ihre Daten und Analysen jederzeit und überall dort nutzen, wo es für Ihr Unternehmen am besten passt. Und das alles mit der Leistung und Zuverlässigkeit, die Sie von Qlik gewohnt sind.
S wie:
S wie: Self-Service BI
Einführung
Damit Sie und Ihre Mitarbeiter auch selbstständig Analysen sowie Visualisierungen von Daten vornehmen können, helfen wir bei der Einführung der Software, bieten Schulungen in den eingeführten Business Intelligence Tools an und sind bei Support-Anfragen jederzeit für Sie da.
Inhalte:
- Schulung
- Softwareeinführung
- Wissenstransfer & Support
- BI-Community
T wie:
T wie: Tableau
Einführung
Die neuste Lösung von Tableau heißt Tableau Cloud und ersetzt Tableau Online. Es handelt sich um eine vollständig gehostete Cloud-basierte Plattform, die auf einer der weltweit führenden Analytics-Plattformen läuft und für Unternehmen geeignet ist. Mit Tableau Cloud können Sie Daten schnell, flexibel und benutzerfreundlich bearbeiten und analysieren sowie Entscheidungen an jedem beliebigen Ort schneller und zuverlässiger treffen. Die Plattform ist anpassungsfähig an die Unternehmensarchitektur und fördert die Zusammenarbeit.
Anwendungen von Tableau Cloud
Schnelle und intelligente Entscheidungen
Schaffen Sie eine sichere Grundlage für Ihre Entscheidungsfindung und nutzen Sie das volle Potenzial Ihrer Daten mit intelligenten Analysewerkzeugen wie Datenstorys, Frag die Daten und Erklär die Daten. Sie sparen Zeit und vereinfachen Analytics für alle, indem Sie automatisch erstellte und leicht verständliche Erzählungen – Datenstorys – zu Ihren Dashboards hinzufügen. Durch die Nutzung von Frag die Daten können Sie in natürlicher Sprache Antworten auf zentrale geschäftliche Fragen finden und mit Erklär die Daten das „Warum“ hinter KI-gestützten Erkenntnissen erkunden und vertiefen. Mit Tableau Blueprint können Sie Ihre Datenstrategie strukturieren und ein datengesteuertes Unternehmen aufbauen.
Einbindung von Datenerkenntnissen direkt in den Workflow
Wenden Sie Erkenntnisse direkt in Ihrem Workflow an, indem Sie Tableau für Slack nutzen. Diese digitale Analytics-Zentrale ermöglicht es Ihnen, Daten in jedes Gespräch einzubinden und überall datengesteuerte Erkenntnisse zu gewinnen. Mithilfe von eingebetteten Analytics können Daten und Erkenntnisse nahtlos in Ihre Produkte und Anwendungen integriert werden, um Benutzer und Kunden mit datengesteuerten Erkenntnissen zu unterstützen. Beschleuniger, Connectoren, Erweiterungen und mehr bieten Ihnen Einstiegsangebote in die Analyse.
Skalierung mit benutzerfreundlicher Analytics
Integrieren Sie Analytics nahtlos in Ihre Unternehmensarchitektur und treiben Sie die digitale Transformation voran. Durch die Nutzung von Tableau Cloud müssen Sie keine Server konfigurieren, keine Software-Upgrades verwalten und keine Hardwarekapazitäten skalieren. Dadurch sparen Sie Zeit und Geld. Fördern Sie Teamarbeit, indem Sie Daten ermitteln, teilen und erkunden und die Zusammenarbeit auf dieser Basis mit Ihrem Mobilgerät, Tablet oder Computer in Tableau Cloud fördern. Erstellen und skalieren Sie erfolgsentscheidende Analytics einfach und behalten Sie mit der bald verfügbaren erweiterten Verwaltung die Kontrolle über Tableau Cloud. Die erweiterte Verwaltung bietet unbegrenzte Skalierbarkeit, optimale Effizienz und einfach handhabbare Sicherheitsfunktionen.
Vertrauen durch Data Governance
Sorgen Sie für zentrale Governance, Transparenz und Kontrolle, um sicherzustellen, dass Ihre Daten nur für autorisierte Benutzer verfügbar sind. Mit automatischer Authentifizierung und einem Berechtigungsmanagement wird die Sicherheit Ihrer Daten in Tableau Cloud gewährleistet. Sie können Tableau Cloud einfach mit Single Sign-On (SSO) oder Ihrem Identitätsanbieter integrieren und die Nutzung in nur einer Umgebung überwachen, um die Compliance sicherzustellen. Tableau Cloud bietet eine moderne Infrastruktur, die branchenführende Sicherheits- und Zertifizierungsstandards wie SOCII und ISO erfüllt. Das in die Plattform integrierte Data Management ermöglicht eine einfache und reproduzierbare Skalierung von vertrauenswürdigen Daten.
DEIN ANSPRECHPARTNER
Wann lernen wir dich kennen?

Wir unterstützen bei der Einführung datenbasierter Lösungen und befähigen Sie, relevante Erkenntnisse aus Daten zu gewinnen. Kontaktieren Sie uns für ein kostenloses Erstgespräch!