Wir freuen uns, die Transform 2022 am 19. Juli und virtuell vom 20. bis 28. Juli wieder persönlich zu präsentieren. Nehmen Sie an aufschlussreichen Gesprächen und spannenden Networking-Möglichkeiten teil. Registrieren Sie sich heute!


Daten können das wertvollste Gut eines Unternehmens sein – sie können sogar wertvoller sein als die Unternehmen selbst. Wenn die Daten jedoch aufgrund von Lieferproblemen ungenau sind oder sich ständig verzögern, kann ein Unternehmen sie nicht richtig nutzen, um fundierte Entscheidungen zu treffen.

Ein solides Verständnis der Datenbestände eines Unternehmens zu haben, ist nicht einfach. Umgebungen verändern sich und werden immer komplexer. Die Herkunft eines Datensatzes zu verfolgen, seine Abhängigkeiten zu analysieren und die Dokumentation auf dem neuesten Stand zu halten, sind ressourcenintensive Aufgaben.

Hier kommen Datenoperationen (Dataops) ins Spiel. Dataops – nicht zu verwechseln mit seinem Cousin Devops – begann als eine Reihe von Best Practices für die Datenanalyse. Im Laufe der Zeit entwickelte es sich zu einer eigenständigen Praxis. Hier ist sein Versprechen: Dataops trägt dazu bei, den Datenlebenszyklus zu beschleunigen, von der Entwicklung datenzentrierter Anwendungen bis hin zur Bereitstellung genauer geschäftskritischer Informationen für Endbenutzer und Kunden.

Dataops entstand, weil es in den meisten Unternehmen Ineffizienzen im Datenbestand gab. Verschiedene IT-Silos kommunizierten nicht effektiv (wenn sie überhaupt kommunizierten). Die Tools, die für ein Team entwickelt wurden – das die Daten für eine bestimmte Aufgabe verwendete – verhinderten oft, dass ein anderes Team Sichtbarkeit erlangte. Die Integration von Datenquellen war willkürlich, manuell und oft problematisch. Das traurige Ergebnis: Die Qualität und der Wert der an die Endbenutzer gelieferten Informationen blieben hinter den Erwartungen zurück oder waren schlichtweg ungenau.

Obwohl dataops eine Lösung bietet, befürchten die Mitglieder der C-Suite möglicherweise, dass die Versprechungen hoch und der Wert gering sein könnten. Es kann wie ein Risiko erscheinen, bereits bestehende Prozesse zu stören. Überwiegen die Vorteile die Unannehmlichkeiten bei der Definition, Implementierung und Einführung neuer Prozesse? In meinen eigenen Organisationsdebatten, die ich zu dem Thema habe, zitiere und verweise ich oft Zehnerregel. Es kostet zehnmal so viel, einen Auftrag abzuschließen, wenn die Daten fehlerhaft sind, als wenn die Informationen gut sind. Mit diesem Argument ist Dataops von entscheidender Bedeutung und die Mühe wert.

Möglicherweise verwenden Sie Dataops bereits, wissen es aber nicht

Im Großen und Ganzen verbessert Dataops die Kommunikation zwischen Datenbeteiligten. Es befreit Unternehmen von seinen aufkeimenden Datensilos. Dataops ist nichts Neues. Viele agile Unternehmen praktizieren bereits Dataops-Konstrukte, aber sie verwenden den Begriff möglicherweise nicht oder sind sich dessen nicht bewusst.

Dataops können transformativ sein, aber wie bei jedem großartigen Framework sind einige Grundregeln erforderlich, um erfolgreich zu sein. Hier sind die drei wichtigsten Must-haves für effektive Dataops.

1. Verpflichten Sie sich zur Beobachtbarkeit im Dataops-Prozess

Die Beobachtbarkeit ist für den gesamten Dataops-Prozess von grundlegender Bedeutung. Es gibt Unternehmen einen Überblick über ihre kontinuierliche Integration und kontinuierliche Bereitstellung (CI/CD) Rohrleitungen. Ohne Beobachtbarkeit kann Ihr Unternehmen Continuous Delivery nicht sicher automatisieren oder einsetzen.

In einer qualifizierten Entwicklungsumgebung bieten Beobachtbarkeitssysteme diese ganzheitliche Ansicht – und diese Ansicht muss abteilungsübergreifend zugänglich und in diese CI/CD-Workflows integriert sein. Wenn Sie sich zur Beobachtbarkeit verpflichten, positionieren Sie sie links neben Ihrer Datenpipeline – Überwachung und Optimierung Ihrer Kommunikationssysteme, bevor Daten in die Produktion gelangen. Sie sollten mit diesem Prozess beginnen, wenn Sie Ihre Datenbank entwerfen, und Ihre Nichtproduktionssysteme zusammen mit den verschiedenen Verbrauchern dieser Daten beobachten. Dabei können Sie sehen, wie gut Apps mit Ihren Daten interagieren – bevor die Datenbank in den Produktivbetrieb wechseltan.

Überwachungstools können Ihnen helfen, besser informiert zu bleiben und mehr Diagnosen durchzuführen. Im Gegenzug verbessern sich Ihre Empfehlungen zur Fehlerbehebung und helfen, Fehler zu beheben, bevor sie zu Problemen werden. Überwachung gibt Datenprofis Kontext. Aber denken Sie daran, sich an den „Hippokratischen Eid“ der Überwachung zu halten: Erstens: Füge keinen Schaden zu.

Wenn Ihre Überwachung so viel Overhead verursacht, dass Ihre Leistung reduziert wird, haben Sie eine Grenze überschritten. Stellen Sie sicher, dass Ihr Overhead gering ist, insbesondere wenn Sie Beobachtbarkeit hinzufügen. Wenn die Datenüberwachung als Grundlage der Beobachtbarkeit betrachtet wird, können Datenprofis sicherstellen, dass der Betrieb wie erwartet abläuft.

2. Kartieren Sie Ihren Datensommer

Sie müssen Ihre Schemata und Ihre Daten kennen. Dies ist grundlegend für den Dataops-Prozess.

Dokumentieren Sie zunächst Ihren gesamten Datenbestand, um Änderungen und ihre Auswirkungen zu verstehen. Wenn sich Datenbankschemata ändern, müssen Sie deren Auswirkungen auf Anwendungen und andere Datenbanken abschätzen. Diese Wirkungsanalyse ist nur möglich, wenn Sie wissen, woher Ihre Daten kommen und wohin sie gehen.

Über Datenbankschema- und Codeänderungen hinaus müssen Sie den Datenschutz und die Compliance mit einem vollständigen Überblick über die Datenherkunft kontrollieren. Kennzeichnen Sie den Ort und die Art der Daten, insbesondere der personenbezogenen Daten (PII) – wissen Sie, wo sich all Ihre Daten befinden und wohin sie gehen. Wo werden sensible Informationen gespeichert? Über welche anderen Apps und Berichte fließen diese Daten? Wer kann über jedes dieser Systeme darauf zugreifen?

3. Automatisieren Sie die Datenprüfung

Die weit verbreitete Einführung von Devops hat zu einer gemeinsamen Kultur des Unit-Tests für Code und Anwendungen geführt. Oft übersehen wird das Testen der Daten selbst, ihrer Qualität und wie sie mit Code und Anwendungen funktionieren (oder nicht funktionieren). Effektives Testen von Daten erfordert Automatisierung. Es erfordert auch ständige Tests mit Ihren neuesten Daten. Neue Daten sind nicht erprobt und wahr, sie sind volatil.

Um sicherzustellen, dass Sie das stabilste verfügbare System haben, testen Sie mit den volatilsten Daten, die Sie haben. Brechen Sie die Dinge früh. Sonst schieben Sie ineffiziente Routinen und Prozesse in die Produktion und erleben eine böse Überraschung bei den Kosten.

Das Produkt, das Sie zum Testen dieser Daten verwenden – unabhängig davon, ob es sich um ein Drittanbieterprodukt handelt oder Sie Ihre Skripts selbst schreiben – muss solide sein und Teil Ihres automatisierten Test- und Build-Prozesses sein. Während die Daten die CI/CD-Pipeline durchlaufen, sollten Sie Qualitäts-, Zugriffs- und Leistungstests durchführen. Kurz gesagt, Sie möchten verstehen, was Sie haben, bevor Sie es verwenden.

Dataops ist entscheidend, um ein Datenunternehmen zu werden. Es ist das Erdgeschoss der Datentransformation. Mit diesen drei Must-Haves wissen Sie, was Sie bereits haben und was Sie brauchen, um das nächste Level zu erreichen.

Douglas McDowell ist General Manager der Datenbank bei SolarWinds.

DatenEntscheider

Willkommen in der VentureBeat-Community!

DataDecisionMakers ist der Ort, an dem Experten, einschließlich der technischen Mitarbeiter, die mit Daten arbeiten, datenbezogene Erkenntnisse und Innovationen austauschen können.

Wenn Sie über innovative Ideen und aktuelle Informationen, Best Practices und die Zukunft von Daten und Datentechnologie lesen möchten, besuchen Sie uns bei DataDecisionMakers.

Vielleicht denken Sie sogar darüber nach, einen eigenen Artikel beizusteuern!

Lesen Sie mehr von DataDecisionMakers

Leave a Comment