Acht Trends der Datenanalyse im Jahr 2022
Veröffentlicht am
Der Datenanalysemarkt boomt. Laut IDC-Analysten werden Unternehmen im Jahr 2021 schätzungsweise 215 Milliarden US-Dollar für Big-Data- und Business-Analytics-Lösungen ausgeben, was einem Anstieg von 10 % gegenüber 2020 entspricht. Auch die Nachfrage nach Fachkräften für die Datenanalyse explodiert. Forscher des U.S. Bureau of Labor Statistics prognostizieren ein starkes Wachstum (31 %) im Bereich der Datenwissenschaften bis 2030. Es wird prognostiziert, dass fast alle Unternehmen (90 %) in diesem Jahr Informationen als kritischen Unternehmenswert und Analytik als wesentliche Kompetenz" betrachten werden.
Was also treibt dieses Wachstum an? Auf der Grundlage meiner Branchenerfahrung glaube ich, dass dies die acht wichtigsten Trends sind, die den Datenanalysemarkt im Jahr 2022 und darüber hinaus bestimmen werden.
1. Künstliche Intelligenz
Künstliche Intelligenz (KI), Automatisierung und maschinelles Lernen verändern das Spiel für Unternehmen überall. KI macht vor allem im Bereich der Datenanalyse rasante Fortschritte, wo sie nicht nur die menschlichen Fähigkeiten ergänzt, sondern auch zu einer besseren Wertschöpfung beiträgt. Die Pandemie und die Telearbeit haben die Möglichkeiten, Daten zu verfolgen und zu messen, erheblich erweitert und eine neue datengesteuerte Kultur in Unternehmen hervorgebracht. Diese Datenkultur treibt Investitionen in KI-basierte Analysen voran.
KI hat ein breites Anwendungsspektrum zur Steigerung des Geschäftswerts. Einige Beispiele sind die Steigerung des Umsatzes durch Nachfrageprognosen und die Sicherstellung einer angemessenen Lagerhaltung, die Verbesserung der Kundenzufriedenheit durch kürzere Lieferzeiten und die Steigerung der betrieblichen Effizienz durch die Automatisierung von Prozessen, für die sonst ein Mensch erforderlich wäre.
2. Zusammensetzbare Datenanalyse
Composable Data Analytics ist ein Prozess, bei dem Unternehmen Analysefunktionen aus verschiedenen Datenquellen im gesamten Unternehmen kombinieren und nutzen, um eine effektivere und intelligentere Entscheidungsfindung zu ermöglichen. Solche Tools bieten mehr Flexibilität als herkömmliche Ansätze und verfügen über wiederverwendbare, austauschbare Module, die überall eingesetzt werden können, auch in Containern.
Mit Composable Analytics können Unternehmen die Kosten für Rechenzentren senken, selbst wenn sie in die Cloud migriert sind. Die Analysten von Gartner sagen voraus, dass bis 2023 60 % der Unternehmen Geschäftsanwendungen erstellen werden, die Komponenten aus drei oder mehr Analyselösungen enthalten.
3. Data Fabric als neuer Industriestandard
Einem Forrester-Analysten zufolge bleiben 60 bis 73 % der Unternehmensdaten für Analysen ungenutzt. Data Fabric ist ein neuer Ansatz, um das alte Problem der Nutzung disparater Daten für Analysen zu lösen. Wenn die IT-Abteilung eine einheitliche Datenarchitektur bereitstellen kann, die als integrierte Ebene zur Verbindung von Datenendpunkten und -prozessen dient, können geschäftskritische Daten in allen Umgebungen eines Unternehmens, einschließlich hybrider und Multi-Cloud-Umgebungen, besser auffindbar, durchgängig und wiederverwendbar gemacht werden.
Und es geht nicht nur darum, mehr Datenquellen für Analysen zu nutzen. Der eigentliche Wert der Data-Fabric-Architektur liegt in der standardisierten Datenverwaltung und der Erleichterung des Datenzugriffs für Benutzer in verschiedenen Umgebungen.
4. AnalyticsOps
Im Jahr 2018 wurde DataOps in den Gartner Hype Cycle für Datenmanagement aufgenommen. DataOps kann die Zusammenarbeit, die Automatisierung, die Testbarkeit und die Kuratierung von Datenprozessen verbessern, insbesondere die Überführung dieser Prozesse in die Produktion. Seitdem hat das Interesse zugenommen, und Anbieter, die sich auf DataOps spezialisiert haben, konnten hohe Bewertungen verzeichnen. Da Machine Learning Operations (MLOps) dem Ops-Gedanken zusätzliche Glaubwürdigkeit verleiht, erwarte ich für 2022 einen Trend zum Aufbau einer übergreifenden Praxis, die ich "AnalyticsOps" nenne und die die Bereitstellung von Composable Analytics und die Verwaltung der Datenstruktur erleichtern kann.
5. Eine Verlagerung von Big Data zu Small and Wide Data
Das Aufkommen von KI, Data Fabric und Composable Analytics-Lösungen ermöglicht es Unternehmen, eine Kombination aus kleinen und großen - sowie strukturierten und unstrukturierten - Daten zu untersuchen und dabei Techniken anzuwenden, die in kleinen oder sogar Mikro-Datentabellen nach nützlichen Erkenntnissen suchen. Während eine herkömmliche Datenquelle beispielsweise eine Spalte für die Farbe eines Elements bereitstellt, können KI-freundliche Daten viele Spalten (oft als Merkmale bezeichnet) enthalten, die die Frage "Ist es rot? Ist es blau? Ist es grün?" und so weiter. Bei so vielen weiteren potenziellen Spalten/Merkmalen müssen diese umfangreichen Datenstrukturen von der Datenbank-Engine besonders berücksichtigt werden.
Der Zugriff auf große, kleine und umfangreiche Quellen ist eine Schlüsselfunktion, die Unternehmen in den kommenden Jahren wahrscheinlich weiter nutzen werden. Die Analysten von Gartner prognostizieren jedoch, dass bis 2025 70% der Unternehmen von Big Data auf Small and Wide Data (oder Daten, die aus einer Vielzahl von Quellen stammen) umsteigen werden, um so mehr Kontext für Analysen und intelligente Entscheidungen zu ermöglichen.
6. Demokratisierung der Daten
Vorbei sind die Zeiten, in denen die Datenanalyse als nachträglicher Gedanke oder Nebenaktivität betrachtet wurde. Unternehmen betrachten die Datenanalyse heute als wichtigen Faktor für eine intelligente Entscheidungsfindung und als zentrales Element zu Beginn eines jeden neuen Projekts.
Unternehmen möchten vielleicht allen Mitarbeitern Analytik zur Verfügung stellen - nicht nur Geschäftsanalysten. Dabei sind jedoch die zusätzlichen Arbeitslasten und die erforderliche Gleichzeitigkeit zu berücksichtigen. Die Analysten von Gartner prognostizieren, dass bis 2025 80% der Datenanalyse-Initiativen, die sich auf Geschäftsergebnisse konzentrieren, als eine wesentliche Geschäftsfähigkeit angesehen werden.
7. Analytik überall
Die Verbraucher der Zukunft werden von personalisierten und dynamischen Einblicken profitieren, die ihnen helfen, den größten Nutzen aus ihren Daten zu ziehen oder ihre Ziele schneller zu erreichen. Unternehmen, die diesen Trend vorhersehen, könnten einen erheblichen Wettbewerbsvorteil gegenüber anderen Unternehmen haben, die ihren Kunden solche Funktionen nicht anbieten. Durch eine Kombination aus KI/ML, Automatisierung und Business Intelligence können Kunden von personalisierten, analytisch gestützten Dienstleistungen profitieren.
8. Analytik im Edge Computing
Der Markt für Edge Computing wächst jedes Jahr mit einer atemberaubenden CAGR von 19 % und wird voraussichtlich von 36,5 Mrd. USD im Jahr 2021 auf 87,3 Mrd. USD im Jahr 2026 anwachsen. Mit der Verlagerung der Rechenleistung an den Rand der Wertschöpfungskette werden die unterstützenden Technologien (einschließlich der Datenanalyse) wahrscheinlich zunehmend am Rand der Wertschöpfungskette in unmittelbarer Nähe zu den physischen Anlagen angesiedelt.
Diese Verlagerung ermöglicht Geschwindigkeit, Agilität und größere Flexibilität, unterstützt Echtzeit-Analysen und ermöglicht autonomes Verhalten für Geräte des Internets der Dinge (IoT). Die Analysten von Gartner gehen davon aus, dass bis 2023 50 % der Verantwortung der Verantwortlichen für die Datenanalyse auf Daten entfallen wird, die in Edge-Umgebungen erstellt, verwaltet und analysiert werden.