Haben Sie eine Sitzung von MetaBeat 2022 verpasst? Besuchen Sie die On-Demand-Bibliothek für alle unsere vorgestellten Sitzungen hier.


Willkommen beim KI-Beat – meiner neuen Kolumne, die sich mit einigen Neuigkeiten der Woche über künstliche Intelligenz (KI) befasst und versucht, sie in einen Kontext zu stellen.

Als ich gestern den Gartner-Analysten Sid Nag fragte, warum die KI-bezogenen Cloud-News dieser Woche bei Google Cloud Next und Microsoft Ignite wie ein „Tsunami“ von Produktankündigungen erschienen, kicherte er.

Während keiner von uns seine Kameras für das Interview eingeschaltet hatte, konnte ich fühlen, wie Nag, der sich auf Cloud-Dienste und -Technologien konzentriert, weise nickte. „Ich glaube, ich weiß, warum das so ist“, sagte er.

Ich brauchte auf jeden Fall eine fachkundige Anleitung. Immerhin bin ich jetzt seit sechs Monaten auf dem KI-Beat bei VentureBeat, aber ich muss mich noch vollständig auf die saisonalen PR-Routinen von Big Tech einstellen – tatsächlich war das Sperrfeuer dieser Woche von der Art, die mich immer daran erinnert dieses Comics aus Die Haferflocken.

Vorfall

Low-Code-/No-Code-Gipfel

Schließen Sie sich am 9. November virtuell den führenden Führungskräften von heute beim Low-Code / No-Code Summit an. Melden Sie sich noch heute für Ihren kostenlosen Pass an.

Hier registrieren

Bei Google Cloud Next gab es Ankündigungen, die von seinem neuen Vertex AI Vision-Dienst, einer Computer-Vision-as-a-Service-Funktion, bis hin zu einem neuen AI Agents-Dienst und dem Open-Source-OpenXLA-Projekt reichten. Auf der Next wurden auch zusätzliche inkrementelle KI-Verbesserungen angekündigt, darunter die Unterstützung für das Nvidia Merlin-Recommender-System-Framework, AlphaFold-Batch-Inferenz und TabNet Unterstützung.

Als nächstes kam eine Schiffsladung von Azure-KI-Neuigkeiten aus Microsoft Ignite rund um die Produktivität, darunter vorgefertigte KI-Modelle, die in Form Recognizer verfügbar sind, erweiterte Zusammenfassung und Sprachunterstützung in Azure Cognitive Services, neue Funktionen in Speech-to-Text und Text-to-Speech, und das Debüt von DALL-E 2 als Teil des OpenAI-Dienstes von Azure, nur auf Einladung.

Mit KI die Cloud zu einer intelligenten Plattform machen

Die Big-Tech-Cloud-Anbieter, erklärte Nag – Google, Microsoft und AWS sind die ersten drei, IBM und Oracle runden die ersten fünf ab – haben die Ära der standardisierten Infrastrukturfunktionen wie Rechenspeicher und Netzwerke mit einem neuen Ziel hinter sich gelassen die gesamte Infrastruktur intelligenter und berechenbarer zu machen. Der neue Trend, sagte er, sei die Anwendung von KI auf diese Infrastrukturanforderungen.

„Ich denke, die Verwendung von KI durch Fußgänger ist allgegenwärtiger geworden, was ich in den letzten drei oder vier Jahren mit den Hyperscalern vorangetrieben habe“, sagte er.

Big Tech, erklärte er, möchte KI effektiv auf und ab des Cloud-Stacks einsetzen, um die Cloud zu einer intelligenten Plattform zu machen, sowie eine Ebene anwenden, die KI demokratisiert und sie den Geschäftsanwendern zur Verfügung stellt.

Viele Zutaten, aber kein klares Rezept

Das Problem bei so vielen Cloud-Ankündigungen über KI-bezogene Fähigkeiten ist jedoch, dass Big Tech nicht richtig kommuniziert, wie diese Fähigkeiten intelligent kombiniert werden können, betonte Nag.

„Wenn ich Hühnchen-Parmesan kochen möchte“, erklärte er, „welche Zutaten brauche ich und welchen Anteil dieser Zutaten habe ich? Was ist das Rezept, das ich verwenden sollte? Ich denke, dass Cloud-Anbieter eine Menge Dinge ankündigen, aber sie sollten das Spiel wirklich verbessern, wenn es darum geht, wie Sie diese Dinge intelligent nutzen können, um Ergebnisse zu erzielen.

Angst, in einer Multicloud-Ära ins Hintertreffen zu geraten

Die KI-Ankündigungen von Big Tech kommen so nah zusammen – Oracle ist nächste Woche auf der Cloud World an Deck und neckt KI-Neuigkeiten mit Nvidia – ist kein Zufall, sagte Nag.

„Niemand will zurückfallen“, sagte er. „In der Vergangenheit war Google im KI-Geschäft immer einen Schritt voraus; Es ist fast so, als würden Microsoft und andere die Hitze spüren.“

In einer Ära der Multicloud – in der ein Unternehmen eine Kombination aus Clouds verwendet, um verschiedene Anwendungen und Dienste zu verteilen – ist der Kampf um Kunden, die anspruchsvolle KI-Systeme einsetzen möchten, härter denn je geworden.

“[Multicloud] ist der größte Anwendungsfall, den wir heute sehen “, sagte Nag. In der Vergangenheit waren Workloads und Anwendungen, die in die Cloud verlagert wurden, die niedrig hängenden Früchte von Dingen wie E-Mail-Anwendungen, Office 365, CRM oder ERP. Jetzt verlagern Unternehmen jedoch hochleistungsfähige, komplexe Anwendungen in die Cloud.

„Sie bewegen die wichtigsten Kronjuwelen“, erklärte er. „Wenn ich zum Beispiel ein Hedgefonds in der Innenstadt von Manhattan bin und eine spezielle Anwendung für den algorithmischen Handel geschrieben habe, verlasse ich mich darauf, um mich gegenüber meiner Konkurrenz zu behaupten, denn die Ausführung von Trades in Nanosekunden ist wichtig.“

Ein Cloud-KI-Krieg um Best-in-Class

Sobald dies geschieht, suchen CIOs und IT-Führungskräfte nach erstklassigen Komponenten, um diese Workload zu bedienen – so dass ein Unternehmen zusätzlich zu einem primären Cloud-Anbieter einen sekundären oder tertiären Anbieter hinzuziehen kann.

„Es ist nicht so, dass der primäre Anbieter die anderen Komponenten nicht hat, aber sie können die Klassenbesten sein oder auch nicht“, sagte er und fügte hinzu, dass der sekundäre Anbieter, sobald er einen Fuß in die Tür des Unternehmens bekommt, versuchen könnte, seine zu erweitern Dienstleistungen.

Da Unternehmen weltweit in diesem Jahr voraussichtlich schätzungsweise 494,7 Milliarden US-Dollar für Cloud Computing ausgeben werden, laut Gartner, einem Anstieg von 20 % gegenüber 2021 und Ausgaben, die bis Ende 2023 voraussichtlich 600 Milliarden US-Dollar erreichen werden, steht viel potenzielles Geld auf dem Spiel. Und Nag erzählte das Wallstreet Journal [subscription required] im April, dass es die „Bereitschaft von CIOs ist, höherwertige Funktionen zu kaufen, die das Wachstum der Public Cloud-Ausgaben antreibt“.

Rohit Kulkarni, Analyst bei MKM, hat sich in a zu diesem Thema geäußert Forschungsnotiz letzte Woche [subscription required]. Er sagte, er sei „überzeugt, dass wir kurz davor stehen, Big-Tech-KI-Kriege zu beschleunigen“, obwohl unklar ist, wer in Bezug auf den kommerziellen Erfolg am Anfang die Nase vorn hat.

In einem sei er sich jedoch sicher: „Die kommerzielle Einführung von KI-Apps erfordert erhebliche Speicher- und Rechenressourcen, sodass Public-Cloud-Anbieter in den nächsten Jahren von einem starken Rückenwind bei der Nutzung profitieren könnten.“

Hmm… Ich frage mich, warum ich plötzlich Lust auf Hähnchen-Parmesan habe?

Die Mission von VentureBeat soll ein digitaler Marktplatz für technische Entscheidungsträger sein, um sich Wissen über transformative Unternehmenstechnologie anzueignen und Transaktionen durchzuführen. Entdecken Sie unsere Briefings.

Leave a Comment