Treffen Sie vom 26. bis 28. Juli Führungskräfte auf der AI & Edge Week von Transform. Hören Sie von Top-Führungskräften, die über Themen rund um AL/ML-Technologie, Konversations-KI, IVA, NLP, Edge und mehr diskutieren. Sichern Sie sich jetzt Ihren kostenlosen Pass!


Verantwortliche künstliche Intelligenz (KI) muss in die DNA eines Unternehmens eingebettet werden.

„Warum ist Voreingenommenheit in der KI etwas, worüber wir alle heute nachdenken müssen? Das liegt daran, dass KI alles antreibt, was wir heute tun“, Miriam VogelPräsident und CEO von EqualAIsagte er einem Live-Stream-Publikum während des Transform 2022-Events dieser Woche.

Vogel diskutierte die Themen KI-Voreingenommenheit und verantwortungsbewusste KI ausführlich in einem Kamingespräch, das von Victoria Espinel von der Handelsgruppe geleitet wurde Die Softwareallianz.

Vogel verfügt über umfangreiche Erfahrung in Technologie und Politik, unter anderem im Weißen Haus, beim US-Justizministerium (DOJ) und bei der gemeinnützigen Organisation EqualAI, das sich der Reduzierung unbewusster Vorurteile bei der Entwicklung und Nutzung von KI widmet. Sie ist auch Vorsitzende des kürzlich gegründeten National AI Advisory Committee (NAIAC), das vom Kongress beauftragt wurde, den Präsidenten und das Weiße Haus in Fragen der KI zu beraten.

Wie sie feststellte, wird KI für unser tägliches Leben immer wichtiger – und verbessert es erheblich –, aber gleichzeitig müssen wir die vielen inhärenten Risiken von KI verstehen. Alle – Entwickler, Ersteller und Benutzer gleichermaßen – müssen KI zu „unserem Partner“ machen, der effizient, effektiv und vertrauenswürdig ist.

„Sie können mit Ihrer App kein Vertrauen aufbauen, wenn Sie nicht sicher sind, dass sie sicher für Sie ist, dass sie für Sie entwickelt wurde“, sagte Vogel.

Jetzt ist die Zeit

Wir müssen uns jetzt mit dem Thema verantwortungsbewusste KI befassen, sagte Vogel, da wir immer noch „die Verkehrsregeln“ aufstellen. Was KI ausmacht, bleibt eine Art „Grauzone“.

Und wenn es nicht angesprochen wird? Die Folgen könnten schlimm sein. Menschen erhalten aufgrund von KI-Voreingenommenheit möglicherweise nicht die richtigen Gesundheits- oder Beschäftigungsmöglichkeiten, und „Rechtsstreitigkeiten werden kommen, Regulierung wird kommen“, warnte Vogel.

Wenn das passiert, „können wir die KI-Systeme, auf die wir so angewiesen sind und die miteinander verflochten sind, nicht auspacken“, sagte sie. „Gerade jetzt, heute, ist es an der Zeit, dass wir sehr darauf achten, was wir bauen und einsetzen, um sicherzustellen, dass wir die Risiken bewerten und sicherstellen, dass wir diese Risiken reduzieren.“

Gute ‚KI-Hygiene‘

Unternehmen müssen sich jetzt mit verantwortungsbewusster KI befassen, indem sie starke Governance-Praktiken und -Richtlinien einführen und eine sichere, kooperative und sichtbare Kultur etablieren. Dies müsse „an die Hand genommen“ und achtsam und bewusst gehandhabt werden, sagte Vogel.

Beispielsweise können Unternehmen bei der Einstellung einfach damit beginnen, zu fragen, ob Plattformen auf Diskriminierung getestet wurden.

„Gerade diese grundlegende Frage ist so extrem mächtig“, sagte Vogel.

Das HR-Team eines Unternehmens muss von integrativer KI unterstützt werden, die die besten Kandidaten nicht von einer Anstellung oder Beförderung ausschließt.

Es gehe um „gute KI-Hygiene“, sagte Vogel, und das beginne bei der C-Suite.

„Warum die C-Suite? Denn am Ende des Tages, wenn Sie kein Buy-In auf den höchsten Ebenen haben, können Sie das Governance-Framework nicht einrichten, Sie können keine Investitionen in das Governance-Framework erhalten, und Sie können es nicht bekommen Buy-in, um sicherzustellen, dass Sie es auf die richtige Weise tun “, sagte Vogel.

Außerdem ist die Erkennung von Voreingenommenheit ein fortlaufender Prozess: Sobald ein Rahmen geschaffen wurde, muss ein langfristiger Prozess eingerichtet werden, um kontinuierlich zu bewerten, ob Voreingenommenheit Systeme behindert.

„Bias kann sich an jedem menschlichen Berührungspunkt einbetten“, von der Datenerfassung über Tests und Design bis hin zu Entwicklung und Bereitstellung, sagte Vogel.

Verantwortliche KI: Ein Problem auf menschlicher Ebene

Vogel wies darauf hin, dass das Gespräch über KI-Voreingenommenheit und KI-Verantwortung zunächst auf Programmierer beschränkt war – aber Vogel hält es für „unfair“.

„Wir können nicht erwarten, dass sie die Probleme der Menschheit alleine lösen“, sagte sie.

Das liegt in der Natur des Menschen: Menschen stellen sich oft nur so weit vor, wie es ihre Erfahrung oder Kreativität zulässt. Je mehr Stimmen also eingebracht werden können, desto besser ist es, Best Practices zu ermitteln und sicherzustellen, dass das uralte Problem der Voreingenommenheit nicht in die KI eindringt.

Dies ist bereits im Gange, und Regierungen auf der ganzen Welt schaffen regulatorische Rahmenbedingungen, sagte Vogel. Die EU schafft eine DSGVO-ähnliche Regelung für ZUM, zum Beispiel. Darüber hinaus haben in den USA die Equal Employment Opportunity Commission und das DOJ kürzlich ein „beispielloses“ Gemeinsame Verlautbarung zur Verringerung der Diskriminierung bei Behinderungen – etwas, das KI und ihre Algorithmen verschlimmern könnten, wenn sie nicht beobachtet werden. Das National Institute of Standards and Technology wurde ebenfalls vom Kongress beauftragt, eine Risikomanagement-Rahmen für KI.

„Von den USA können wir in Sachen KI-Regulierung viel erwarten“, sagte Vogel.

Dazu gehört auch der kürzlich gebildete Ausschuss, dem sie jetzt vorsitzt.

„Wir werden Einfluss nehmen“, sagte sie.

Verpassen Sie nicht die volles Gespräch vom Transform 2022-Event.

Die Mission von VentureBeat soll ein digitaler Marktplatz für technische Entscheidungsträger sein, um sich Wissen über transformative Unternehmenstechnologie anzueignen und Transaktionen durchzuführen. Erfahre mehr über die Mitgliedschaft.

Leave a Comment