Sehen Sie sich die On-Demand-Sessions vom Low-Code/No-Code Summit an, um zu erfahren, wie Sie erfolgreich innovativ sein und Effizienz erreichen können, indem Sie Citizen Developer weiterbilden und skalieren. Schau jetzt.


Präsentiert von Cohere


Um gesunde Online-Communities zu schaffen, brauchen Unternehmen bessere Strategien, um schädliche Posts auszusortieren. Bei dieser VB On-Demand-Veranstaltung geben KI/ML-Experten von Cohere und Google Cloud Einblicke in die neuen Tools, die die Moderation verändern.

Kostenlos anschauen, on demand!


Spieler erleben eine erstaunliche Menge an Online-Missbrauch. ZU Kürzlich durchgeführte Studie fanden heraus, dass fünf von sechs Erwachsenen (18–45) in Online-Multiplayer-Spielen oder über 80 Millionen Spieler belästigt wurden. Drei von fünf jungen Spielern (13–17) wurden belästigt, oder fast 14 Millionen Spieler. Identitätsbasierte Belästigungen nehmen zu, ebenso wie Fälle von weißer rassistischer Rhetorik.

Vorfall

Intelligent Security Summit

Lernen Sie am 8. Dezember die entscheidende Rolle von KI und ML in der Cybersicherheit und branchenspezifische Fallstudien kennen. Registrieren Sie sich noch heute für Ihren kostenlosen Pass.

Jetzt registrieren

Es geschieht in einer immer lauter werdenden Online-Welt, wo 2,5 Trillionen Bytes Daten wird jeden Tag produziert, was die Moderation von Inhalten, immer eine knifflige, auf Menschen basierende Angelegenheit, zu einer größeren Herausforderung als je zuvor macht.

„Konkurrierende Argumente deuten darauf hin, dass es sich nicht um eine Zunahme von Belästigungen handelt, sondern nur sichtbarer, weil Spiele und soziale Medien immer beliebter werden – aber was es wirklich bedeutet, ist, dass mehr Menschen als je zuvor Toxizität erfahren“, sagt Mike Lavia, Vertriebsleiter für Unternehmen bei Cohere . „Es fügt den Menschen viel Schaden zu und es verursacht viel Schaden durch die Art und Weise, wie es negative PR für Spiele und andere soziale Gemeinschaften erzeugt. Es fordert die Entwickler auch auf, Moderation und Monetarisierung in Einklang zu bringen, also versuchen die Entwickler jetzt, aufzuholen.“

Menschenbasierte Methoden reichen nicht aus

Die traditionelle Art, mit der Moderation von Inhalten umzugehen, bestand darin, den Inhalt von Menschen zu betrachten, zu validieren, ob er gegen Vertrauens- und Sicherheitsregeln verstößt, und ihn entweder als toxisch oder nicht toxisch zu kennzeichnen. Menschen werden immer noch überwiegend verwendet, nur weil Menschen das Gefühl haben, dass sie Inhalte, insbesondere für Bilder und Videos, wahrscheinlich am genauesten identifizieren können. Es dauert jedoch lange, Menschen in Vertrauens- und Sicherheitsrichtlinien zu schulen und schädliches Verhalten zu lokalisieren, sagt Lavia, weil es oft nicht schwarz oder weiß ist.

„Die Art und Weise, wie Menschen in sozialen Medien und Spielen kommunizieren, und die Art und Weise, wie Sprache verwendet wird, hat sich insbesondere in den letzten zwei oder drei Jahren schnell verändert. Ständige globale Umwälzungen wirken sich auf die Gespräche aus“, sagt Lavia. “Bis ein Mensch darauf trainiert ist, ein toxisches Muster zu verstehen, sind Sie möglicherweise veraltet, und die Dinge beginnen, durch die Ritzen zu rutschen.”

Die Verarbeitung natürlicher Sprache (Natural Language Processing, NLP) oder die Fähigkeit eines Computers, die menschliche Sprache zu verstehen, hat sich in den letzten Jahren sprunghaft weiterentwickelt und sich zu einer innovativen Methode entwickelt, um Toxizität in Text in Echtzeit zu erkennen. Leistungsstarke Modelle, die die menschliche Sprache verstehen, stehen Entwicklern endlich zur Verfügung und sind in Bezug auf Kosten, Ressourcen und Skalierbarkeit tatsächlich erschwinglich, um sie in bestehende Workflows und Tech-Stacks zu integrieren.

Wie sich Sprachmodelle in Echtzeit entwickeln

Ein Teil der Moderation besteht darin, sich über aktuelle Ereignisse auf dem Laufenden zu halten, denn die Außenwelt bleibt nicht draußen – sie wirkt sich ständig auf Online-Communities und -Gespräche aus. Basismodelle werden anhand von Terabytes an Daten trainiert, indem das Web gescrappt wird, und durch Feinabstimmung bleiben die Modelle für die Community, die Welt und das Unternehmen relevant. Ein Unternehmen bringt seine eigenen IP-Daten ein, um ein Modell fein abzustimmen, um sein spezifisches Geschäft oder seine spezifische Aufgabe zu verstehen.

„Hier können Sie ein Modell erweitern, um Ihr Geschäft zu verstehen und die Aufgabe auf einem sehr leistungsstarken Niveau auszuführen, und sie können ziemlich schnell aktualisiert werden“, sagt Lavia. „Und dann können Sie im Laufe der Zeit Schwellenwerte schaffen, um die Umschulung zu starten und eine neue auf den Markt zu bringen, damit Sie eine neue Absicht für Toxizität schaffen können.“

Sie können jede Konversation über Russland und die Ukraine markieren, die nicht unbedingt giftig ist, aber es wert ist, verfolgt zu werden. Wenn ein Benutzer in einer Sitzung sehr oft markiert wird, wird er markiert, überwacht und bei Bedarf gemeldet.

„Frühere Modelle konnten das nicht erkennen“, sagt er. „Indem Sie das Modell neu trainieren, um diese Art von Trainingsdaten aufzunehmen, können Sie mit der Überwachung und Identifizierung dieser Art von Inhalten beginnen. Mit KI und diesen Plattformen, wie sie Cohere entwickelt, ist es sehr einfach, Modelle neu zu trainieren und im Laufe der Zeit nach Bedarf kontinuierlich neu zu trainieren.“

Sie können Fehlinformationen, politische Gespräche, aktuelle Ereignisse kennzeichnen – jede Art von Thema, das nicht in Ihre Community passt und die Art von Spaltung verursacht, die Benutzer abschreckt.

„Was Sie bei Facebook und Twitter und einigen Gaming-Plattformen sehen, wo es eine erhebliche Abwanderung gibt, ist in erster Linie auf dieses toxische Umfeld zurückzuführen“, sagt er. „Es ist schwer, über Inklusivität zu sprechen, ohne über Toxizität zu sprechen, weil Toxizität die Inklusivität herabsetzt. Viele dieser Plattformen müssen herausfinden, was der goldene Mittelweg zwischen Monetarisierung und Moderation ihrer Plattformen ist, um sicherzustellen, dass es für alle sicher ist.“

Um mehr darüber zu erfahren, wie NLP-Modelle funktionieren und wie Entwickler sie nutzen können, wie man inklusive Communities kostengünstig aufbaut und skaliert und vieles mehr, sollten Sie diese On-Demand-Veranstaltung nicht verpassen!

Jetzt kostenlos auf Abruf ansehen!

Agenda

  • Passen Sie die Tools an die einzigartige Umgangssprache und die Richtlinien Ihrer Gemeinde an
  • Steigerung der Fähigkeit, die Nuancen und den Kontext der menschlichen Sprache zu verstehen
  • Verwendung von Sprach-KI, die lernt, wenn sich die Toxizität entwickelt
  • Signifikante Beschleunigung der Fähigkeit, Toxizität im großen Maßstab zu identifizieren

Moderatoren

  • David WynnLeiter Lösungsberatung, Google Cloud für Spiele
  • Mike LaviaEnterprise Sales Lead, Cohere
  • Dekan TakahashiHauptautor, GamesBeat (Moderator)

Die Mission von VentureBeat soll ein digitaler Marktplatz für technische Entscheidungsträger sein, um sich Wissen über transformative Unternehmenstechnologie anzueignen und Transaktionen durchzuführen. Entdecken Sie unsere Briefings.

Leave a Comment