Die Glücksspielindustrie hat einen zu Recht verdienten Ruf, wenn es um hässliches Verhalten von Benutzern geht – von Hassgruppen bis hin zu Grooming und illegalen Waren. Mit dem Metaverse und dem Zustrom von nutzergenerierten Inhalten gibt es einen ganz neuen Weg für schädliche Inhalte und Menschen, die darauf abzielen, Schaden anzurichten.

Aber zusammen mit dieser neuen Phase des Spielens und der Technologie bietet sich die Gelegenheit, die Dinge anders und besser zu machen – insbesondere, wenn es um Vertrauen und Sicherheit für Minderjährige geht. Während des GamesBeat Summit Next kamen führende Persönlichkeiten aus den Bereichen Vertrauen, Sicherheit und Community zusammen, um darüber zu sprechen, wo die Verantwortung für ein sichereres Metaversum bei Erstellern und Plattformen, Entwicklern und Erziehungsberechtigten in einem vom Vertrauens- und Sicherheitslösungsunternehmen ActiveFence gesponserten Panel liegt.

Sicherheit muss ein dreibeiniger Hocker sein, sagte Tami Bhaumik, VP of Civility and Partnerships bei Roblox. Von einem Plattformstandpunkt wie Roblox, das Sicherheitstools bereitstellt, muss Verantwortung getragen werden. Und da Demokratisierung und UGC die Zukunft sind, haben sie auch ein begründetes Interesse daran, Schöpfern und Entwicklern die Möglichkeit zu geben, die kulturelle Nuance für die Erfahrungen zu schaffen, die sie entwickeln. Das dritte Bein dieses Hockers ist die staatliche Regulierung.

„Aber ich glaube auch, dass die Regulierung evidenzbasiert sein muss“, sagte sie. „Es muss auf Fakten und einer Zusammenarbeit mit der Industrie basieren, im Gegensatz zu vielen der sensationslüsternen Schlagzeilen, die Sie da draußen lesen und die viele dieser Regulierungsbehörden und Gesetzgeber dazu bringen, Gesetze zu schreiben, die weit entfernt sind und ganz offen gesagt ein Nachteil für alle sind.“

Diese Schlagzeilen und diese Legislative entspringen in der Regel den Fällen, in denen trotz Mäßigung etwas durch die Ritzen rutscht, was oft genug vorkommt, dass einige Hüter frustriert sind und sich nicht angehört fühlen. Es ist ein Balanceakt in den Schützengräben, sagte Chris Norris, Senior Director of Positive Play bei Electronic Arts.

„Wir wollen natürlich die Politik klarstellen. Wir wollen Verhaltenskodizes deutlich machen“, sagte er. „Gleichzeitig wollen wir auch die Gemeinschaft befähigen, sich selbst zu regulieren. Es muss auch starke Moderationsschichten geben. Gleichzeitig möchte ich sicherstellen, dass wir nicht zu sehr vorschreiben, was im Weltraum passiert, insbesondere in einer Welt, in der wir wollen, dass Menschen sich ausdrücken können.

Die Moderation riesiger Communities muss mit dem Verständnis einhergehen, dass die Größe des Publikums bedeutet, dass es zweifellos schlechte Schauspieler unter den Haufen gibt, sagte Tomer Poran, VP of Solution Strategy bei ActiveFence.

„Plattformen können nicht alle Bösewichte, alle schlechten Schauspieler, all die schlechten Aktivitäten stoppen“, sagte er. „In dieser Situation ist höchste Anstrengung gefragt. Die Sorgfaltspflicht. Plattformen setzen die richtigen Programme, die richtigen Teams, die richtigen Funktionen innerhalb ihrer Organisation und die richtigen Fähigkeiten ein, ob ausgelagert oder intern. Wenn sie diese haben, können wir als Öffentlichkeit, die Entwicklerebene, die Entwickler- und Erstellerebene, das wirklich von der Plattform erwarten.

Eines der Probleme war, dass zu viele Eltern und Lehrer nicht einmal wissen, dass es Kontobeschränkungen und elterliche Kontrollen gibt, und dass der Prozentsatz der Nutzung von elterlichen Kontrollen auf allen Plattformen sehr gering ist, sagte Bhaumik.

„Das ist ein Problem, weil die Technologieunternehmen an und für sich große Absichten haben“, sagte sie. „Sie haben einige der klügsten Ingenieure, die an Innovation und Technologie im Bereich Sicherheit arbeiten. Aber wenn sie nicht genutzt werden und es kein Grundbildungsniveau gibt, dann gibt es immer ein Problem.“

Aber was auch immer die Community ist, es liegt in der Verantwortung der Plattform, sie in Übereinstimmung mit den Präferenzen dieses Publikums zu verwalten. Im Allgemeinen fliegt es nicht sehr weit, in einem M-bewerteten Spiel ein G-bewertetes Verhalten zu erwarten, sagte Norris.

„Und zurück zu den Entwicklern, wie entwerfen Sie durchdacht für die Community, die Sie wollen, und wie zeigt sich das, ob es sich um Richtlinien und Verhaltensregeln handelt, ob es sich um Spielfunktionen oder Plattformfunktionen handelt?“ er sagte. „Wenn Sie darüber nachdenken, was dies den Menschen ermöglicht, was sind die Erschwinglichkeiten und was denken wir darüber, wie sich diese möglicherweise auf die Leitplanken auswirken könnten, die Sie als Funktion der Richtlinie und des Verhaltenskodex aufzustellen versuchen.“

Letztendlich sollte Sicherheit kein branchen- oder plattformübergreifender Wettbewerbsvorteil sein, fügte Norris hinzu – diese Dinge sollten auf dem Spiel stehen.

„Im Allgemeinen waren wir in der Videospielbranche eine Industrie des ‚Nicht‘. Hier sind die fünf Seiten mit Dingen, die wir nicht wollen“, sagte er. “Wir haben uns nicht artikuliert, was tun wir wollen du zu tun? Welche Art von Gemeinschaft wollen wir? Wie denken wir über all die Möglichkeiten, wie dieses Medium für viele Menschen sozial, verbindend und emotional sein kann?

Leave a Comment