Activision arbeitet mit Modulate zusammen, um einzugreifen

Blog

HeimHeim / Blog / Activision arbeitet mit Modulate zusammen, um einzugreifen

Jun 21, 2023

Activision arbeitet mit Modulate zusammen, um einzugreifen

AKTUALISIERT 12:40 EDT / 31. AUGUST 2023 von Kyt Dotson Activision Blizzard Inc. übernimmt durch eine Partnerschaft mit Modulate, dem Entwickler von, eine stärkere Rolle im Umgang mit Voice-Chat-Toxizität in seinen Spielen

AKTUALISIERT 12:40 EDT / 31. AUGUST 2023

von Kyt Dotson

Activision Blizzard Inc. übernimmt durch eine Partnerschaft mit Modulate, dem Entwickler maschinell lernender Sprachtechnologie, die die Sicherheit von Online-Chats bewerten kann, eine stärkere Rolle im Umgang mit Voice-Chat-Toxizität in seinen Spielen.

Die am Mittwoch angekündigte neue Technologie wird in ganz Nordamerika in den Ego-Shooter-Titeln „Call of Duty: Modern Warfare II“ und „Call of Duty: Warzone“ von Activision eingesetzt. „Call of Duty“ ist einer der beliebtesten Titel von Activision und „Modern Warfare II“ war die meistverkaufte Veröffentlichung des Unternehmens am ersten Wochenende. Bei seinem Start im November 2022 erwirtschaftete das Spiel in nur drei Tagen einen Umsatz von mehr als 800 Millionen US-Dollar und erreichte allein auf der Steam-Plattform von Valve Corp. eine Spitzenzahl von 169.000 gleichzeitigen Spielern.

Online-Gaming-Plattformen haben häufig mit dem sogenannten „toxischen Verhalten“ im Online-Game-Chat zu kämpfen, sowohl in Text- als auch in Sprachform, bei dem Spieler sich gegenseitig beschimpfen. Dies kann durch Cybermobbing, Hassrede, diskriminierende Sprache und Belästigung geschehen. Es kann besonders inmitten der hohen Intensität und des Adrenalins des Wettbewerbs entstehen.

Das neue Voice-Chat-Moderationssystem wird ToxMod verwenden, ein auf künstlicher Intelligenz basierendes System von Modulate, das toxische Verhaltensweisen in Echtzeit erkennen und bei deren Durchsetzung helfen kann. Die Technologie wird dem Antitoxizitätsteam von Activision helfen, das bereits Text- und Sprachchats verfolgt, indem es 14 verschiedene Sprachen für In-Game-Chats filtert.

Laut Modulate nutzt ToxMod fortschrittliches maschinelles Lernen, um Voice-Chat zu kennzeichnen, indem es die Nuancen der Konversation analysiert, sodass es den Unterschied zwischen „f-yeah!“ erkennen kann. und „f-du!“ sowie die Emotionen des Benutzers durch Betrachtung des Gesprächskontexts und der Reaktionen anderer Spieler.

Das Unternehmen hilft nicht nur dabei, toxische Sprache und Mobbing zu erkennen, sondern hat kürzlich auch „Risikokategorien“ hinzugefügt, die es dem maschinellen Lernalgorithmus ermöglichen, Verhaltenstrends im Laufe der Zeit zu erkennen, die auf ein erhebliches Risiko gewalttätiger Radikalisierung oder Kinderpflege hinweisen.

Die neuen Risikokategorien nehmen größere Zeitskalen in Anspruch als die Echtzeitmoderation, die einfache Äußerungen verwendet und versucht, Absichtsmuster zu verwenden, um Verhaltensweisen zu kennzeichnen. Auf diese Weise erhalten Moderatoren einen ganzheitlichen Überblick über das Spielerverhalten auf einer Zeitleiste, um zu sehen, ob es in ihrer Community möglicherweise etwas gibt, mit dem sie sich befassen müssen.

„In Spielen gibt es keinen Platz für störendes Verhalten oder Belästigung“, sagte Michael Vance, Chief Technology Officer von Activision. „Insbesondere die Bewältigung störender Voice-Chats ist seit langem eine außergewöhnliche Herausforderung im Gaming-Bereich. Dies ist ein entscheidender Schritt vorwärts zur Schaffung und Aufrechterhaltung eines unterhaltsamen, fairen und einladenden Erlebnisses für alle Spieler.“

Spieleentwickler wie Riot Games Inc., der Herausgeber des hart umkämpften E-Sport-Spiels „League of Legends“, und andere sind seit langem mit Toxizität in ihren Spielen konfrontiert und haben Mühe, das Verhalten im Chat einzudämmen. Um diese Verhaltensweisen zu bekämpfen, haben Riot und Ubisoft Entertainment SA, ein französischer Videospiel-Publisher mit einer großen Anzahl von Spielen, eine Partnerschaft geschlossen, um eine Datenbank für KI-gestützte Moderation aufzubauen, die beim Umgang mit toxischer Sprache und Verhalten hilft.

„Dies ist ein großer Schritt vorwärts bei der Unterstützung einer Spielergemeinschaft von der Größe und dem Umfang von ‚Call of Duty‘ und unterstreicht Activisions anhaltendes Engagement, bei diesen Bemühungen eine Führungsrolle zu übernehmen“, sagte Modulate-Geschäftsführer Mike Pappas.

Activision prahlte damit, dass das bestehende Moderationsteam von „Call of Duty“ seit der Veröffentlichung von „Modern Warfare II“ Sprach- oder Text-Chats für mehr als eine Million Konten verboten hat, die ihre aktuelle Technologie nutzen. Aus eigenen Untersuchungen des Unternehmens geht hervor, dass bei Kombination von Filterung und Meldung 20 % der toxischen Spieler nach Erhalt einer ersten Verwarnung nicht erneut straffällig werden. Diejenigen, die dies tun, müssen weitere Strafen erleiden, wie z. B. Einschränkungen beim Text- und Voice-Chat oder den vorübergehenden Verlust von Kontoprivilegien.

Wie bei vielen anderen KI-basierten Moderationssystemen besteht immer die Gefahr falsch positiver Ergebnisse. Daher ergreift ToxMod keine eigenen Durchsetzungsmaßnahmen. Es selektiert und analysiert Sprachchats und sendet sie an das Moderationsteam. Es wird mit bestehenden Tools wie Filtern und Spielerberichten zusammenarbeiten, um dem Moderationsteam eine bessere Möglichkeit zu geben, zu verstehen, was passiert, und die Teams haben weiterhin das letzte Wort.

Das System wird derzeit für Titel in Nordamerika eingeführt, eine weltweite Veröffentlichung ist jedoch parallel zur Veröffentlichung von „Call of Duty: Modern Warfare III“ am 10. November geplant. Es unterstützt derzeit die englische Sprache, weitere Sprachen werden jedoch folgen einem späteren Zeitpunkt.

DANKE

Meta veröffentlicht FACET-Datensatz zur Bewertung der KI-Fairness

Cloud-Sicherheit neu definieren: Einblicke in die Modernisierung des Google-Ansatzes

Phishing als Dienstleistung stellt weiterhin ein Problem für Geschäftsanwender dar

Context.ai sammelt 3,5 Millionen US-Dollar, um Unternehmen bei der Entwicklung besserer Produkte auf Basis von LLMs zu unterstützen

Microsoft entbündelt Teams von Office in Europa im Zuge einer kartellrechtlichen Untersuchung

KI-Maßnahmen von Google Cloud wecken Interesse daran, was AWS als nächstes liefern wird

Meta veröffentlicht FACET-Datensatz zur Bewertung der KI-Fairness

KI – VON MARIA DEUTSCHER. VOR 1 STUNDE

Cloud-Sicherheit neu definieren: Einblicke in die Modernisierung des Google-Ansatzes

KI – VON CHAD WILSON. VOR 1 STUNDE

Phishing als Dienstleistung stellt weiterhin ein Problem für Geschäftsanwender dar

SICHERHEIT – VON DAVID STROM. VOR 2 STUNDEN

Context.ai sammelt 3,5 Millionen US-Dollar, um Unternehmen bei der Entwicklung besserer Produkte auf Basis von LLMs zu unterstützen

KI – VON KYT DOTSON. VOR 2 STUNDEN

Microsoft entbündelt Teams von Office in Europa im Zuge einer kartellrechtlichen Untersuchung

POLITIK – VON MARIA DEUTSCHER. VOR 3 STUNDEN

KI-Maßnahmen von Google Cloud wecken Interesse daran, was AWS als nächstes liefern wird

CLOUD – VON MARK ALBERTSON. VOR 4 STUNDEN

„TheCUBE ist ein wichtiger Partner der Branche. Ihr seid wirklich ein Teil unserer Veranstaltungen und wir wissen es wirklich zu schätzen, dass ihr kommt, und ich weiß, dass die Leute auch die von euch erstellten Inhalte schätzen“ – Andy JassyDANKE