Toxisches Verhalten ist auch 2022 noch ein großes Problem in den meisten Gaming-Communities, wie zuletzt erst der umfangreiche Transparency Report von Microsoft gezeigt hat.
Branchengiganten Ubisoft und Riot Games ist das natürlich auch bewusst, weshalb man nun eine gemeinsame Zusammenarbeit unter dem Namen „Zero Harm in Comms“, also „Kein Leid in Communities“, angekündigt hat. Zusammen wolle man toxisches Verhalten in Online-Communities untersuchen und eindämmen.
Riot Games: Project Zero Harm in Comms für ein besseres Online-Erlebnis
Die Grundidee hinter dem gemeinsamen Projekt ist der Aufbau einer Datenbank, die anonyme Daten sammelt, diese analysiert und dabei eine künstliche Intelligenz darauf trainiert, störendes und toxisches Verhalten zu erkennen, um dieses zu unterbinden.
Angestoßen wurde das Projekt von Wesley Kerr, Chef der Tech-Research-Abteilung bei Riot Games und Yves Jacquier, dem Executive Director von Ubisoft La Forge. Beide eint ein inniges Interesse an künstlicher Intelligenz und den Möglichkeiten, die diese in der Bekämpfung von toxischem Online-Verhalten mit sich bringt.
„Wir waren beide der Meinung, dass die Lösungen, die wir aktuell nutzen können, nicht ausreichen, um die Art von Sicherheit zu gewährleisten, die wir uns für unsere Spieler vorstellen“, so Jacquier. Um also neue Ansätze zu finden und Lösungen zu entwickeln, habe man sich zusammengetan, wie Kerr erläutert: „Wir haben wirklich festgestellt, dass das Problem zu groß für ein einzelnes Unternehmen ist.“
Riesige Datenmengen von Riot Games und Ubisoft als Lernmaterial
Wie es im Blogpost von Ubisoft heißt, will man die dafür nötigen Daten natürlich aus den hauseigenen Spielen ziehen: „Gesammelt aus den vielen Chatverläufen aus dem Spieleportfolio von Ubisoft und Riot, werden die Daten – als Textfolgen – von allen persönlichen Informationen gesäubert. Dann werden sie nach Verhalten kategorisiert: Ist das komplett neutral beispielsweise, oder ist es rassistisch oder sexistisch?“
Anschließend sollen die analysierten Daten für das Training der künstlichen Intelligenz genutzt werden, um in Zukunft in Echtzeit reagieren und handeln zu können: „Das wird dann genutzt, um automatisierte Systeme zu trainieren, schädliches Verhalten besser zu erkennen und zu analysieren.“
Wie Jacquier weiter ausführt, ist die große Menge an Daten der Schlüssel zum Erfolg, um Nuancen feststellen zu können: „Es gibt Wörter, die können sofort als schlecht erkannt werden. Oft ist es allerdings sehr viel schwieriger. Wenn man beispielsweise ‚Ich werde dich ausschalten‘ im Chat liest, was bedeutet das? […] Wenn man einen kompetitiven Shooter spielt, mag das kein Problem sein, aber in einem anderen Spiel ist auch der Kontext ein ganz anderer.“
WENN es denn automatisch funktionieren würde, wäre das schon nett, so ist das ja nicht. Grundsätzlich habe ich gar nix gegen Software, die dabei helfen kann schneller bessere Entscheidungen zu treffen. Aber bislang überzeugen solche Tools halt kein Stück. Oft genug, weil die Algorithmen nicht richtig trainiert werden, weil die "Trainer" aka Entwickler solcher Tools schlichtweg nicht mehr richtig verstehen, wie ihre Mustererkennungsalgorithmen überhaupt funktionieren. Man schüttet haufenweise Daten oben rein, weiß aber nicht genau, warum unten Ergebnis X herauskommt. Das ist AFAIK die aktuell größte Hürde in der AI-Forschung. Diesen Lernprozess so transparent zu machen, dass man versteht, warum und wie die Algorithmen Entscheidungen fällen. Damit sie in Zukunft eben nicht einfach irgendein Ergebnis produzieren, sondern ein im Kontext der Aufgabe sinnvolles Ergebnis, auf welches man sich auch Verlassen kann.
Ist ja schon schlimm genug, wenn z.B. in der Versicherungsbranche solche Software-Blackboxen inzwischen eingesetzt werden, ohne dass dort jemand vollständig versteht, warum Kunde A solche und Kunde B jene Konditionen bekommen soll. Da spuckt der Bildschirm halt ein Ergebnis aus. Wird schon stimmen. Nicht?
Also ich finde, dass gerade bei LoL es mittlerweile kaum noch beleidigt wird, weil eben sehr schnell gehandelt wird.
Man muss noch nichtmal wirklich ein beleidigendes Wort schreiben, sondern nur innerhalb von nur einem einzigen Match ganz oft betonen, dass jemand was falsch macht und wir wegen ihm verlieren, schon bekommt man ein Chat Bann.
Passiert dass dann noch zweimal, ist man seinen Account mit all dem Geld, was man investiert hat, für immer los.
Eine erste Chat Restriction hab ich selber erlebt und war ganz erstaund, für das was ich geschrieben hatte, schon ermahnt worden zu sein.