Facebook behauptet, seine KI sei schneller als sein Vorgänger, wenn es darum geht, schlechte Inhalte zu finden

Facebook hat Details zu seinem neuen Moderationssystem für künstliche Intelligenz (KI) preisgegeben und behauptet, dass es noch besser darin ist, schlechte Beiträge aufzudecken als die vorherige Iteration. Das soziale Netzwerk steht seit langem vor Herausforderungen bei der Überwachung von Inhalten auf seiner Plattform, eine Situation, die durch die Größe seiner Nutzerbasis und die schiere Menge der unterstützten Sprachen noch verschärft wird. Je mehr Leute Facebook beitreten, desto mehr muss es überwachen, was sie sagen und in welchen unterschiedlichen Sprachen sie es sagen.

Im Laufe der Jahre musste sich die Firma im Besitz von Meta mit allem auseinandersetzen, von Rachepornos und COVID-19-Fehlinformationen bis hin zu Wahleinmischung und Völkermord in Myanmar. Aber so wie jedes Problem anders ist, so oft sind auch die Fähigkeiten erforderlich, um zugehörige Inhalte zu identifizieren und zu entfernen. Dabei setzt das Unternehmen auf eine Armee menschlicher Moderatoren, deren Aufgabe es ist, Meldungen über potenziell anstößige Posts zu sichten. Dennoch ist es für ein Unternehmen von der Größe von Facebook schwierig, genügend Leute zu rekrutieren, um eine solche Aufgabe zu erledigen, und so verlässt es sich auf KI-Tools, die als Verteidigung an vorderster Front dienen. Diese Programme werden mit einer Fülle von Beispieldaten (Bilder, Videos, Text) trainiert, sodass die Maschine effektiv lernen kann, was schlechte Inhalte sind, damit sie dann entfernt werden können.

Verwandte: Drogen auf Instagram sind leicht zu finden, sogar für Jugendliche

Facebook hat ein neues KI-System namens Few-Shot Learner eingeführt, das laut eigenen Angaben effizienter ist, beunruhigendes Material aufzudecken. Wie Verdrahtet stellt fest, dass die in Menlo Park ansässige soziale Plattform behauptet, dass Few-Shot Learner mit einem kleineren Trainingssatz arbeiten kann, sodass er in nur sechs Wochen mit rechtsverletzenden Inhalten umgehen kann, verglichen mit dem vorherigen Zeitraum von sechs Monaten. Facebook sagt, dass es Anfang dieses Jahres zum ersten Mal Few-Shot Learner eingeführt hat und dass es bereits Beiträge verarbeiten kann, die andere ermutigen, keine COVID-19-Impfungen zu erhalten, eine Regel, die im September in Kraft trat.

Cornelia Carapcea, eine Facebook-KI-Produktmanagerin, sagt, dass Few-Shot Learner nicht nur durch die Möglichkeit, mit kleineren Trainingssätzen zu arbeiten, so nützlich ist, sondern auch, dass es die Benutzerbegriffe der Plattform besser interpretieren kann. Normalerweise müssen menschliche Moderatoren auf ein Handbuch verweisen, das Tausende von Regeln abdeckt und ständig optimiert wird, um immer mehr Randfälle abzudecken. Teilweise wegen dieser Komplexität hat Facebook ein Aufsichtsgremium eingeführt, um die durchgesetzten Regeln zu überwachen. Carapcea behauptet, dass Few-Shot Learner Verstöße besser erkennen kann, wenn nur allgemeine Eingabeaufforderungen verwendet werden.

Trotz aller Versprechen war die Fähigkeit von Facebook, Inhalte in nicht englischsprachigen Kulturen zu moderieren, jedoch oft ein zentraler Kritikpunkt. Im Frühherbst 2021 wurde ein ehemaliger Facebook Mitarbeiter haben Dokumente in Bezug auf interne Forschungen durchgesickert und seine globalen Aufsichtsschwächen gegenüber US-amerikanischen und britischen Gesetzgebern hervorgehoben. Jetzt versucht das soziale Netzwerk, diese Angriffe zu bekämpfen, indem es Few-Shot Learner in 100 Sprachen enthüllt. Das ist immer noch weit weniger als die Hunderte, die auf der Plattform verwendet werden, aber es ist ein Zeichen dafür, dass das Unternehmen in einer besseren Position ist, als es war. Wenn das Unternehmen das Tool weiter iterieren kann, könnte es seinen beschädigten Ruf verbessern.

Weiter: Facebook-Whistleblower sagt, Zuckerberg sollte als Meta-CEO zurücktreten

Quelle: Verdrahtet

source site