Meta arbeitet an KI, die Hunderte von Sprachen lernen und übersetzen kann

Meta baut einen KI-gestützten universellen Sprachübersetzer, der darauf abzielt, Sprache-zu-Sprache-Übersetzungen in Echtzeit für Hunderte von Sprachen bereitzustellen. Sprachübersetzung ist keine leichte Aufgabe, und selbst dedizierte Lösungen wie PocketTalk und Langogo Genesis haben ihre eigenen Grenzen in Bezug auf sprachlichen Umfang, Geschwindigkeit und Übersetzungsmedium.

Google Translate ist eines der am weitesten verbreiteten Übersetzungssysteme, aber wenn es um Sprachen geht, die sich stark vom Englischen unterscheiden, können sich die Übersetzungen als ein Potpourri kaum verständlicher Sätze herausstellen. Es funktioniert, aber es ist bei weitem nicht perfekt. Google hat letztes Jahr einige Wellen geschlagen, als es die Sprache-zu-Sprache-Übersetzung auf der Pixel 6-Serie von Telefonen eingeführt hat. Es war ein gewaltiger Sprung nach vorne in Bezug auf Genauigkeit und Intonation, aber es ist immer noch kein Echtzeit-Sprache-zu-Sprache-Übersetzungstool.

Verwandte: Was gibt es Neues bei Facebook Reels, wenn Metas TikTok-Rivale global wird

Meta hat angekündigt plant die Entwicklung eines KI-gestützten Speech-to-Speech-Übersetzungssystems, das Hunderte von Sprachen verarbeiten kann. Das Übersetzungsprojekt von Meta zielt darauf ab, auch Sprachen abzudecken, denen ein systematisches Schriftsystem fehlt und die nur in gesprochener Form existieren. Dies wird sich als enorm wertvoll erweisen, insbesondere für indigene Sprachen, die schnell verschwinden. Gemäß der UNESCO-Atlas der Sprachen in Gefahr, von den 6.700 Sprachen, die derzeit auf der ganzen Welt gesprochen werden, sind 40 Prozent von ihnen in Gefahr, für immer zu verschwinden. Andere Vereinte Nationen Bericht aus dem Jahr 2019 stellt fest, dass jeden Monat zwei indigene Sprachen dauerhaft verschwinden. Meta sagt, dass bestehende Übersetzungsmodelle auf Text als Vermittler angewiesen sind, was den gesamten Prozess weniger effizient und schwer skalierbar macht. Darüber hinaus ist es für Sprachen, die nur in mündlicher Form existieren, von geringem Nutzen.

Um die Hürde zu überwinden, wird sich Meta auf Speech-to-Speech-Übersetzungsmodelle konzentrieren, um auch Sprachen ohne standardisiertes Schriftsystem ins Boot zu holen. Meta hat eine Technik zur Erstellung von Datensätzen namens LASER und eine neue Lehrer-Schüler-Trainingsmethode entwickelt, die mehrere Sprachen gleichzeitig behandelt, indem sie auf der Grundlage sprachlicher Ähnlichkeiten in Gruppen angeordnet werden. Das System soll in der Lage sein, Sprache-zu-Text- und Sprache-zu-Sprache-Übersetzungen in Sprachen wie Englisch, Deutsch und Spanisch durchzuführen. Um den Umfang seines Trainingsmodells auf so viele Sprachen auszudehnen, behauptet Meta auch, das erste mehrsprachige Textübersetzungssystem entwickelt zu haben, das nicht den ganzen Fokus auf die englische Sprache legt. Die Idee ist, dass bei einem Sprache-zu-Sprache-Übersetzungssystem keine dritte Zwischensprache mehr in den Prozess involviert ist.

„Mit verbesserter Effizienz und einer einfacheren Architektur könnte Direct Speech-to-Speech Echtzeitübersetzungen in nahezu menschlicher Qualität für zukünftige Geräte wie AR-Brillen ermöglichen.“ behauptet das Unternehmen. Was die Leistungsbewertung und Zuverlässigkeit betrifft, sagt Meta, dass es diese mit mehrsprachigen Übersetzungsbewertungsdatensätzen namens FLORES-101 abdeckt, die 101 Sprachen abdecken. Meta ist sich jedoch auch Hürden wie Voreingenommenheit, Toxizität und kulturelle Empfindlichkeiten bewusst – Probleme, mit denen es sich seit einiger Zeit in den sozialen Medien auseinandersetzt. In Bezug auf die Implementierung ist Meta der Ansicht, dass sein Universal Speech Translator in eine Vielzahl von Geräten integriert werden kann, darunter Smartphones, Smartwatches und AR-Brillen. Berichten zufolge arbeitet Facebook an einer Smartwatch und einer AR-Brille, daher ist es nicht verwunderlich, warum Meta so große Anstrengungen unternimmt.

Weiter: So erstellen Sie einen Meta-Avatar auf Facebook und im Messenger

Quellen: Meta, Vereinte Nationen, UNESCO

source site-16