OpenAI weiß, dass Sie sich Sorgen um sein neues KI-Modell machen, das Ihre Stimme kopieren kann

  • OpenAI gibt an, sich der Gefahren der Verwendung von KI-generierten Sprachtools bewusst zu sein.
  • Das KI-Unternehmen gab Details zu seinem „Voice Engine“-Tool bekannt, das noch nicht vollständig eingeführt ist.
  • Das Unternehmen listete seine Sicherheitsmaßnahmen auf – und wollte nicht bestätigen, ob das Modell überhaupt auf den Markt kommen wird.

OpenAI weiß, dass KI-generierte Sprachtools eine schwierige Angelegenheit sein können.

In einem Teilen von Blogbeiträgen Nach den Ergebnissen der frühen Testphase seines neuen Tools für synthetische Stimmen äußerte das Unternehmen für künstliche Intelligenz Bedenken hinsichtlich des Einsatzes von KI zur Nachbildung menschlicher Stimmen, insbesondere im Wahljahr.

Das „Voice Engine“-Tool von OpenAI, das das Unternehmen nach eigenen Angaben Ende 2022 erstmals entwickelt hat, nutzt einen 15-sekündigen Audioclip der Stimme einer echten Person, um eine unheimlich realistische, menschlich klingende Nachbildung dieser Stimme zu erstellen.

Und Benutzer können diese Stimme dazu bringen, alles zu sagen – sogar in anderen Sprachen.

Das Tool ist noch nicht für die Öffentlichkeit verfügbar und OpenAI sagt, es überlege noch, „ob und wie diese Technologie in großem Maßstab eingesetzt werden soll“.

„Wir sind uns bewusst, dass die Erzeugung von Sprache, die den Stimmen der Menschen ähnelt, ernsthafte Risiken birgt, die im Wahljahr besonders groß sind“, schrieb OpenAI in seinem Blogbeitrag. „Wir arbeiten mit US-amerikanischen und internationalen Partnern aus den Bereichen Regierung, Medien, Unterhaltung, Bildung, Zivilgesellschaft und darüber hinaus zusammen, um sicherzustellen, dass wir ihr Feedback in unseren Aufbau einbeziehen.“

OpenAI nutzt das Tool derzeit, um die „Vorlese“-Funktionen von ChatGPT sowie die Text-to-Speech-API des Unternehmens zu betreiben.

Ende letzten Jahres begann OpenAI mit der externen Erweiterung des Tools und arbeitete mit einer sogenannten „kleinen Gruppe vertrauenswürdiger Partner“ zusammen, um Voice Engine für Dinge wie Lehrmaterialien für Kinder, Sprachübersetzung und medizinische Stimmwiederherstellung zu testen, so das Unternehmen sagte in seinem Beitrag.

OpenAI betonte, dass seine Partnerorganisationen bei der Verwendung von Voice Engine strenge Richtlinien einhalten müssen, z. B. die Zustimmung jedes Einzelnen, der sich ausgibt, und die Information der Zuhörer darüber, dass die Stimme KI-generiert ist.

„Wir gehen bei einer umfassenderen Veröffentlichung aufgrund der Möglichkeit des Missbrauchs synthetischer Stimmen vorsichtig und fundiert vor“, schrieb das Unternehmen. „Wir hoffen, einen Dialog über den verantwortungsvollen Einsatz synthetischer Stimmen zu beginnen und darüber, wie sich die Gesellschaft an diese neuen Fähigkeiten anpassen kann.“

Obwohl das Unternehmen sagte, es sei noch nicht sicher, ob es das Tool jemals der Öffentlichkeit zugänglich machen werde, forderte es politische Entscheidungsträger und Entwickler auf, Maßnahmen zu ergreifen, um einen gefährlichen Missbrauch der von ihm entwickelten Technologie zu verhindern.

OpenAI schlug beispielsweise die Einrichtung einer „No-Go-Stimmenliste“ vor, um die nicht einvernehmliche Wiedergabe prominenter Stimmen wie Politiker oder Prominente zu verhindern.

Das Unternehmen empfahl den Banken außerdem, die sprachbasierte Sicherheitsauthentifizierung nicht mehr zu verwenden, und forderte Forscher auf, Techniken zu entwickeln, um zu verfolgen, ob eine Stimme echt oder gefälscht ist.

Lesen Sie den Originalartikel auf Business Insider

source site-18