Die KI-Tools, die unsere E-Mails schreiben, an unseren Meetings teilnehmen – und unser Leben verändern | Technologie

Was sind die Wendepunkte für einen KI-Boom?

Einige sind im Nachhinein klar.

Die Open-Source-Veröffentlichung von Stable Diffusion, immer noch einer der beeindruckendsten Bildgeneratoren auf dem Markt, war der Anfang vom Ende des Closed-Access-Modells, das die KI-Welt bis dahin dominiert hatte. Es kam, als der Bildgenerator Dall-E 2 noch auf eine Handvoll Leute beschränkt war, die von OpenAI überprüft worden waren, und bot einen alternativen Vorschlag an: leistungsstarke Bilderzeugung für jeden, der es wollte.

Das löste den nächsten Wendepunkt aus: die Einführung von ChatGPT, dem Ford Model T von AI. Es war offen zugänglich, einfach zu bedienen und leistungsstark, und sein Erscheinungsbild beflügelte die Vorstellungskraft und trieb die Technologie an den Höhepunkt des Hype-Zyklus.

Jetzt, nur wenige Monate später, sehen wir die Ankunft eines dritten, da sich KI-Systeme von einem eigenständigen Dienst zu etwas wandeln, das tief in die Tools und Apps integriert ist, die wir bereits zum Arbeiten und Leben verwenden.

Copilot (und Google)

Am vergangenen Dienstag, Google kündigte eine Reihe von KI-Tools an für seine Produktivitätssuite. Letztendlich können Benutzer das Large Language Model (LLM) des Unternehmens verwenden, um Text direkt in Gmail oder Google Docs zu generieren. Bilder, Audio und Video in Folien generieren; und stellen Sie komplexe Fragen in natürlicher Sprache, um Daten in Google Sheets zu manipulieren.

Das Unternehmen war ausweichend, wann diese Funktionen eingeführt würden, und sagte nur, dass es plane, sie „das ganze Jahr über fortlaufend an vertrauenswürdige Tester zu bringen, bevor sie öffentlich verfügbar gemacht werden“. Im wahren Google-Stil schien das Unternehmen mehr daran interessiert zu sein, seine unbestreitbaren Fähigkeiten zu demonstrieren, als Projekte zu versenden.

Aber lassen Sie niemals leichte Wirtschaftsspionage als Motiv außer Acht. Nur wenige Tage später wurde die Motivation für die Ankündigung der Funktionen deutlich, als Microsoft eine Einführungsveranstaltung für sein neues Copilot-Feature für Microsoft 365 (noch besser bekannt als MS Office, eine Marke, die Anfang dieses Jahres technisch in den Ruhestand ging) abhielt. . Aus der Rand:

Der Copilot, powered by GPT-4 von OpenAI, wird ähnlich wie ein Assistent (erinnern Sie sich an Clippy?) neben Microsoft 365-Apps sitzen und in der Seitenleiste als Chatbot erscheinen, mit dem Office-Benutzer ihn aufrufen können, um Text in Dokumenten zu generieren und PowerPoint-Präsentationen zu erstellen basierend auf Word-Dokumenten oder helfen sogar bei der Verwendung von Funktionen wie PivotTables in Excel.

Die Funktionen, die Microsoft am Donnerstag demonstrierte, sind äußerst beeindruckend. Sie können an einem Teams-Video-Chat teilnehmen und nicht nur um eine kurze Zusammenfassung dessen bitten, was bisher besprochen wurde, sondern sogar um ein Gefühl dafür, wie ein bestimmter Vorschlag von den anderen Teilnehmern des Anrufs aufgenommen wurde. Copilot kann nicht nur eine E-Mail verfassen, in der Personen zu einer Geburtstagsfeier eingeladen werden, sondern auch eine Aufforderung enthalten, mit Anekdoten zu antworten, die in einer Rede verwendet werden können, und dann automatisch die drei besten Geschichten aus diesen Antworten herauszuziehen, sie für Länge und Inhalt zu bearbeiten sie direkt in Ihre Notizen für den Vortrag selbst.

Microsoft sagt, dass Copilot nicht nur eine Version von GPT-4 ist, die ungeschickt an Office geklebt wurde. Das Unternehmen sagt, dass es eng mit den Rohdaten integriert ist, die hinter allem stehen, was Sie tun, und kann daher viel präziser sein.

Aber ich denke, das ist weniger wichtig als das einfache Vorhandensein eines KI-Systems, das in das Unternehmensmonster Office integriert ist. Sobald diese Funktionen eingeführt sind – und wenn Google den Schalter in seinen eigenen Web-Apps umlegt – werden Millionen von Menschen auf der ganzen Welt die Möglichkeit haben, eine leistungsstarke KI als Mitarbeiter zu gewinnen, ohne das Management davon überzeugen zu müssen, sich abzumelden ohne mit einem neuen Anbieter experimentieren und ihm vertrauen zu müssen und ohne dass sich jemand bewusst für einen „Pivot to AI“ entscheidet.

Adobe

Microsoft war nur der Anfang. Heute kündigte Adobe eine ähnliche Überarbeitung seiner eigenen Produkte an und brachte die KI-Bilderzeugung in seine Creative Cloud (am besten bekannt für Photoshop). Der neue Dienst mit dem Namen Firefly ist teilweise eine ähnliche Erweiterung des Angebots wie das von Microsoft und bringt KI-gestützte Technologie in die Prozesse und Arbeitsabläufe, an die die Kunden des Unternehmens bereits gewöhnt sind.

Das bedeutet, dass Benutzer Firefly hochfahren können, um ganz neue Bilder zu generieren, wie andere Bildgeneratoren wie Midjourney und Stable Diffusion, oder um Texteffekte für Schriftzüge zu erstellen. Das Unternehmen plant auch die Einführung von KI-gestützter Videobearbeitung („Lass diese Szene so aussehen, als wäre sie im Winter gefilmt worden“), 3D-Modellierung und digitaler Bildbearbeitung.

Adobe ist seit einiger Zeit einer der führenden kommerziellen Anbieter von KI-gestützten Tools. Die „inhaltsbewusste Füllung“ von Photoshop, die Proto-KI-Techniken verwendete, um den Hintergrund in bearbeiteten Bildern zu ersetzen, war ein Meilenstein in der Bildbearbeitung, als sie vor mehr als einem Jahrzehnt veröffentlicht wurde.

Aber das Angebot des Unternehmens ist dieses Mal mehr als nur der Einbau derselben KI-Generation in seine eigene Software. Ein Kernelement von Firefly ist, dass das Unternehmen eine „sichere“ Generierung anbietet: Sein generatives Modell ist, so heißt es, „auf Adobe Stock-Bildern, offen lizenzierten Inhalten und gemeinfreien Inhalten trainiert, bei denen das Urheberrecht abgelaufen ist“. Mit anderen Worten, wenn Sie mit von Firefly erstellten Bildern arbeiten, wissen Sie mit Sicherheit, dass es keine bösen Urheberrechtsklagen geben wird.

Das steht in krassem Gegensatz zu GPT-4, auf dem trainiert wird … nun, niemand weiß es genau. (In einem sehr aufschlussreichen Interview, der leitende Wissenschaftler von OpenAI „antwortete nicht auf die Frage, ob OpenAI definitiv sagen könne, dass seine Trainingsdaten kein raubkopiertes Material enthalten“. In sicherlich unabhängigen Informationen wird einer der größten LLM-Trainingsdatensätze, eine 800-GB-Textsammlung, genannt der Stapel, umfasst 196.640 Bücher, die von einer beliebten BitTorrent-Site namens Bibliotik heruntergeladen wurden. Der Urheberrechtshinweis für die Gastgeber des Stapels ist ein Video eines Chors von Frauen, die vorgeben zu masturbieren.)

vergangene Newsletter-Aktion überspringen

Die Pläne von Adobe, sich hier zu profilieren, gehen noch weiter. Im Jahr 2019 gründete das Unternehmen die Content Authenticity Initiative, die darauf abzielt, Fehlinformationen zu bekämpfen, indem sie einen Standard für Bilder und andere Medien entwickelt, um den Nachweis ihrer Herkunft einzubetten. Jetzt wird dies erweitert, indem Bilder mit einem „Nicht trainieren“-Tag versehen werden, mit dem Ersteller sicherstellen können, dass ihre Medien nicht in zukünftige Modelle integriert werden. Es ist nicht so stark, wie manche Kritiker es gerne hätten – ein Opt-out-System wird immer mehr Menschen überraschen als ein Opt-in-System –, aber es ist ein klarer Schub für Seriosität.

Einmal mehr googeln

Nur eine Stunde nach der Ankündigung von Adobe (und dem Grund, warum der heutige Newsletter etwas später als gewöhnlich erscheint) enthüllte Google das Projekt, das die Gans töten könnte, die die goldenen Eier legt – oder sie retten könnte.

Bard, Googles ChatGPT-ähnliche Konversations-KI, die Anfang dieses Jahres angekündigt wurde (wiederum nur wenige Tage bevor Microsoft seinen eigenen Bing Chat ankündigte und auslieferte), ist jetzt real, da das Unternehmen den Zugriff auf Benutzer über eine Warteliste einführt.

Verglichen mit der Konkurrenz gibt es nichts, was Bard sofort umwerfend kann. Aber ein paar Funktionen unterscheiden es, wie die Fähigkeit, automatisch mehrere Entwürfe einer längeren Antwort zu erstellen, um zu sehen, welche Sie bevorzugen, die Unterscheidung zwischen einfachen sachlichen Beiträgen, die mit Fußnoten zu Quellen kommen, und längeren generativen Beiträgen, die dies nicht tun, oder die Möglichkeit, aus Ihren Suchanfragen automatisch eine Google-Suche zu generieren.

Es wird jedoch einige Zeit dauern, herauszufinden, wo sich Bard auszeichnet, ein Phänomen, das in der Branche als „Kapazitätsüberhang“ bekannt ist. Wir finden normalerweise in den Wochen und Monaten nach ihrer Erstellung heraus, was KI-Modelle können, da einfache Abfragen aufwändigeren und geübten Befehlen weichen. Im Moment scheint es mit nur einer kurzen Live-Demo ungefähr auf Augenhöhe mit der Konkurrenz zu sein, obwohl es seine erste Antwort mit einem Fehler eröffnete: Als Antwort auf eine Anfrage nach einer Liste kinderfreundlicher Aktivitäten in Tokio, Es versäumte zu erwähnen, dass sich der von ihm vorgeschlagene Markt seit 2018 erheblich verlagert hatte.

Ebenso unklar und existenzieller ist, ob Bard mit der Google-Suche koexistieren kann. Das Unternehmen beantwortete keine Fragen dazu, wie viel eine Bard-Abfrage kostet, sondern sprach stattdessen über die Effizienzverbesserungen, die es erzielt hatte, aber eine ungefähre Zahl von 10 bis 100 Mal so viel wie eine einzelne Google-Suche ist eine sichere Sache. Bard zeigt den Nutzern jedoch (noch) keine Werbung, sodass nicht klar ist, ob es elegant auch nur einen Bruchteil der Einnahmen eines normalen Suchplatzes erzielen könnte.

Das Unternehmen besteht darauf, dass einige Anfragen besser durch eine Suche beantwortet werden (einschließlich meiner eigenen Frage zu Japan), und wenn Bard als teure Traffic-Akquisitionsstrategie dient, um eine potenzielle Flut von Benutzern zu Bing und ChatGPT abzuwehren, könnte das gut sein reicht kurzfristig. Aber es fühlt sich an wie eine Haltestrategie, bei der Google nach den Sternen greifen sollte.

Das breitere TechScape

Tick-tack für TikTok? Foto: Dado Ruvić/Reuters
  • Ist es an der Zeit, TikTok zu löschen? Warum die Zeit für das Eigentumsmodell der Social-Media-Plattformen knapp werden könnte, erörtere ich im Heute im Fokus-Podcast.

  • OpenAI hatte gestern eine Datenschutzverletzung, das einigen Benutzern den Chatverlauf von Fremden anzeigt. Nicht gut!

  • Und es eine Abhandlung veröffentlicht Schätzungen zufolge könnten 20 % der US-Arbeitsplätze im Wesentlichen – mehr als die Hälfte ihrer Arbeit – durch GPT automatisiert werden. Journalisten schnitten schlecht ab, da die Forscher des Unternehmens behaupteten, dass 100 % ihrer (meiner?) Arbeit von einem großen Sprachmodell erledigt werden könnte. Nun, das würden sie sagen, nicht wahr?

  • Gibt es einen Platz für den Staat in den Schlafzimmern der Nation? Eine Stadt in China glaubt das – um die Heiratsrate anzukurbeln, hat sie eine staatlich geförderte Matchmaking-App gestartet.

  • Auf der Tagesordnung für die kommende Woche: Der Kartellfall von Amazon nähert sich, auch wenn das Unternehmen 9.000 weitere Mitarbeiter entlässt (nachdem im Januar 18.000 entlassen wurden). Washington bereitet sich darauf vor, sich auf eine Reihe von Bereichen zu konzentrieren, darunter die Übernahme von Roomba, Einzelhandelsmonopole und „dunkle Muster“. laut Politico.

  • „Ich habe den Bot lieben gelernt“ – ein Chatbot will Ihr Freund sein, recherchiert der Observer.

source site-27