Roberts vom Obersten Gerichtshof der USA mahnt zur „Vorsicht“, da KI den Rechtsbereich neu gestaltet Von Reuters


© Reuters. DATEIFOTO: US-Oberster Richter John Roberts spricht während der Trauerfeier für die pensionierte Richterin des Obersten Gerichtshofs der USA, Sandra Day O’Connor, am 19. Dezember 2023 in der Washington National Cathedral in Washington, USA. REUTERS/Evelyn Hockstein/Aktenfoto

Von John Kruzel

WASHINGTON (Reuters) – Künstliche Intelligenz stellt einen gemischten Segen für den Rechtsbereich dar, sagte John Roberts, Oberster Richter des Obersten Gerichtshofs der USA, in einem am Sonntag veröffentlichten Jahresabschlussbericht und mahnte zu „Vorsicht und Bescheidenheit“, da die sich entwickelnde Technologie die Arbeitsweise von Richtern und Anwälten verändert über ihre Arbeit.

Roberts schlug in seinem 13-seitigen Bericht einen ambivalenten Ton an. Er sagte, dass KI das Potenzial habe, den Zugang zur Justiz für bedürftige Prozessparteien zu verbessern, die Rechtsforschung zu revolutionieren und Gerichten dabei zu helfen, Fälle schneller und kostengünstiger zu lösen, und wies gleichzeitig auf Datenschutzbedenken und die Unfähigkeit der aktuellen Technologie hin, menschliches Ermessen zu reproduzieren.

„Ich gehe davon aus, dass es noch eine Weile menschliche Richter geben wird“, schrieb Roberts. „Doch mit der gleichen Zuversicht prognostiziere ich, dass die gerichtliche Arbeit – insbesondere auf Prozessebene – durch KI erheblich beeinträchtigt wird.“

Der Kommentar des Obersten Richters ist seine bisher bedeutendste Diskussion über den Einfluss von KI auf das Recht und deckt sich mit einer Reihe von Untergerichten, die darüber streiten, wie man sich am besten an eine neue Technologie anpassen kann, die zwar die Anwaltsprüfung besteht, aber auch anfällig für Fiktion ist Inhalt, bekannt als „Halluzinationen“.

Roberts betonte, dass „jeder Einsatz von KI Vorsicht und Bescheidenheit erfordert“. Er erwähnte einen Fall, in dem KI-Halluzinationen Anwälte dazu veranlasst hatten, in Gerichtsakten nicht existierende Fälle zu zitieren, was der Oberste Richter als „immer eine schlechte Idee“ bezeichnete. Roberts ging nicht näher darauf ein, außer dass das Phänomen „dieses Jahr für Schlagzeilen gesorgt“ habe.

Letzte Woche sagte beispielsweise Michael Cohen, Donald Trumps ehemaliger Fixer und Anwalt, in Gerichtsakten, die letzte Woche entsiegelt wurden, dass er seinem Anwalt fälschlicherweise gefälschte Fallzitate gegeben habe, die von einem KI-Programm generiert worden seien und in eine offizielle Gerichtsakte gelangt seien. Es wurden auch andere Fälle dokumentiert, in denen Anwälte KI-halluzinierte Fälle in juristische Schriftsätze einbeziehen.

Ein Bundesberufungsgericht in New Orleans sorgte letzten Monat für Schlagzeilen, als es den scheinbar ersten Regelvorschlag eines der 13 US-Berufungsgerichte enthüllte, der darauf abzielte, die Nutzung generativer KI-Tools wie ChatGPT von OpenAI durch vor ihm auftretende Anwälte zu regulieren.

Die vom 5. US-Berufungsgericht vorgeschlagene Regelung sieht vor, dass Anwälte bescheinigen müssen, dass sie sich entweder nicht auf Programme der künstlichen Intelligenz verlassen, um Schriftsätze zu verfassen, oder dass Menschen die Richtigkeit aller von KI generierten Texte in ihren Gerichtsakten überprüft haben.

source site-20