Michael Cohens gefälschte Gerichtsfälle
Michael Cohen, der ehemalige Einflussnehmer von Donald Trump, hat sich kürzlich schuldig bekannt, in Bezug auf fiktive rechtliche Fälle, die zur Begutachtung vor einem Bundesgericht standen, manipulative Taktiken angewandt zu haben. Er benutzte hierbei Google Bard, ein Dienst für generative Texte, um falsche Fälle herzustellen und zu zitieren. Es kam ans Licht, dass er Unterlagen, die diese erfundenen Fälle referenzierten, an seinen Rechtsanwalt übergab, der sie dann an das Bundesgericht weiterleitete.
Diese Enthüllung erfolgte als Teil nicht versiegelter Gerichtsdokumente, in denen Cohen seine Unwissenheit über die Aktualität und Risiken in Bezug auf rechtliche Technologien und deren Minenfelder einräumte. Cohen, verwickelt in einen Prozess von entscheidender Bedeutung, greift offenbar zu unkonventionellen Methoden, um seinen Fall zu stärken.
Prozess um Cohen
Die Einreichung der Dokumentation war Teil eines Antrags seines Rechtsteams, die gerichtliche Aufsicht im Zusammenhang mit seinem Kampagnen-Finanzierungsfall von 2018 frühzeitig zu beenden. Cohen hatte bereits eine Gefängnisstrafe von drei Jahren wegen dieses Falles verbüßt. Nachdem Cohens Rechtsanwalt, David M. Schwartz, die rechtlichen Dokumente dem Bundesgericht präsentierte, äußerte Richter Jesse M. Furman seine Schwierigkeiten, die von Schwartz zitierten Urteile zu finden.
Um die Angelegenheit weiter zu eskalieren, befahl Richter Furman Schwartz, er müsse Beweise für die zitierten Fälle liefern. Der Anwalt wurde außerdem beauftragt, darzulegen, wie die falschen Fälle in die Bewegung gerieten und welche Rolle Cohen dabei spielte. Eine Klärung über Cohens Beteiligung an der Erstellung oder Durchsicht des Antrags vor der Einreichung steht noch aus.
Rolle von KI und technologischen Entwicklungen
In seiner Verteidigung führte Cohen an, dass er nicht über die jüngsten Trends und die damit verbundenen Risiken in der Rechtstechnologie informiert war. Insbesondere war ihm nicht bewusst, dass Google Bard ein Text-Generierungstool ist und Zitate und Beschreibungen erstellen kann, die zwar echt wirken, es aber tatsächlich nicht sind.
Er gab an, dass er keine Kenntnis davon hatte, dass die von ihm zitierten Fälle und Beschreibungen tatsächlich von der AI von Google Bard generiert und nicht echt waren. Cohen bemängelte zudem die Berufsethik seines Anwalts und beschuldigte ihn, die fiktiven Fälle ohne Überprüfung ihrer Authentizität in seine Einreichung aufgenommen zu haben.
Auswirkungen auf zukünftige Verfahren
Dieser Patzer von Cohen könnte weitreichende Auswirkungen auf ein entscheidendes Verfahren mit möglicher politischer Tragweite haben. Cohen gilt als ein möglicher Schlüsselzeuge in dem strafrechtlichen Verfahren in Manhattan gegen Trump wegen mutmaßlicher Fälschung von Geschäftsunterlagen. Diese Fehltritte bieten Trumps Anwälten neue Möglichkeiten, den ehemaligen Einflussnehmer zu diskreditieren.
Im weiteren Kontext hat diese Entwicklung auch Auswirkungen auf die zunehmende Nutzung von künstlicher Intelligenz in der Rechtspraxis. Es wird Fragen über den ethischen Einsatz von KI in rechtlichen Angelegenheiten und die regulatorische Notwendigkeit zur Überwachung solcher Technologien aufwerfen. Im Lichte der jüngsten Entwicklungen ist es unerlässlich, die Auswirkungen solcher Technologie auf die Rechtssicherheit und Glaubwürdigkeit der Gerichte zu bewerten.