Gleich wird der Richter das Strafmaß verkünden, Totschlag, zehneinhalb Jahre Haft, aber im Gerichtssaal in Maricopa County, Arizona, darf jetzt erst mal der Getötete das Wort ergreifen. Die erstaunliche Szene lässt sich leicht rekonstruieren, denn der Auftritt von Christopher Pelkey ist auf Youtube zu sehen, knapp vier Minuten dauert das Video, das den Prozess im Nachhinein zum weltweiten Medienereignis macht.
„An Gabriel H., den Mann, der mich erschossen hat“, sagt Pelkey und hält kurz inne. „Es ist eine Schande, dass wir uns an jenem Tag unter diesen Umständen begegnet sind. In einem anderen Leben hätten wir wahrscheinlich Freunde sein können.“ Dann vergibt er seinem Totschläger.
In amerikanischen Gerichtsverfahren soll das sogenannte Victim Impact Statement Opfern einer Straftat Gehör verschaffen. Lebt das Opfer nicht mehr, können Angehörige sich äußern. Aber was sich Anfang Mai in jenem Gerichtssaal in Arizona abspielte, das hat es, nach allem, was bekannt ist, bisher nicht gegeben: Die Version von Christopher Pelkey, die dort auf einem Bildschirm erschien, wurde mit künstlicher Intelligenz erschaffen, ein „Frankenstein der Liebe“, wie seine Schwester sagt.
Und damit hat sie die Fallhöhe dieser Geschichte, die ethischen Fragen, die sie aufwirft, schon ganz gut beschrieben.
Die Geschichte nimmt ihren Anfang am 13. November 2021, als der Ex-Soldat Christopher Pelkey in Chandler, Arizona, an einer roten Ampel hält. Hinter ihm hupt ein Autofahrer. Pelkey steigt aus, geht auf den Volkswagen zu, gestikuliert mit den Armen, so hat es das Gericht rekonstruiert. Der Mann im VW zieht eine Waffe und schießt. Eine Kugel trifft Pelkey in die Brust und tötet ihn.
Als seine Schwester Stacey Wales vor dem Prozess damit beginnt, ein Victim Impact Statement zu schreiben, als sie Briefe von Familienmitgliedern zusammenträgt, von Kameraden, die im Irak und in Afghanistan an seiner Seite kämpften, da quält sie immer wieder derselbe Gedanke, erzählt sie später mehreren US-Medien. Dass die wichtigste Stimme nicht zu Wort kommt.
Mithilfe ihres Mannes und verschiedener Tools bastelt sie also aus Videos, Bildern und dem Stimmprofil ihres Bruders eine KI-Version von ihm, einen digitalen Christopher Pelkey, der sein Victim Impact Statement selbst vorträgt. Sie sei sich absolut sicher, sagt Wales, dass ihr Bruder diese Sätze so gesagt hätte.
Pelkey war 37, als er starb, das vierminütige KI-Video zeigt einen bärtigen Mann mit olivgrünem Hoodie und grauem Cape vor einem weißen Hintergrund. Er stellt sich als Avatar vor, erklärt, wie er erschaffen wurde, und moderiert einen Clip an, der zeige, was für ein Mensch er wirklich gewesen sei. Es folgt eine Aufnahme des echten Pelkey, der über seinen Glauben spricht. Dann bedankt der KI-Pelkey sich bei seinen Angehörigen und beim Richter, bevor er sich an Gabriel H. wendet. „Ich glaube an Vergebung und einen Gott, der vergibt“, sagt er. Am Ende verabschiedet er sich, er gehe jetzt zum Angeln. „See you on the other side.“
Wer das Video sieht, kann die Emotionen spüren, die es bei den Anwesenden im Gerichtssaal ausgelöst haben muss. Familienmitglieder weinten. Und auch der Richter Todd Lang zeigte sich beeindruckt. „Mir hat diese KI sehr gefallen, vielen Dank dafür“, sagte er. Die Bitte um Vergebung des digital generierten Mannes fühle sich echt an, unverfälscht. Aber das Video sage auch viel aus über Pelkeys Familienmitglieder, die Lang vor Gericht erzählt hätten, wie wütend sie seien, wie sehr sie sich die Höchststrafe für Gabriel H. wünschten. Und trotzdem hätten sie Pelkey eine andere Botschaft in den Mund gelegt. Weil sie glauben, dass er so empfunden hätte.
Die Staatsanwaltschaft forderte eine Strafe von neuneinhalb Jahren Haft für Gabriel H. Richter Lang entschied sich für ein Jahr mehr. Die Höchststrafe.
In deutschen Gerichten ist mit einer vergleichbaren KI-Episode eher nicht zu rechnen, denn aussagen dürfen nur natürliche Personen, ihre Rechtsfähigkeit erlischt mit dem Tod. Aber dennoch zeigt der Fall, vor welchen Herausforderungen die Justiz durch die Entwicklung der KI stehen kann. Die New York Times zitiert eine Professorin der Brooklyn Law School, die nun einen Dammbruch befürchtet.
Tatsächlich ist die Beschaffenheit des Victim Impact Statement umstritten in den USA, denn für die Ankläger ist sie ein mächtiges Instrument, um Richter oder Jury zu beeindrucken. Welche Grenzen es geben sollte, steht deshalb immer wieder zur Debatte. Manche Gerichte lassen Videos gar nicht zu, auch mit Musik unterlegte Bildzusammenstellungen sind in die Kritik geraten. Die Sorge: Videos emotionalisierten viel mehr als Worte, ihre Manipulationskraft sei viel stärker. Und wenn jetzt auch noch KI-Bearbeitungen zugelassen werden, öffnet das nicht die Tür für allerlei Täuschungsversuche?
Maura Grossman sieht das gelassener. Die Anwältin ist Forschungsprofessorin am Informatik-Institut der University of Waterloo in Kanada und in der US-Rechtsanwaltskammer Teil einer Arbeitsgruppe, die sich mit KI in der Justiz beschäftigt. Beim Fall in Arizona handle es sich um einen sehr beschränkten Gebrauch künstlicher Intelligenz, sagt sie der SZ am Telefon. Zudem sei alles sehr transparent verlaufen und der Inhalt des Statements „letztlich harmlos“.
Heikel wäre es laut Grossman nur, wenn Pelkeys KI-Avatar die Höchststrafe für Gabriel H. gefordert hätte. Oder wenn das Abbild die Realität extrem verzerren würde. „Wenn er ein Axtmörder wäre und sie ihn wie einen Engel darstellen würden, dann wäre es problematisch gewesen.“
Grossman ist außerdem der Meinung, dass ein Richter darauf trainiert ist, sich von Gefühlen nicht allzu sehr vereinnahmen zu lassen. Wäre der KI-Pelkey vor einer Jury präsentiert worden, dann könnte sie die Kritik verstehen. Jurys seien emotional leichter zu beeinflussen. Die Beweisaufnahme sei aber längst abgeschlossen gewesen, das Urteil stand schon fest. Das Victim Impact Statement hatte also nur noch eine Bedeutung für die Höhe des Strafmaßes.
In Florida ließ ein Richter sich kürzlich von der Verteidigung eine VR-Brille anziehen, so sollte er sich die nachgestellte Szene einer gewaltsamen Auseinandersetzung aus der Sicht des Angeklagten ansehen. Der pochte auf Selbstverteidigung. Derartige KI-Spielereien sieht Grossman viel kritischer. „Wer weiß schon, ob die Darstellung in der virtuellen Welt irgendetwas zu tun hat mit dem, was die Person wirklich gesehen oder erlebt hat?“
Christopher Pelkey, so viel ist klar, wird wohl nicht der einzige Tote bleiben, der vor Gericht erscheint. Stacey Wales, seine Schwester, hat sogar selbst schon mal vorgesorgt. Sie habe sich während der Arbeit an dem Video mal zurückgezogen, erzählte sie dem Radiosender NPR, und ein neunminütiges Video von sich aufgenommen, sie habe geredet und gelacht. Einfach für den möglichen Fall, dass ihr mal etwas zustoße. Und dass ihre Familie für die KI ein klares Audioprofil ihrer Stimme benötige.