[vc_row][vc_column][vc_column_text] Was ist Ihre Ansicht zu KI-basierten Lügendetektoren?[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_column_text]Die Entwickler KI-basierter Lügendetektoren nehmen für sich in Anspruch eine Technik entwickelt zu haben, die etwas leisten kann, was wir Menschen nicht in der Lage sind zu leisten. Nämlich, spezifische verbale oder non-verbale Merkmale zu erkennen oder physiologische Reaktionen zu messen, die einen eindeutigen Schluss darauf zu lassen, ob eine Person lügt. Man nennt das eine „specific-lie response“. Wir Menschen können zwar erkennen und teilweise auch mit Hilfe etwa von herkömmlichen Polygraphen ziemlich genau messen, ob eine Person auf eine bestimmte Frage besondere Zeichen von Stress zeigt – sie wird beispielsweise rot im Gesicht, ihre Stimme verändert sich, sie hat einen erhöhten Puls. Wir wissen aber nicht und können es bislang auch nicht technisch messen, ob sich hinter dieser Stressreaktion die Angst verbirgt, dass eine Lüge entdeckt wird oder dass einem die Wahrheit nicht geglaubt wird.
In Bezug auf KI-basierte Lügendetektoren wird nun behauptet, dass es gar nicht darauf ankommt, dass wir Menschen – konkret Richter*innen in einem Strafprozess – wissen, wie man Lügen eindeutig erkennt, weil es nun eben der Computer weiß. Dieses angebliche Wissen soll er sich mit Hilfe bestimmter Verfahren maschinellen Lernens auf der Grundlage eines Datenpools erarbeitet haben. Das Problem ist nun aber einerseits, dass diese Daten von Menschen aufgearbeitet wurden, die – wie wir gesehen haben – doch gar nicht eindeutig sagen können, ob eine Person in einer realen Aussagesituation vor Gericht lügt oder nicht. Andererseits sind die eingesetzten Verfahren des maschinellen Lernens mit einem Black-Box-Effekt verbunden – sie lassen keinen Einblick in die vom Computer erkannten Muster und damit keinen Einblick in die entscheidenden Kriterien für die Kategorien Lüge oder Wahrheit zu.
Für mich sind die derzeitigen KI-basierten Lügendetektoren damit mehr eine bloße kommerzielle Versprechung als eine überzeugende wissenschaftlich fundierte Technik. Mich überzeugt es einerseits schon gar nicht, dass Computer Wissen generieren können sollen, was dem Menschen vollständig fehlt. Und andererseits können wir noch nicht einmal einen Einblick in die Funktionsweise der Technik nehmen, um wenigstens ansatzweise zu versuchen, deren Ergebnisse nachzuvollziehen.[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_column_text]Wie ist die allgemeine Einstellung im rechtswissenschaftlichen Bereich zum Thema Digitalisierung und gibt es einen deutschlandweiten Austausch?[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_column_text]Das Thema Digitalisierung steht sicherlich ganz vorn auf der wissenschaftlichen Agenda. Das sieht man schon an der Fülle an wissenschaftlichen Veröffentlichungen in diesem Bereich, an der Vielzahl an Ausschreibungen für Lehrstühle und Professuren, die den Bereich Digitalisierung und Recht abdecken sollen oder eben an der Vielzahl an Tagungen zu diesem Thema. Ein deutschlandweiter wissenschaftlicher Austausch ist also sicherlich vorhanden. Was mir im wissenschaftlichen Diskurs allerdings oft fehlen sind einerseits die Erkenntnis, dass das Recht der Digitalisierung eine zutiefst interdisziplinäre Komponente hat, und andererseits die Bereitschaft, sich entsprechend mit fachfremden Themen – damit meine ich v.a. die spezifischen Eigenschaften bestimmter Technologien – im Detail auseinanderzusetzen. Und so geht meines Erachtens der rechtswissenschaftliche Diskurs oft an den tatsächlichen Problemen der Digitalisierung vorbei.[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_column_text] Wie sind Sie auf Ihr Habilitationsthema gekommen?[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_column_text]Mich haben schon immer diejenigen Themen am meisten interessiert, die mit neuartigen juristischen Fragestellungen verbunden sind und die es erlauben, interdisziplinär zu arbeiten, also über den eigenen juristischen Tellerrand zu kucken. Vor einigen Jahren habe ich einen Beitrag zu Kryptowährungen und deren Auswirkungen auf das geltende Währungsstrafrecht geschrieben und dabei gemerkt, dass das Recht der Digitalisierung genau das bereithält, was mich wissenschaftlich am meisten reizt. Von den Kryptowährungen kam ich dann zur KI und zur Frage, wie „künstlich intelligente“ Produkte das Recht der strafrechtlichen Produktverantwortung verändern könnten.[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_column_text]Sie sind an der Uni tätig, in welchen Formen würde Legal Tech, die Digitalisierung und deren Auswirkungen Ihrer Meinung nach sinnvoll in die Lehre eingegliedert werden?[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_column_text]Die Auswirkungen der Digitalisierung fließen natürlich jetzt schon in gewissem Maße in die reguläre Lehre ein. Gute Lehre vermittelt ja einerseits die juristischen Grundlagen, andererseits orientiert sie sich an den Problemen der Zeit. Letzteres kann man ganz einfach umsetzen, indem man die Stoffvermittlung mit aktuellen Fällen aus der Rechtsprechung verknüpft – denn diese beschäftigen sich notwendigerweise mit den Problemen der Zeit. Ein ganz einfaches Beispiel: in den letzten Jahren hat die Bedeutung des Computerbetrugs in der Ausbildung ganz erheblich an Bedeutung gewonnen, weil es eben viel mehr Fälle gibt, in denen nicht Menschen, sondern Computersysteme „getäuscht“ werden. Die Digitalisierung zwingt uns meines Erachtens aber auch, über Grundlagenfragen neu nachzudenken. Passen denn unsere für die „analoge“ Welt entwickelten rechtlichen Maßstäbe auch für die „digitale“ Welt? In welches Verhältnis setzen sich das Recht zur Technik und wie verändert sich dieses Verhältnis angesichts einer sich wandelnden Technik? Und ich meine zudem, dass die zunehmende Digitalisierung erfordert, dass wir Juristen auch fachfremde – eben technische – Kompetenzen erlangen und vermitteln müssen, damit wir neuen Technologien nicht nur „ausgeliefert“ sind, sondern diese auch kritisch hinterfragen und diese idealerweise auch proaktiv mitgestalten können.
Antworten auf Grundlagenfragen zu geben und fachfremde Kompetenzen zu vermitteln, ist nun etwas, was die reguläre Lehre nicht leisten kann. Dafür braucht es meines Erachtens spezielle Lehrangebote, die man in eine juristische Zusatzausbildung oder gar in einen Schwerpunktbereich integrieren könnte.[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_column_text]Haben Ihrer Meinung nach KI-basierte Lügendetektoren im Strafprozess langfristig eine Perspektive und wo sehen sie die größten Gefahren/Chancen?[/vc_column_text][/vc_column][/vc_row][vc_row][vc_column][vc_column_text]KI-basierte Lügendetektoren haben nur dann eine Chance, wenn sie nachweislich wissenschaftlich fundiert sind. Dieser Nachweis ist derzeit nicht möglich und so können sie nach den geltenden strafprozessualen Standards nicht im Strafprozess eingesetzt werden. Ob in der Zukunft solch ein Nachweis möglich sein wird, ist unklar, persönlich bezweifle ich das aber. Unterstellen wir das aber einfach einmal, dass das doch irgendwann möglich sein sollte, dann werden die Anforderungen an diese Technik sehr hoch sein. Es wird sicherlich erforderlich sein, dass die Technik transparent gestaltet sein muss, dass also die Gründe, weshalb etwas als Lüge und etwas als Wahrheit klassifiziert wird, für Gerichte und Sachverständige nachvollziehbar ist. Denn es entspricht unserem rechtsstaatlichen Selbstverständnis, dass ein Bürger einen Anspruch darauf hat, dass ein Eingriff in seine Rechte nachvollziehbar begründet werden kann; konkret, dass ein verurteilter Straftäter erklärt bekommt, weshalb eine Lügendetektorsoftware seine Aussage als unwahr und die des Zeugen als wahr klassifiziert, und er deshalb verurteilt wird. Ähnlich sieht dies im Übrigen auch die EU-Kommission: sie möchte den Einsatz von KI-basierten Lügendetektoren zur Strafverfolgung nur dann zulassen, wenn diese u.a. transparent gestaltet sind.
Für KI-basierte Lügendetektoren im Strafprozess sehe ich im Ergebnis wenig Chancen und das meines Erachtens berechtigterweise. Ich glaube aber schon, dass – jenseits des Themas Lügendetektion – KI helfen kann, neue Formen von Kriminaltechnik zu entwickeln, um noch umfänglicher als bisher schon Gerichte bei der Tatsachenaufklärung zu unterstützen. Wenn diese Techniken dann verlässlich und transparent gestaltet sind, sollten sie auch eingesetzt werden, weil sie damit subjektive oder vorurteilsgeprägte richterliche Einschätzungen durch objektive oder vorurteilsfreie Kriterien ersetzen könnten. Wir sollten uns dabei aber tunlichst davor hüten, Technik mit dem Label KI blind zu vertrauen, sondern unseren Blick für die Schwächen dieser Technik und die damit verbundenen Gefahren zu schärfen.
[/vc_column_text][/vc_column][/vc_row]