Sebastian Wolf, Sophia Blum

Wirtschaftsstrafrecht und Künstliche Intelligenz

17. WisteV-wistra-Neujahrstagung am 16. und 17. Januar 2026 in Frankfurt am Main

Die diesjährige Neujahrstagung der Wirtschaftsstrafrechtlichen Vereinigung (WisteV) in Kooperation mit der Zeitschrift für Wirtschafts- und Steuerstrafrecht (wistra) widmete sich der zunehmenden Bedeutung künstlich intelligenter Systeme im Bereich des Wirtschaftsstrafrechts. Vor dem Hintergrund rasanter technischer Entwicklungen diskutierten Vertreter aus Justiz, Anwaltschaft, Wissenschaft und Wirtschaft über die Chancen und rechtlichen Herausforderungen, die der Einsatz von KI sowohl für die Strafverfolgungsbehörden als auch für die Verteidigung und die unternehmerische Compliance mit sich bringt.

A. Begrüßung und Einführung in die Thematik

Dem Tagungsprogramm vorangestellt, sprach Professor Dr. Michael Tsambikakis einen Nachruf auf Professor Dr. Robert Esser †. Professor Esser sei der WisteV über viele Jahre eng verbunden gewesen. Er habe sich im Beirat der WisteV engagiert, zahlreiche Vorträge gehalten – zuletzt zum Strafrecht vor europäischen Gerichten (EGMR/EuGH) – und regelmäßig Beiträge in der WiJ veröffentlicht. Als Mitherausgeber des Löwe/Rosenberg habe er die Auslegung der Strafprozessordnung maßgeblich geprägt. Professor Tsambikakis würdigte insbesondere Essers herausragende Forschung zum europäischen Strafrecht und zeichnete das Bild eines echten Transatlantikers und verlässlichen Freundes, dessen Verlust eine große Lücke hinterlasse.

In ihrer Eröffnung hob Professorin Dr. Charlotte Schmitt-Leonardy hervor, dass die aktuelle Entwicklung der KI für die Menschheitsgeschichte eine ebenso signifikante Zäsur darstelle wie seinerzeit die Erfindung der Schrift. Sie prognostizierte, dass die Technologie jeden juristischen Beruf und jede Rolle im Strafverfahren transformieren werde. Dabei stellte sie die Frage in den Raum, ob künftig Strafen oder Strafbefehle ohne menschliches Zutun denkbar seien.

KI biete Chancen wie Risiken. Entscheidend sei jedoch die Haltung, die die Gesellschaft gegenüber KI einnehme. Denn KI imitiere menschliches Handeln: Sei der Mensch darauf aus, möglichst effizient unter Inkaufnahme von Fehlern zu handeln, werde sich KI spiegelbildlich verhalten. Stehe hingegen Qualität im Zentrum menschlichen Handelns, biete KI eine effektive Möglichkeit, menschliche Entscheidungen zu unterstützen.

Allerdings dürfe die Fähigkeit zum kritischen Denken nicht verloren gehen. Nach Kant sei Aufklärung der Ausgang des Menschen aus seiner selbst verschuldeten Unmündigkeit. Gehe der Umgang mit KI jedoch so weit, dass sie nicht mehr nur ein effektives Werkzeug darstelle, sondern das Denken in einem Maße determiniere, dass der Mensch selbst wieder unmündig werde, so werde es gefährlich.
Studien zeigten, dass KI die Leistungsfähigkeit des Anwenders erheblich steigern könne – allerdings nur dann, wenn dieser sich bereits intensiv mit der Materie auseinandergesetzt habe. Umgekehrt führe eine unreflektierte Nutzung zumeist nur zu oberflächlichen Ergebnissen.

Aus rechtsstaatlicher Sicht müsse die Qualität im Mittelpunkt des Strafverfahrens stehen; sie bestimme letztlich auch, in welcher Weise der Einsatz von KI zu erfolgen habe.

Rechtsanwalt Dr. Thomas Nuzinger unterstrich die Präsenz, die das Thema KI auch im anwaltlichen Alltag mittlerweile eingenommen habe. Gleichwohl ergäben sich eine Reihe auch dogmatischer Fragen, deren Aufarbeitung teilweise erst in den Kinderschuhen stecke.
In einem schriftlichen Grußwort betonte die Bundesministerin der Justiz, Dr. Stefanie Hubig, Technik könne die Wahrheitssuche zwar unterstützen, den Menschen jedoch nicht ersetzen. Bereits heute ließen sich eindrucksvolle Beispiele für die forensische Nutzung künstlicher Intelligenz beobachten. Zugleich müsse sichergestellt werden, dass der Einsatz von KI innerhalb der ethischen und verfassungsrechtlichen Grenzen verbleibe. Wie dieses Spannungsverhältnis gesetzgeberisch auszugestalten sei, sei derzeit Gegenstand der laufenden StPO-Reformkommission.

B. Themenblock 1: Einsatz von KI zur Begründung eines Anfangsverdachts

Der erste Themenblock befasste sich mit der Identifizierung strafrechtlich relevanter Sachverhalte durch KI-gestützte Analysen. Nina Meier, AML-Managerin bei der ING-DiBa AG, erläuterte die Praxis der Geldwäschebekämpfung in einer Digitalbank. Sie legte dar, wie automatisierte Monitoring-Systeme die Überprüfung von Transaktionen auf Unregelmäßigkeiten unterstützten. Eine besondere Herausforderung stelle die Unterscheidung zwischen tatsächlichen Verdachtsfällen und sogenannten False Positives dar. Kriminelle bedienten sich immer ausgeklügelterer Manipulationsmethoden, wie etwa Deepfakes bei der Identitätsprüfung, um über die Banken Zugang zum Zahlungsverkehr zu erlangen. Meier sprach sich deshalb für einen engmaschigen Austausch zwischen Banken und Ermittlungsbehörden aus, um Tatserien leichter aufdecken zu können.

Ergänzend hierzu berichtete Hans Jürgen Rosenlehner vom Bayerischen Staatsministerium der Finanzen über den Einsatz von KI in der Steuerverwaltung. Er führte aus, dass man sich mit dem Einsatz von KI insbesondere auf die Besteuerung von Social-Media-Akteuren wie Influencern oder Gamern konzentriere. Hierbei würden Analysetools genutzt, um die vielfältigen Einnahmequellen auf Plattformen wie YouTube oder Twitch systematisch zu erfassen und potenzielle Steuerhinterziehungsfälle zu identifizieren.
In der anschließenden Diskussion beteiligte sich das Publikum unter der Moderation von OStA’in Dr. Martina Müller-Ehlen intensiv an der Frage, welche Ermächtigungsgrundlage das von Herrn Rosenlehner geschilderte Vorgehen der Steuerverwaltungsbehörden trage. Der Verweis auf § 208 AO, als vermeintlich taugliche Ermächtigungsgrundlage, stieß nicht bei allen Veranstaltungsteilnehmern auf Zustimmung.

Den ersten Vortrag nach der Kaffeepause hielt Herr Dr. Daniel M. Weiß, LL. M. (Chicago), Partner bei Hengeler Müller, zum Einsatz von KI im Rahmen von Internal Investigations.
Als Einstieg zitierte er Goethes Faust „Es irrt der Mensch…“ und ergänzte, dass sich mittlerweile auch KI bei hoher Geschwindigkeit und ohne erkennbare Hemmungen irre.

Im ersten Teil seines Vortrags erläuterte er die Einsatzbereiche von KI sowie die technologische Entwicklung von einfachen suchwortbasierten Ansätzen über Technology-Assisted Review (KI 1.0) bis hin zu den heute weitverbreiteten generativen KI-Systemen. Er erklärte, dass diese Sprachmodelle auf einem (vermeintlichen) Weltwissen basieren und dabei lediglich Wahrscheinlichkeitsberechnungen nutzen würden. Für die Nutzer entstünde zwar der Eindruck, die KI sei sich ihres Ergebnisses sicher, doch in der Praxis stoße die freie Nutzung generativer KI an Grenzen. Zum einen sei es aufgrund der Datenmenge nicht möglich, beliebig viele Dokumente hochzuladen, zum anderen liefere die KI oft inkonsistente oder unvollständige Ergebnisse, da ihr relevante Informationen fehlen würden. Als Lösung präsentierte Dr. Weiß den Ansatz von Hengeler Müller. Gemeinsam mit Data Scientists entwickelte die Kanzlei das eigene Sprachmodell HM Argus.
Im Anschluss ging er auf Chancen und Risiken des KI-Einsatzes ein, wobei er stets Bezug auf die praktischen Erfahrungen mit HM Argus nahm. Als zentrale Vorteile hob er insbesondere die umfassenden Sprachkenntnisse des Modells hervor, das auch japanische Dokumente problemlos analysieren kann. Bei der reinen menschlichen Analyse unter der Nutzung von einfachen Suchworten würde die Fantasie und die Kenntnisse des Analysten im Zweifel nicht ausreichen, um auch das entsprechende japanische Vokabular parat zu halten. Zudem sei ein erheblicher Effizienzgewinn zu verzeichnen. Innerhalb von 18 Tagen konnten mit HM Argus 3,5 Millionen Seiten an Dokumenten analysiert werden. Ein Mensch würde für dieselbe Aufgabe etwa 64 Personenjahre benötigen. Dieser Zeitgewinn ermögliche eine strategische Vorgehensweise, da weder eine Datentriage noch eine Kosten-Nutzen-Abwägung erforderlich sei.

Dr. Weiß stellte die Frage, ob der Einsatz von KI nicht „too good to be true“ sei, und ging auf die damit verbundenen Risiken ein. Dazu zählte er das „Black-Box“-Problem, Halluzinationen, Herausforderungen in der Prozessorganisation sowie Fragen des Prompting und Scoring. Zudem wies er auf die Problematik inhomogener Datenpools hin. Als Ansätze zur Risikominderung nannte er menschliche Validations- und Plausibilisierungsvorkehrungen („human in the loop“) sowie technische Maßnahmen wie die Aufbereitung von Datenpools in objektive und tendenziöse Daten oder den Zugriff auf Kontextdatenbanken.

Abschließend behandelte er die rechtlichen Rahmenbedingungen, wobei er den Fokus auf das Berufsrecht, das Datenschutzrecht, die KI-Verordnung (auch in arbeitsrechtlicher Hinsicht) sowie das Straf- und Ordnungswidrigkeitenrecht legte. Den Vortrag schloss er mit einem Rückbezug auf das Goethe-Zitat ab und betonte, dass Menschen und Maschinen sich zwar auch künftig gemeinsam irren werden, jedoch auf einem immer höheren Niveau.

In der von Herrn Professor Dr. Markus Rübenstahl moderierten Fragerunde wurden Fragen zum internationalen Vergleich, berufsrechtlichen Aspekten sowie zur Problematik von Ungleichzeitigkeiten diskutiert, die entstehen können, wenn Verfahrensbeteiligte unterschiedliche Methoden (suchwortbasierte Ansätze vs. generative KI) auf einen Sachverhalt anwenden.
Im Anschluss folgte der Vortrag von Dr. Laura Braam, Justiziarin bei der Landesanstalt für Medien NRW in Düsseldorf mit dem Titel „Einsatz von KI in der Medienaufsicht – auch ein Gewinn für die Strafverfolgung“.

In der interessanten Einführung in das spannende Feld der Medienaufsicht in Deutschland und Europa präsentierte sie ein Zitat des US-Vizepräsidenten J.D.Vance vom 14. Februar 2025: „In Britain, and across Europe, free speech, I fear, is in retreat.“ Anhand dieses Zitats sei ein großes Problem in der täglichen Arbeit der Landesmedienanstalt erkennbar: Während das Verständnis der Meinungsfreiheit in Deutschland von den Ideen von Rousseau geprägt sei, sei das Verständnis in den USA geprägt durch Locke. Dies sei deshalb für die Tätigkeit der Landesmedienanstalt brisant, weil die Plattformen US-amerikanisch sind.

Des Weiteren ging sie auf die Aufsichtstätigkeit der Landesmedienanstalt bei Online-Medien ein. Insbesondere ging sie dabei auf die den Nutzerschutz (Fokus dabei immer häufiger: Influencer-Schleichwerbung) sowie auf den Jugendschutz ein. Von besonderer Relevanz seien beim Jugendschutz frei verfügbare pornografische Inhalte im Netz und das immer stärker zunehmende Cybergrooming. Ferner stellte sie die Initiative „Verfolgen statt nur löschen. Die Initiative zur Rechtsdurchsetzung im Netz aus NRW“ vor, die gemeinsam von Medienaufsicht und Strafverfolgungsbehörden sowie Medienhäusern ins Leben gerufen wurde. Im Fokus der Initiative stünden Volksverhetzungen, das Teilen von verfassungsfeindlichen Kennzeichen sowie Gewaltdarstellungen im Netz. Ziel der Initiative sei das Verständnis, dass das Netz kein rechtsfreier Raum ist. Aufgrund der Anzeige rechtswidriger Inhalte durch die Beteiligten wird eine konsequente Strafverfolgung ermöglicht. Diese Strafverfolgung ermöglicht im Umkehrschluss die Entfernung der Inhalte aus dem Netz. Bereits kurz nach dem Start der Initiative wurde den Beteiligten bewusst, dass eine manuelle Onlineaufsicht „weder effektiv, effizient noch priorisiert und zudem belastend“ sei. Als Lösung stand deshalb früh der Einsatz von KI im Raum.

Frau Dr. Braam stellte im Folgenden das dazugehörige Projekt „KIVI“ (Künstliche Intelligenz + Vigilare) vor. Die KI unterstütze bei allen Aufsichtsbereichen der Landesmedienanstalt vom Teilen von extremistischen Inhalten wie etwa der Volksverhetzung, Holocaustleugnung und der Verwendung von Kennzeichen verfassungswidriger Organisationen bis hin zu der Jugendgefährdung durch Entwicklungsbeeinträchtigung durch Selbstgefährdung oder Drogenverherrlichung. Nachdem die KI die mögliche Treffer herausgearbeitet hat, werden diese Funde durch Menschen analysiert. Sie stellte für die Darstellung die Statistik für Januar bis Dezember 2025 mit Stand 08.12.2025 vor: von 32.976 potenziellen Verstößen für die Medienaufsicht wurden 28.129 durch die Medienaufsicht geprüft, davon wurde bei 3.515 der Verstoß tatsächlich bestätigt. Besonders hoch war dabei die positiv bestätigte Trefferquote bei Fällen der Holocaustleugnung in Höhe von 43%. Ausschlaggebend sei, dass dabei immer die gleichen Stichwörter verwendet würden und die KI daher besonders gut Muster erkennen könne. Bei Volksverhetzung lag die Trefferquote bei 12%, bei verfassungswidrigen Kennzeichen bei 23 % und bei pornografischen Inhalten bei 27%. Anhand der Statistik arbeitete Frau Dr. Braam heraus, wie wichtig der Einsatz von Menschen bei der Analyse sei, denn diese können Aussagen oder Bilder anders als die KI beispielsweise direkt in einen geschichtlichen Kontext setzen.

Im letzten Abschnitt ihres Vortrages stellte sie das Zusammenspiel zwischen KIVI, dem BKA und den Medienanstalten dar und ging dabei auf die klare Rollenverteilung von ZMI BKA und der Medienaufsicht ein. Sie stellte zudem dar, wie ein Aufsichtsverfahren nach Art. 9 DSA exemplarisch abläuft. Dabei merkte sie an, dass eine Anordnung zwar keine Rechtsfolge habe, die Plattformen aber in der Regel gut auf eine qualifizierte Meldung reagieren würden. Als Ausblick gab sie an, dass KIVI im Zusammenhang mit dem Digital Services Act eine solide Basis für die grenzüberschreitende Rechtsdurchsetzung sei. Die hohe Anzahl von Meldungen und Maßnahmen seit dem Inkrafttreten des DSA zeige dessen Wirksamkeit.

Im Fazit ihres Vortrages appellierte Frau Dr. Braam dafür, dass es für die Verteidigung der Meinungsfreiheit und Demokratie im Netz auf jeden Demokratin und jeden Demokraten ankäme.

Die anschließende Fragerunde, moderiert durch Prof. Dr. Rübenstahl, behandelte Fragen zur Zuständigkeit sowie zu Meldungen von Volksverhetzung in Fällen von sogenanntem Ragebait/Clickbait. Frau Dr. Braam gab zudem Einblicke in ihre Erfahrungen mit der Kooperationsbereitschaft der Plattformen.

C. Themenblock 2: KI im Ermittlungs- und Strafverfahren

Im zweiten Block wurde der Einsatz von KI während des laufenden Ermittlungs- bzw. Strafverfahrens thematisiert.
Professor Dr. Dominik Brodowski widmete sich der Frage, inwieweit die Auswertung und Würdigung von Beweismitteln durch KI-Systeme erfolgen könne. Der Begriff „Künstliche Intelligenz“ setze sich aus zwei Komponenten zusammen, die einer kritischen Betrachtung bedürften. Das Attribut „künstlich“ sei eindeutig: KI-Systeme seien von Menschen geschaffen und somit technische Artefakte. Der Begriff „Intelligenz“ hingegen sei erklärungsbedürftig. Im Sinne des englischen Wortes „intelligence“ – wie er etwa in Zusammenhängen wie der CIA (Central Intelligence Agency) verwendet werde – bezeichne er primär Datenverarbeitung, nicht Denkvermögen im menschlichen Sinne.

KI-Systeme erzeugten Wahrscheinlichkeitswerte – sie gäben an, welches Ergebnis aus der Perspektive des trainierten Modells am wahrscheinlichsten sei. Diese Ergebnisse seien damit weder objektiv noch neutral, sondern spiegelten die Perspektive und die Qualität der Trainingsdaten wider. Typische Fälle würden dabei übergewichtet, untypische oder seltene Konstellationen fielen systematisch durch das Raster.

Im strafprozessualen Kontext ließen sich bislang drei zentrale Einsatzfelder unterscheiden:
KI-Systeme könnten eingesetzt werden, um aus großen Datenmengen relevante Inhalte herauszufiltern (Positivfilter) oder irrelevante bzw. geschützte Inhalte auszuschließen (Negativfilter). Ein bekanntes Beispiel sei ein Forschungsprojekt zur automatisierten Erkennung kinderpornographischen Materials, das vielversprechende Ergebnisse gezeigt und gleichzeitig die psychologische Belastung der Ermittler erheblich reduziert habe. Professor Dr. Robert Esser habe bereits vor Jahren vorgeschlagen, Negativfilter einzusetzen, um Inhalte, die den Strafverfolgungsbehörden nicht zugutekommen dürften – etwa Anwaltskorrespondenz – automatisiert auszusortieren.

KI könne zudem zur Authentizitätsprüfung von digitalen Inhalten eingesetzt werden, etwa zur Unterscheidung zwischen echten und gefälschten Bildern aus sozialen Medien oder zur Feststellung der Urheberschaft von Texten. Problematisch sei dabei allerdings, dass dieselbe KI-Technologie, die zur Erkennung von Fälschungen eingesetzt werde, auch genutzt werden könne, um Erkennungsalgorithmen zu täuschen – die Ergebnisse solcher Gegenmaßnahmen flössen dann zurück in die Trainingsdaten. Das Ergebnis sei insoweit ein technisches Wettrüsten.

Ein weiteres Anwendungsfeld sei die Normalisierung, Übersetzung und Vernetzung von Rohdaten. Beispiele seien die Vereinheitlichung unterschiedlich formatierter Geldbeträge, automatische Übersetzungen fremdsprachiger Dokumente oder die Visualisierung von Bewegungsdaten aus Smartwatches. Aufgaben, für die früher spezialisierte Programmierkenntnisse erforderlich gewesen seien, seien heute durch einfach bedienbare Tools auch für Ermittler ohne Informatikausbildung zugänglich.
Hieraus ergäben sich mehrere erhebliche Chancen für den Einsatz von KI im Strafverfahren. So ermögliche KI zunächst die Skalierung bei der Bewältigung großer Datenmengen, die menschliche Kapazitäten überschritten, und sorge für eine deutlich schnellere Auswertung von Beweismaterial. Darüber hinaus trage sie zur Reduzierung psychologischer Belastung bei, insbesondere bei der Sichtung belastender Inhalte wie kinderpornographischem Material, sowie zur einheitlichen Anwendung von Kriterien über alle Fälle hinweg. Schließlich ermöglichten klar definierte Erkennungsaufgaben höhere Trefferquoten und damit eine gesteigerte Genauigkeit.

Diesen Chancen stünden jedoch gewichtige Risiken gegenüber. So seien KI-Entscheidungen häufig nicht nachvollziehbar begründbar, was ihre Verlässlichkeit, Erklärbarkeit und Rationalität in Frage stelle. Hinzu träten der Ankereffekt und ein Technological Bias: KI-Ergebnisse könnten menschliche Entscheider in eine bestimmte Richtung lenken und bestehende Vorurteile in den Trainingsdaten perpetuieren. Auch drohe eine Versteinierung des Rechts, da die Orientierung an Präjudizien durch KI die Rechtsentwicklung hemmen und den Blick für künftige Entwicklungen verstellen könne. Schließlich bestehe die Gefahr der Diskriminierung und Selektivität, indem untypische Fälle und marginalisierte Bevölkerungsgruppen systematisch benachteiligt würden.
Brodowski warf deshalb die Frage auf, welcher rechtliche Rahmen den Einsatz von KI im Strafverfahren regele, um diesen Risiken vorzubeugen.

Die technische Forensik sei in der StPO kaum geregelt. Ein Blick in das Verfassungsrecht ergebe, dass eine vom Bundesverfassungsgericht (BVerfGE 33, 168) ausgeformte Pflicht zur bestmöglichen Sachverhaltsaufklärung bestehe. Dies bedeute sowohl die Vermeidung von Fehlurteilen als auch die Vermeidung systematischer Straflosigkeit. Fehlerquoten müssten im Gesamtzusammenhang des Verfahrens betrachtet werden. Dabei stellten sich zentrale Fragen: Welche Fehlerrate sei noch akzeptabel? Würden etwa 90 von 100 strafrechtlich relevanten Bildern durch KI erkannt, sei das tolerierbar – sofern eine sinnvolle menschliche Kontrolle nachfolge. Dabei sei jedoch zu beachten, dass auch die nicht erkannten Bilder im Hinblick auf falsch-positive Ergebnisse einer menschlichen Überprüfung bedürften.
Das Bundesverfassungsgericht habe zudem im Palantir-Urteil einen verschärften Verhältnismäßigkeitsmaßstab für den KI-Einsatz bei der Datenauswertung entwickelt. Dieser Maßstab sei jedoch noch nicht hinreichend ausdifferenziert und biete für die Praxis nur eine begrenzte Orientierung.

Möglicherweise könne auch die KI-VO einen tauglichen Ansatzpunkt für die Regulierung des Einsatzes von KI im Strafverfahren bieten. Die EU-KI-Verordnung habe ihren Schwerpunkt zwar nicht im Strafrecht, erfasse jedoch mehrere relevante Einsatzszenarien. KI-Systeme zur Strafverfolgung könnten als Hochrisikosysteme eingestuft werden; Lügendetektoren und Positiv-/Negativfilter seien ausdrücklich genannt.

Umstritten sei, ob auch KI-Systeme zur Erforschung und Auslegung von Tatsachen und Recht durch Staatsanwaltschaften erfasst seien. Die überwiegende Literatur verneine dies und verorte die Strafverfolgung unter Anhang III Nr. 6, nicht unter Nr. 8.
Abschließend skizzierte Prof. Brodowski drei mögliche Entwicklungspfade:

  • (Teil-)Automatisierung der Strafverfolgung: Dieses Szenario eines „Robo-Richters“, in dem KI weitgehend autonom über Strafverfolgungsmaßnahmen entscheide, lehne Brodowski ausdrücklich ab. Es würde grundlegende rechtsstaatliche Garantien gefährden.
  • Strukturkonservative Resistenz gegenüber der Digitalisierung: Eine vollständige Ablehnung von KI im Strafverfahren würde die Potenziale dieser Technologie ignorieren und könnte dazu führen, dass die Justiz im Verhältnis zur technischen Realität zurückfalle.
  • KI als Werkzeug zur Qualitäts- und Effizienzsteigerung: Als Vorzugsmodell gelte der gezielte Einsatz von KI als unterstützendes Werkzeug unter Wahrung menschlicher Verantwortung und gerichtlicher Kontrolle. Dabei müssten Qualitätssicherung, Transparenz und verfahrensrechtliche Einbettung sichergestellt sein.

Im sich anschließenden Vortrag ordnete Dr. Saleh Ihwas den Einsatz von KI zur Auswertung von Ermittlungsakten ein. Zunächst zeigte er den sich aus dem anwaltlichen Berufsrecht ergebenden Rahmen auf, bevor er die rechtlichen Grundzüge zum Einsatz von KI nach der DSGVO und der KI-VO beleuchtete.

Aus seiner Sicht ergäben sich drei Hauptanwendungsfelder für KI im Rahmen der Aktenauswertung: Zum einen sei KI in der Lage, eine Chronologie aus Ermittlungsakten zu erstellen. Zum anderen ließen sich Aussagen mittels KI auf Widersprüche im Verhältnis zum Akteninhalt überprüfen. Darüber hinaus biete KI eine niedrigschwellige Möglichkeit, Mandantenunterlagen auszuwerten und zur Ermittlungsakte ins Verhältnis zu setzen.

Der Umgang mit KI müsse allerdings geübt werden. Prompt-Engineering und der strukturierte Aufbau von KI-Kompetenz gehörten zum sachgerechten Einsatz von KI dazu. Bei richtigem Vorgehen biete KI eine effektive Möglichkeit, den Menschen zu unterstützen, seine Potenziale zu heben und ihn bei der Abarbeitung von Routineaufgaben zu entlasten. KI biete allerdings keinen Ersatz für menschliches Urteilsvermögen. Die Ergebnisse künstlich intelligenter Systeme seien stets einem kritischen Blick zu unterziehen. Dr. Ihwas demonstrierte dem Publikum im Anschluss, wie er mithilfe eines KI-Tools anhand einer fiktiven Fallakte typischerweise vorgehen würde.

Es folgte der Vortrag von Dr. Martin Seelmann und MLaw Colin Carter, beides Mitarbeiter der Professur für Strafrecht und Strafprozessrecht von Prof.‘in Dr. Sabine Gless, Universität Basel. Mit ihrem Vortrag „Automatisierte Strafbefehle – (warum) braucht es menschliche Richter?“ gaben sie spannende Einblicke in das Schweizer Recht und in ihr Forschungsprojekt.

Zur Einführung stellten sie mehrere Schlagzeilen aus schweizerischen und deutschen Medien vor, die die Überlastung der Staatsanwaltschaften anprangern. Zudem formulierten sie thesenhaft mögliche Vorteile einer Automatisierung von Strafbefehlen: „kürzere und kostengünstigere Verfahren (access to justice)?, Verständlichkeit? Exaktere Rechtsanwendung? Einheitlichere Rechtsanwendung? Von menschlichen Faktoren befreite Entscheidungsprozesse?“ Im Folgenden stellten sie ihr Projekt vor, die Untersuchung der Möglichkeit der Automatisierung von Strafbefehlen, insbesondere bei Verkehrsdelikten von Ersttätern, am Beispiel von Trunkenheit am Steuer. Der Art. 91 SVG-CH wurde aufgrund seiner engmaschigen Tatbestandsvoraussetzungen und Straferwartung ausgewählt. Das interdisziplinäre Projekt aus Juristen und Psychologen fokussiert sich auf die technologische Machbarkeit, die rechtlichen Rahmenbedingungen sowie die Grenzen der Automatisierung. Zudem wird auch die Akzeptanz der (Fach-)Öffentlichkeit untersucht unter der Fragestellung: „Würden Sie selbst ein solches Urteil akzeptieren?“

Nach der Einführung stellte Dr. Martin Seelmann knapp das Strafbefehlsverfahren in der Schweiz vor. Er ging dabei auch auf strafprozessuale Besonderheiten wie etwa die hohe Entscheidungsbefugnis der Staatsanwaltschaften ein.
Als Aufhänger für die Technologie der Automatisierung von Strafbefehlen und der Fragestellung, ob sämtliche Denkprozesse von den Maschinen übernommen werden können, wählten die beiden Referenten ein Zitat von Richard David Precht, aus der NZZ vom 19.11.2016: „Beim Denken bin ich auch skeptisch, aber bei Jura muss man nun wirklich nur selten denken! Die Juristerei ist ja letztlich nichts anderes als ein einziges grosses Ordnungssystem, das man ganz leicht durchrattern kann“.
Zunächst wurde darauf hingewiesen, dass Juristen jetzt schon „automatisiert“ arbeiten würden. Entweder in Form von regelbasierten IT-Systemen, etwa Datenbanken wie beck-online, oder trainierten AI-Systemen.

Es wurde die Frage in den Raum gestellt, welche Systeme in Zukunft wohl nicht nur relevante Informationen, sondern direkt auch die entscheidenden Argumente liefern könnten. Als Beispiel wurde Chat-GT herangezogen, das bereits das Bar Exam in den USA bestanden und dabei ein Resultat unter den Top 10% erreicht habe. Eine Untersuchung der ETH Zürich kam zu dem Ergebnis, dass gewisse Rechtsgebiete aktuell besser funktionieren als andere. Zurückzuführen sei dies auf die Datenverfügbarkeit und den gewählten Modus des Modells.
Die Referenten gingen auch auf die Probleme der KI-Nutzung ein, wie etwa die Halluzinationen von Urteilen. Ein weiteres großes Problem sei das sogenannte Causal Language Modelling. Beim Einsatz innerhalb der Schweiz müsse die Schweiz explizit als Bezugspunkt angegeben werden. Andernfalls würde das Sprachmodell aufgrund seiner zugrundeliegenden Wahrscheinlichkeitsberechnung deutsches Recht anwenden.

Des Weiteren gingen die Referenten vertieft auf ihre Studie “Prototype for Automating Penal Orders (PAPO)” ein. In ihrer Testphase verwendeten sie 400 Scans von Strafbefehlen einer Schweizer Staatsanwaltschaft mit dem Fokus auf den Art. 91 SVG-CH. Mittlerweile konnten sie auch erste Daten von deutschen Staatsanwaltschaften sichten. Die Automatisierung des Strafbefehlsverfahrens unterteilten sie in vier Schritte und stellten die jeweiligen Schritte vor:

  1. Klassifikation: Erkennung des relevanten Delikts ausgehend von Sachverhaltsumschreibung und Polizeirapport
  2. Extraktion: Herausarbeitung sämtlicher relevanter Straftatbestandsmerkmale
  3. Subsumtion: Durchführung der rechtlichen Beurteilung nach „Wenn, dann“-Muster
  4. Strafzumessung anhand Empfehlungstabelle

Zuletzt zeigten sie die (rechtlichen) Grenzen einer Automatisierung von Strafurteilen auf. Sie setzen dabei zwei Schlaglichter. Zum einen, dass automatisierte Rechtsprechung eine automatisierte Rechtssetzung analog zu einer richterlichen Rechtsfortbildung bedeuten würde und zum anderen, dass es bei fehlender Rechtsfortbildung zu einer Rechtsversteinerung kommen könnte. Problematisch sei dabei insbesondere, dass der KI zwar eine Entscheidungsgewalt zugesprochen werden würde, sie aber mangels geltender gesetzlicher Grundlage keine Entscheidungsverantwortung fürchten müsste. Ohne ein intuitives moralisches Moment sei keine juristische oder richterliche Entscheidung vorstellbar. Der Einsatz von KI-Richtern könne daher zu einer Erosion der moralischen und rechtlichen Verantwortung führen. Zuletzt würde sich die Qualität einer Entscheidung auch immer an der Qualität des Verfahrens messen.

Die Referenten schließen ihren Vortrag mit dem Fazit, dass ein algorithmisches Urteil immer ein aliud zu einem menschlichen Urteil sei. Man sollte sich beim Einsatz von Automatisierung nicht an dem früheren Motto von Facebook „move fast and break things“ orientieren, denn niemand möchte als Versuchskaninchen herhalten müssen.

In der Fragerunde wurde die Idee der gemeinsamen Nutzung von KI als Lösung zur Waffengleichheit der Verfahrensbeteiligten aufgegriffen („KI im Sinne eines öffentlichen Gutes“), der Datenschutz thematisiert und ein Blick auf den Einsatz von Automatisierungslösungen in den Niederlanden geworfen.

Den Abschluss des Abends bildete eine Podiumsdiskussion. Unter Moderation von Dr. Ricarda Schelzke diskutierten Rainer Franosch, Professor Dr. Dr. Eric Hilgendorf, LOStA Markus Hartmann und Roboter Pepper über Pläne zum weiteren Einsatz von KI bei der Strafverfolgung.

Hartmann zufolge stelle die Auswertung von Massendaten ein zentrales Problem dar. KI könne bei der Bildidentifikation und Beweismittelauswertung helfen; da Ermittlungsverfahren sehr lange dauerten, müsse man sich technisch besser aufstellen. Daneben kämen Assistenztools für Staatsanwälte in Betracht.

Franosch betonte, dass bei Grundrechtseingriffen – wie etwa beim Einsatz von Palantir – eine gesetzliche Ermächtigungsgrundlage erforderlich sei; dies sei eine Aufgabe des Gesetzgebers, der nachschärfen müsse. KI-Ergebnisse müssten kritisch überprüft werden, vergleichbar mit externen Sachverständigengutachten. Die KI-Verordnung entfalte zudem Chilling Effects für Strafverfolger.
Hartmann ergänzte, KI sei kein gewöhnliches Technik-Tool, da nunmehr einzelne Datenquellen zusammengeführt würden und dadurch ein neues Aussagegewicht entstehe. Konsens auf dem Podium sei, dass einfache Prozessoptimierungen akzeptabel seien, bei der Schaffung wirklich neuer Fähigkeiten jedoch eine neue Ermächtigungsgrundlage erforderlich werde. Als Vergleich zog Schelzke die Rasterfahndung heran.

Hilgendorf plädierte für autonome technische Systeme und eine Reduzierung von Abhängigkeiten – er verwies auf die Microsoft-Abschaltung beim IGStH als warnendes Beispiel. Er sprach sich für weniger Regulatorik und mehr Raum für technische Entwicklung aus. Dem wurde allerdings entgegengehalten, dass die Systeme von Unternehmen so entwickelt würden, dass sie möglichst häufig genutzt werden sollten. So stehe unter Umständen nicht das objektiv beste, sondern das subjektiv passendste Ergebnis im Mittelpunkt der Betrachtung.

Franosch hielt es für wenig sinnvoll, den Versuch zu unternehmen technische Systeme selbst zu entwickeln. Dafür stünden weder die Kompetenz noch ausreichende Mittel zur Verfügung. Dennoch müsse die Justiz funktionieren, und die bisherigen Leistungen reichten nicht aus; Einzelprojekte der Länder seien keine Lösung – man brauche schnelle, übergreifende Lösungen und dürfe die Mitarbeiterinnen und Mitarbeiter angesichts der technischen Entwicklung im privaten Sektor und der steigenden Datenmengen nicht im Stich lassen.
Hartmann wies darauf hin, dass eingesetzte Systeme unter eigener Kontrolle funktionieren müssten. Bei spezifischen Daten gebe es keine geeigneten Anbieter am Markt, weshalb eigene Kompetenz seitens der Strafverfolgungsbehörden aufgebaut werden müsse; eine Kooperation zwischen Wirtschaft und Justiz sei erforderlich.

Hilgendorf ergänzte den Brussels-Effekt: In den USA entwickelte Software versuche europäischen Regulierungen zu entsprechen, da Europa ein starker Markt sei. Europa sei technisch gut aufgestellt, benötige aber mehr Antrieb; die Entwicklung sei so schnell, dass der Status quo rasch überholt werde. Bürokratische Hemmnisse müssten abgebaut, junge Menschen motiviert und Juristen so ausgebildet werden, dass sie solche Unternehmen nicht einzuhegen versuchten.

Auf die Frage, was aus ihrer Sicht ein Traum- bzw. Horrorszenario mit Blick auf KI bilde, antworteten die Diskutanten wie folgt:
Hartmann: Als Traumszenario nannte er zeitnahe Verfahrensabschlüsse, die qualitativ besser seien als in der Vergangenheit. Das Horrorszenario bestehe darin, dass etablierte Standards der Strafrechtspflege aufgrund von Verfahrensdruck verloren gehen könnten.
Hilgendorf: Die Justiz brauche Wahrheit, Effizienz und Schnelligkeit, wofür moderne Technik notwendig sei. Die Kontrolle über diese Technik müsse jedoch erhalten bleiben – es dürfe keine Abhängigkeit von anderen Ländern oder Systemen entstehen. Sein Horrorszenario sei der Kontrollverlust.
Franosch: Er wünsche sich einen unaufgeregten Umgang mit KI, einen Rechtsrahmen, der gleiche Bedingungen für alle schaffe, schnelle Verfahrenserledigung sowie gleiche Tools für Justizmitarbeiterinnen und -mitarbeiter wie für Außenstehende. Sein Horrorszenario sei rechtliche Faulheit – also dass KI dazu verleite, juristische Sorgfalt zu vernachlässigen.

D. Themenblock 3: Strafrechtliche Verantwortlichkeit und neue Risiken

Dr. Thomas Nuzinger begrüßte die Teilnehmenden zum zweiten Tag der Tagung und stellte die erste Referentin des Tages, Prof. Dr. Victoria Ibold, Lehrstuhl für Strafrecht, Strafprozessrecht, Wirtschaftsstrafrecht und Rechtstheorie an der Universität Passau, vor. Im dritten Themenblock fand ein Perspektivwechsel von „KI als Werkzeug“ hin zu der Frage, „Wer ist schuld?“, wenn durch KI-Systeme strafrechtlich relevante Risiken entstehen, statt.

Frau Prof. Ibold leitete ihren Vortrag mit zwei Fallbeispielen ein. Zunächst gab sie Einblicke darin, wie bei Fällen des „Enkeltricks“ KI eingesetzt und, wie durch eine damit einhergehende erhöhte emotionale Prägung und eine verstärkte Glaubwürdigkeit die Trefferwahrscheinlichkeit erhöht wird, beispielsweise durch Deepfake-Videos. Beim „Enkeltrick“ unterstützt die KI somit die Tatausführung. Als zweites Beispiel ging sie auf die Anklage gegen die Betreiber des Sprachmodells Character AI Technologies ein, der im Zusammenhang mit dem Suizidfall eines Jugendlichen in der USA steht. Die Auswertung des Chat-Protokolls des Jugendlichen zeigte, dass die KI zwar nicht Tatwerkzeug war, allerdings die Suizidgedanken des Jugendlichen ermuntert hatte. Es habe sich dadurch ein Risiko entwickelt, das vom eigentlichen legalen Zweck nicht umfasst und nicht intendiert war. Anders als bei ChatGPT gab es keine Fehlermeldung beim Thema Suizid. Aus den beiden Fallbeispielen entwickelte Frau Prof. Ibold die Frage, ob es sich dabei um eine Fallgruppe der strafrechtlichen Produktverantwortung handeln könnte. Weiter ging Frau Prof. Ibold auf die zugrundeliegende Technik ein. Sie führte aus, dass das maschinelle Lernen, also das Lernen durch Erfahrung in Form von Daten, maßgeblich für die Funktionsweise eines LLMs sei. Dadurch entwickle das Sprachmodell die statistisch wahrscheinlichste Antwort, die allerdings nicht zwingend auch die richtige Antwort sein müsse. Die Wahrscheinlichkeit bestimme sich nach dem zugrundeliegenden Datensatz. Zur Veranschaulichung der Auswirkungen von dem zugrundeliegenden Datensatz auf das spätere Ergebnis zeigte sie, dass ein Bild eines Robo-Richters eine Perücke trägt, wie in den USA bei Richtern üblich. Weiter ging sie auf zwei Problempunkte im Zusammenhang mit LLMs ein: das Black box problem und die technische Autonomie. Das Black box problem sage aus, dass ein Transformationsprozess nicht mehr nachvollziehbar und der Output nicht mehr erklärbar sei. Das technische Können gehe insoweit weiter als das technische Verstehen. Die Problematik der technischen Autonomie beschreibe das Phänomen, dass klassischerweise ein Programmierer festlege, wie aus X ein Y wird. Durch den Einsatz von Sprachmodellen sei jedoch der Mensch nicht mehr im Zentrum der technischen Entwicklung. Dadurch seien technische Systeme weniger gut verstehbar und auch weniger gut vorhersehbar. Dies zeige sich insbesondere beim Bilderprompting: So könne ein und derselbe Prompt zu unterschiedlichen Bildern führen. Frau Prof. Ibold schloss den Abschnitt ihres Vortrages mit der Frage ab, ob es sich dabei um neue Risiken handle, die ein neues Strafrecht benötigen würde oder ob es sich um Fälle der (klassischen) strafrechtlichen Produkthaftung handle. Dies stellte einen Übergang zu dem zweiten großen Themenblock dar, in dem Frau Prof. Ibold äußerst anschaulich auf die drei leading cases der strafrechtlichen Produktverantwortung, Contergan LG Aachen 1971, Lederspray BGH 1990, Holzschutzmittel BGH, 1995, einging. Dabei äußerte sie, dass es sich bei den Fällen im Vergleich zu Fällen der zivilrechtlichen Produkthaftung nicht unbedingt um Erfolgsgeschichten handle, gerade hinsichtlich der Festlegung von Sanktionen. Aus dem historischen Abriss entwickelte Frau Prof. Ibold vier relevante normative Fragestellungen für die klassischen Fälle der strafrechtlichen Produkthaftung:

  1. generelle Kausalität,
  2. Abgrenzung erlaubtes Risiko-Sorgfaltspflichtverletzung,
  3. Kausalität von Gremienentscheidung und
  4. Pflichtwidrigkeitszusammenhang.

Daraus leitete sie wiederum drei Eigenschaften für Fälle mit KI-Bezug ab:

  1. Technische Komplexität,
  2. Rechtliche Komplexität (Grundrechtlich geschütztes Interesse der Produktvertreiber vs. Verbraucherinteresse) und
  3. Personelle Komplexität (klassisches Element in Fällen der Unternehmenskriminalität).

Diese drei Eigenschaften wendete sie dann auf zwei Fallbeispiele an und ging der Frage nach, wo bei der Prüfung die technische und die rechtliche Komplexität jeweils verortbar sei. Als Fallbeispiele dienten ihr der Fall des Sprachmodells Character AI aus ihrer Einführung sowie ein fiktives Beispiel im Bereich des autonomen Fahrens.

Zuletzt stellte Frau Prof. Dr. Ibold die Rechtslage de lege lata vor. Anhand ihres Vortrags zeigte sie auf, dass die Komplexität der Fälle mit einem hohen Verantwortungsrisiko einhergehe, während die Sanktionswahrscheinlichkeit aufgrund der rechtlichen Rahmenbedingungen gering sei.

Ob die KI selbst als Verantwortlicher innerhalb des Strafrechts gelten könne, stelle für sie eine zutiefst philosophische Frage dar. Dabei stelle sich zunächst die Frage, was in Abgrenzung zu künstlicher Intelligenz überhaupt menschliche Intelligenz sei. Während der Mensch stark individuell geprägt und durch ein nicht-imitieren-Können gekennzeichnet sei, bediene sich die KI einer statistischen Musterkennung ohne echtes Verständnis. Zudem richte sich unsere Rechtsordnung an Menschen mit dem allgegenwärtigen Bezugspunkt der Menschenwürde. Demnach müsse es sich bei einer strafrechtlichen Verantwortung auch um eine menschliche Verantwortung handeln. Eine KI als Verantwortlicher sei damit fernliegend.

Frau Prof. Ibold schloss ihren Vortrag mit der Frage ab, ob daher ein neues Strafrecht geschaffen werden müsse. Anstelle eines neuen Strafrechts plädierte sie für eine kollektive statt einer individuellen Verantwortung. Angelehnt an das Zitat von Winfried Hassemer (Produktverantwortung im modernen Strafrecht, 1996, S. 23) „ Im Rahmen der „rechtliche[n] Ausgestaltung der Produktberreschung […] wird auch das Strafrecht seinen Platz haben. Er wird schmal sein.“, sehe sie die Produktverantwortung stärker im Spielfeld des Zivilrechts. Man könne nicht überall mitspielen, insbesondere sei das Strafrecht als ultima ratio nicht immer die richtige Lösung.

In der anschließenden Fragerunde wurde diskutiert, ob Robo-Richter, etwa die aus dem Vortrag von Dr. Martin Seelmann und MLaw Colin Carter, über solche KI-Fälle entscheiden könnten und, ob im Suizidfall des Jugendlichen auch eine Mitverantwortung der Eltern bei der Nutzung von Sprachmodellen bestehe. Zudem wurde der Unterschied zwischen den USA und der EU thematisiert.

Dr. Kerstin Waxnegger ging der Frage nach, ob angesichts neuer Risiken durch generative und „agentic“ KI neue Straftatbestände erforderlich seien. KI schaffe grundlegend neue Risiken, auf die das bestehende Strafrecht nur unzureichend vorbereitet sei. Als zentrale Gefährdungslagen nannte Waxnegger Täuschungen durch Deepfakes und KI-generierte Falschinhalte, den Einsatz von KI als Skalierungswerkzeug für Finanzbetrug sowie die Manipulation von Märkten und Wahlen durch Bots. Hinzu träten teilautonome Systeme mit Gefährdungspotenzial etwa in den Bereichen Mobilität, Medizin und kritischer Infrastruktur.

Das bestehende Recht stelle sich dabei vor allem vier Fragen: Wer sei verantwortlich für KI-basierte Entscheidungen? Wie seien Sorgfalts- und Garantenpflichten zu definieren? Wie gehe man mit der Verantwortungsdiffusion bei arbeitsteiligen und autonomen Prozessen um? Und wie ließen sich Ergebnisse von Black-Box-Modellen gerichtsfest nachweisen und nachvollziehen?

Hinsichtlich einer strafrechtlichen Gefährdungsverantwortung sei denkbar, dass das Inverkehrbringen oder Betreiben von KI strafbar sein könnte, wenn dadurch kausal ein Schaden verursacht werde – unabhängig von Vorsatz oder Fahrlässigkeit. Zurechnungsgrund wäre allein das Risiko, das Hersteller oder Betreiber schufen und beherrschten.

Als konkretes Beispiel neuer Tatbestände diskutierte Waxnegger den Entwurf eines § 201b StGB zur Strafbarkeit von Deepfakes. Dieser solle die Verletzung von Persönlichkeitsrechten durch das Zugänglichmachen KI-generierter täuschend echter Bild- oder Tonaufnahmen mit Freiheitsstrafe bis zu zwei Jahren oder Geldstrafe sanktionieren. Für diesen Ansatz spreche die Schließung bestehender Schutzlücken sowie Abschreckung und Prävention; dagegen stünden eine unbestimmte Formulierung, die Gefahr der Überkriminalisierung sowie praktische Durchsetzungsprobleme, da Täter im Internet oft anonym blieben.

Als Fazit hielt Waxnegger fest, KI stelle das Strafrecht vor neue Herausforderungen, denen mit einer Überprüfung bestehender Konzepte und Normen begegnet werden müsse. Etwaige Anpassungen des Strafrechts sollten so eng und technologieneutral wie möglich gefasst sein.

Den letzten fachlichen Beitrag brachte Herr LOStA Thomas Goger, Stellvertretender Leiter der Zentralstelle Cybercrime Bayern (ZCB) bei der Generalstaatsanwaltschaft Bamberg, zum Thema „GenAI – Angriffsfläche und Angriffsvektor auch für Straftaten“ ein. Er begann seinen Vortrag mit einer Vorstellung der Zentralstelle Cybercrime Bayern. Er verwies darauf, dass die technologische Entwicklung im Bereich der Cyberkriminalität rasant verlaufe. Es bestehe allerdings eine Diskrepanz zwischen Regulierung und technologischer Realität. Konsequenz daraus sei, dass oftmals Spiegelgefechte geführt werden würden. Herr LOStA Thomas Goger gab spannende Einblicke in die Themengebiete seiner täglichen Arbeit. Dazu gehörte etwa der Umgang von KI mit Safety Training. Während manche Modelle auf bestimmte Fragen, wie etwa im Zusammenhang mit dem Nationalsozialismus, mit Disclaimern reagieren, werde im kriminellen Bereich bei der Nutzung von Sprachmodellen zielgerichtet auf Safety-Trainings verzichtet. Entweder, indem lokale Sprachmodelle ohne Safety Training aufgesetzt werden oder, indem bei Modellen wie Llama 2 das Safety Training abtrainiert werde. Im Weiteren ging Herr LOStA Thomas Goger auf relevante technische Herausforderungen ein. Hervorgehoben wurde dabei Halluzinationen von Modellen, etwa durch das Treffen von falschen Abwägungen oder das bewusste Lügen, und die Vergiftung von Trainingsdaten. Letzteres zeigt sich beispielsweise konkret am Beispiel des Ukrainekrieges: es werden gezielt bestimmte Narrative in Datenströme eingeschleust, um die Sprachmodelle und damit die sich daraus ergebenen Ergebnisse zu manipulieren. Des weiteren wurden eindrücklich aktuelle Bedrohungsszenarien durch generative KI dargestellt. Dazu gehören:

  • Phising und Social Engineering
  • Ransomware und Malware
  • Vibe Coding
  • Prompt Injection
  • Agentic AI und MCP-Protokolle
  • Generierte Bilder als Beweismittel

Abschließend betonte Herr LOStA Thomas Goger den sich aus seinen Ausführungen ergebenen Regulierungsbedarf, insbesondere auch hinsichtlich des Jugendschutzes. Es bestehe eine Strafbarkeitslücke, im Besonderen angesichts einer etwaigen Beihilfe durch die Plattformbetreiber. Herr LOStA Thomas Goger forderte daher auf, diese Strafbarkeitslücke zu schließen.

In der Fragerunde, die von Frau Milena Piel moderiert wurde, wurde die internationale Zusammenarbeit bei der Bekämpfung von Cyberkriminalität diskutiert. Als Beispiel wurden die Scam Compounds in Asien angeführt. Zudem wurde thematisiert, wie Plattformbetreiber auf pornografische Inhalte mit Kindern reagieren.

Herr Thomas Nuzinger schloss die Tagung mit acht pointierten Erkenntnissen aus den Vorträgen und Diskussionen ab:

  1. KI bietet faszinierende Einsatzmöglichkeiten über alle Bereiche hinweg, von der Bank bis hin zur Landesmedienaufsicht
  2. Probleme, Bias und Halluzinationen sind den Akteuren bekannt und es besteht insoweit kein blinder KI-Glaube
  3. Risiko: Ist es denn immer besser, wenn alles schneller geht? Ein Prozess muss menschlich intuitiv sein. Ein Schriftsatz kommt nur dann zustande optimal, wenn man sich dem Sachverhalt über eine iterative Schleife annähert.
  4. Problematik: KI übernimmt nicht unbedingt die Weltherrschaft, aber die dahinterstehenden Player
  5. Früher ging man davon aus, dass die großen KI-Modelle bei entsprechend großen Unternehmen erstellt werden würden. Die Realität ist aber eine andere: Hacker können in ihrer eigenen kleinen Garage jederzeit eine KI erstellen. Deshalb: Warum soll Herr Hartmann das nicht auch hinbekommen? Dadurch entstünde eine Waffengleichheit, ein echter Silberstreif.
  6. Der Einsatz von KI im Strafrecht ist keine Science fiction. Insbesondere das Wirtschaftsstrafrecht ist davon betroffen.
  7. Auch wenn es keine Lösungen für alle Probleme gibt, sind wir wenigstens sensibilisiert, dass es sie gibt.
  8. Aus den Vorträgen lässt sich ableiten, dass wir das strafrechtliche Rüstzeug bereits haben. Das Feintuning und die Anpassung gehört nun zu den Sorgfaltspflichten bei der täglichen Arbeit.

Mit den Worten Kants „Habe Mut, dich deines eigenen Verstandes zu bedienen“, verabschiedete Herr Dr. Nuzinger die Tagungsgäste.

Autorinnen und Autoren

  • Sebastian Wolf
    Sebastian Wolf hat nach Stationen in Freiburg und Lausanne sein Staatsexamen an der Universität Münster abgelegt. Er war mit Mitgründer des Legal-Tech Startups "Read Your Rights". Derzeit promoviert er bei Professor Dr. Hans Kudlich zu einem Thema, welches sich an der Schnittstelle zwischen Compliance und anwaltlichen Berufsrecht bewegt. Zudem ist er wissenschaftlicher Mitarbeiter der Kanzlei Knauer &.
  • Sophia Blum
    Sophia Blum studierte Rechtswissenschaften in Freiburg im Breisgau und Hannover. Bevor sie ihr Referendariat am Oberlandesgericht Zweibrücken antrat, sammelte sie berufliche Erfahrungen in der Geldwäscheprävention sowie im Wirtschafts- und Steuerstrafrecht. Zudem engagiert sie sich beim VFS Hannover.

WiJ

  • Folker Bittmann , Philipp Rhein , Carl von Alten

    WisteV-Stellungnahme zum Referentenentwurf des BMF für ein „Gesetz für mehr Gerechtigkeit durch die Stärkung der Zollverwaltung und die Bekämpfung der Finanzkriminalität“

    Steuerstrafsachen, Zoll- und Verbrauchssteuerstrafsachen

  • Dominik Hotz

    Vermögensabschöpfung bei unternehmensbezogener Umweltkriminalität*

    Produkthaftung, Umwelt, Fahrlässigkeit und Zurechnung

  • Dr. Markus Wollweber

    Zur Unkenntnis der Finanzbehörde bei einer Steuerhinterziehung durch Unterlassen nach § 370 Absatz 1 Nummer 2 AO

    Steuerstrafsachen, Zoll- und Verbrauchssteuerstrafsachen