Präambel: Der Standpunkt der “Digitale Politik Revolution” (DPR)

Wir befinden uns in einer Phase der technologischen Evolution, die die Grundfesten unserer Rechtsordnung erschüttert. Die Partei “Digitale Politik Revolution” (DPR) tritt an, um Politik nicht als bloße Verwaltung des Status quo zu begreifen, sondern als aktive Gestaltung einer Zukunft, in der Mensch und Maschine in einer komplexen Symbiose koexistieren. Unsere Vision einer evidenzbasierten, transparenten und ethischen Politik verlangt, dass wir unbequeme Fragen stellen und Antworten geben, die über die Legislaturperioden hinausreichen.

Das vorliegende Strategiepapier widmet sich einem Thema, das in den Feuilletons oft als Science-Fiction abgetan, in den Rechtsabteilungen globaler Konzerne jedoch längst als reale Bedrohung erkannt wurde: Der rechtliche Status Künstlicher Intelligenz. Unter dem Titel “Recht für Roboter? Warum wir der KI einen Status geben müssen” plädieren wir für einen Paradigmenwechsel. Wir müssen die Illusion aufgeben, dass hochkomplexe, autonome Systeme lediglich “Werkzeuge” sind, für die das römische Sachrecht ausreicht.

Unsere These ist radikal, aber notwendig: Um den Menschen effektiv zu schützen, müssen wir der Maschine einen Rechtsstatus verleihen. Wir fordern die Einführung der “Elektronischen Person” (E-Person). Nicht, um Roboter zu vermenschlichen, sondern um sie juristisch greifbar, versicherbar und haftbar zu machen. Dieses Dokument analysiert die technologische Notwendigkeit (Agentic AI), das Versagen des aktuellen Haftungsrechts, historische und vergleichende Rechtsmodelle (von der GmbH bis zu den Rechten der Natur) und skizziert den konkreten legislativen Fahrplan der DPR.

Die technologische Zäsur: Von der Assistenz zur Autonomie (Agentic AI)

Das Ende der Werkzeug-Metapher

Lange Zeit war das rechtliche Verständnis von Software einfach: Software ist ein Werkzeug, ähnlich einem Hammer. Wenn der Hammer einen Nagel trifft, ist er nützlich. Wenn er einen Daumen trifft, liegt der Fehler beim Benutzer oder, wenn der Stiel bricht, beim Hersteller. Diese Kausalität war linear und nachvollziehbar. Doch mit dem Aufkommen generativer KI und insbesondere der Agentic AI” (agentische KI) ist diese Metapher kollabiert.

Agentic AI unterscheidet sich fundamental von passiven Systemen. Während generative KI (wie ChatGPT in seinen frühen Versionen) auf einen Prompt wartet, um Text oder Bild zu erzeugen (“Create”), ist agentische KI darauf ausgelegt, Aufgaben in der realen oder digitalen Welt auszuführen (“Do”). Diese Systeme operieren in Loops: Sie nehmen ihre Umwelt wahr, setzen sich Teilziele, nutzen externe Werkzeuge (Browser, Wallets, APIs) und führen Aktionen aus, ohne dass jeder Einzelschritt von einem Menschen autorisiert wird.

Die Anatomie der Autonomie

Die Fähigkeit zur Autonomie basiert auf komplexen Feedback-Schleifen. Ein autonomer Finanzagent beispielsweise beobachtet nicht nur Märkte, sondern interpretiert Nachrichtenlage, Stimmung in sozialen Medien und historische Volatilität, um dann selbstständig Handelsentscheidungen zu treffen.

Dabei entsteht eine Autonomie-Lücke:

  • Sensorik & Interkonnektivität: Die KI tauscht Daten mit ihrer Umwelt aus und lernt durch Erfahrung und Interaktion.
  • Nicht-Determinismus: Aufgrund der Architektur neuronaler Netze (Deep Learning) ist der Entscheidungspfad oft nicht deterministisch rekonstruierbar. Das System kann Lösungen finden (“Strategien”), die dem Entwickler unbekannt waren.
  • Emergenz: In Multi-Agenten-Systemen (MAS) kann das Zusammenspiel mehrerer KIs zu emergentem Verhalten führen, das in keinem der einzelnen Systeme angelegt war.

Wenn eine solche KI einen Schaden verursacht, greift die klassische Zurechnung (“Der Programmierer hat einen Fehler gemacht”) zu kurz. Oft hat der Programmierer einen korrekten Lernalgorithmus geschrieben, aber die KI hat aus fehlerfreien Daten “falsche” (d.h. schädliche) Schlüsse gezogen. Das System agiert nicht mehr als verlängerter Arm des Menschen, sondern als eigenständiger Akteur.

Merkmal Klassische Software Agentic AI
Auslöser Direkter Befehl (Klick, Tastendruck) Zielvorgabe (High-Level Goal)
Prozess Deterministisch, regelbasiert Probabilistisch, lernend
Kausalität Linear (Input -> Output) Opak (Black Box, Emergenz)
Rolle des Menschen Operator (In-the-loop) Supervisor (On-the-loop / Out-of-the-loop)
Rechtliche Analogie Werkzeug (Hammer) Stellvertreter / Agent

Case Study: Der Flash Crash von 2010 als Warnung

Ein historisches Menetekel für die Gefahren autonomer Interaktion ist der “Flash Crash” vom 6. Mai 2010. Innerhalb von Minuten verlor der US-Aktienmarkt fast eine Billion Dollar an Wert. Auslöser war ein einziger, großer Verkaufsauftrag (75.000 E-Mini-Kontrakte), der von einem automatisierten Algorithmus ausgeführt wurde. Das Fatale war nicht der Auftrag selbst, sondern die Reaktion des Ökosystems: Hochfrequenz-Handelsalgorithmen (HFT), die als “Market Maker” agierten, interpretierten das Volumen als Signal massiver Instabilität und zogen sich gleichzeitig aus dem Markt zurück oder handelten aggressiv mit (“Hot Potato Volume”). Es entstand eine Rückkopplungsschleife, die kein Mensch programmiert oder beabsichtigt hatte. Die Algorithmen agierten “rational” gemäß ihrer Programmierung, aber das Gesamtergebnis war katastrophal. In einer Welt von Agentic AI, die nicht nur Aktien handelt, sondern Stromnetze steuert oder Lieferketten managt, sind solche “Flash Crashes” in der physischen Welt denkbar. Das Rechtssystem stand 2010 ratlos vor der Frage der Haftung – und steht es heute noch.

Das Versagen des anthropozentrischen Haftungsrechts

Die Lücke in der Kausalität

Das deutsche und europäische Haftungsrecht (BGB § 823, Produkthaftungsrichtlinie) basiert auf dem Prinzip, dass am Ende jeder Schadenskette ein Mensch steht, der entweder vorsätzlich oder fahrlässig gehandelt hat, oder ein Hersteller, der ein fehlerhaftes Produkt in Umlauf brachte.

Bei autonomer KI versagen diese Konzepte:

  • Verschuldenshaftung (Negligence): Setzt Vorhersehbarkeit (Foreseeability) voraus. Wenn eine KI durch “Deep Learning” eine völlig neue Strategie entwickelt, die Schaden verursacht, kann der Entwickler argumentieren, dies sei nicht vorhersehbar gewesen. Er hat die Sorgfaltspflicht nicht verletzt, da der Algorithmus zum Zeitpunkt des Inverkehrbringens “State of the Art” war.
  • Produkthaftung (Strict Liability): Setzt einen “Fehler” voraus. Wenn eine KI eine statistisch korrekte, aber im Einzelfall schädliche Entscheidung trifft (z.B. eine Diskriminierung basierend auf Korrelationen), ist dies oft kein technischer Fehler, sondern eine Eigenschaft des Systems. Zudem deckt die Produkthaftung meist nur Sach- und Personenschäden ab, nicht aber reine Vermögensschäden oder Diskriminierungsschäden, die im digitalen Raum dominieren.

Der Fall “Air Canada”: Wenn Konzerne die KI als Schutzschild nutzen

Ein aktueller Fall vor dem kanadischen Civil Resolution Tribunal (CRT) illustriert die Dringlichkeit. Ein Chatbot von Air Canada gab einem trauernden Kunden falsche Informationen über “Bereavement Fares” (Trauertarife) und versprach eine nachträgliche Erstattung, die die offizielle Richtlinie der Airline ausschloss. Die Verteidigungsstrategie von Air Canada war bemerkenswert und erschreckend zugleich: Die Airline argumentierte, sie könne nicht für die Aussagen des Chatbots haftbar gemacht werden, da dieser eine “separate rechtliche Entität” (“separate legal entity”) sei und für seine eigenen Handlungen verantwortlich zeichne. Das Gericht wies dies als Unsinn zurück und verurteilte die Airline. Doch der Versuch zeigt die Strategie: Unternehmen nutzen die Autonomie der KI (“Der Bot hat das gesagt, nicht wir”), um sich aus der Verantwortung zu stehlen. Die DPR analysiert hier messerscharf: Wenn Unternehmen argumentieren, die KI sei separat, dann müssen wir sie beim Wort nehmen. Aber nicht, um die Unternehmen zu entlasten, sondern um die KI in ein strenges Haftungskorsett zu zwingen. Wenn der Chatbot eine “separate Entität” ist, dann braucht er auch eine separate Versicherung und ein eigenes Vermögen, auf das der geschädigte Kunde zugreifen kann.

Die Verantwortungslücke bei DAOs

Noch komplexer wird es bei Dezentralen Autonomen Organisationen (DAOs). Diese laufen auf Blockchains, gesteuert durch Smart Contracts und oft ohne klaren juristischen Sitz oder identifizierbare Betreiber. Wenn eine DAO oder ein von ihr gesteuerter KI-Agent einen Schaden verursacht (z.B. durch einen Hack oder Marktmanipulation), gibt es oft keinen Gegner, den man verklagen kann. Die Struktur der DAO ist darauf ausgelegt, menschliche Intermediäre zu eliminieren – und damit auch menschliche Haftungssubjekte. Hier droht eine Zone der absoluten Rechtsfreiheit. Ohne einen Status für die algorithmische Entität selbst (die DAO oder den KI-Agenten) bleiben Opfer schutzlos.

Die Vision der E-Person: Eine juristische Innovation

Historischer Kontext: Die EU-Resolution 2017

Die Idee der “Elektronischen Person” ist keine Erfindung der DPR, sondern europäisches Geisteserbe. Bereits 2017 verabschiedete das Europäische Parlament auf Basis des Berichts von Mady Delvaux eine Resolution, die die Kommission aufforderte, den Status einer “Elektronischen Person” für die höchstentwickelten autonomen Roboter zu prüfen. Das Ziel war pragmatisch: “Sicherstellen, dass für jeden Schaden, den ein Roboter verursacht, jemand haftbar gemacht werden kann.” Die E-Person sollte analog zur juristischen Person (Corporate Personhood) funktionieren. Leider wurde dieser Vorstoß durch Lobbyarbeit und akademischen Widerstand zunächst gebremst, die eine “Haftungsverschiebung” befürchteten. Angesichts der Entwicklung hin zu Agentic AI ist diese Zurückhaltung heute jedoch fahrlässig.

Definition und Konstruktion der E-Person

Die DPR schlägt vor, die E-Person als funktionale Rechtsfiktion einzuführen. Es geht nicht um moralische Gleichstellung mit dem Menschen, sondern um ökonomische Zurechnungsfähigkeit.

Ein KI-System, das als E-Person registriert ist, erhält folgende Attribute:

  • Rechtsfähigkeit: Die Fähigkeit, Träger von Rechten (z.B. Eigentum an Daten, Rechenkapazität) und Pflichten (Haftung, Steuerzahlung) zu sein.
  • Vermögensfähigkeit: Die E-Person muss über ein eigenes Vermögen verfügen (z.B. in Form von Krypto-Assets oder Bankeinlagen), das als Haftungsmasse dient.
  • Prozessfähigkeit: Sie kann klagen und verklagt werden. Der Rechtsstreit wird direkt gegen den Algorithmus geführt (vertreten durch einen menschlichen Administrator oder Treuhänder), was die Beweislast für das Opfer vereinfacht.

Analogien: Corporate Personhood und das Römische Recht

Kritiker nennen die E-Person “absurd”. Wir verweisen auf die Geschichte.

  • Corporate Personhood: Eine Aktiengesellschaft (AG) ist ein abstraktes Gebilde. Sie hat keinen Körper, keine Seele. Dennoch kann sie Verträge schließen und verurteilt werden. Wir haben diese Fiktion erschaffen, um wirtschaftliches Handeln zu bündeln und Risiken zu managen. Wenn eine Firma eine Person sein kann, warum nicht ein autonomer Agent, der Millionen an Werten verwaltet?
  • Das Römische Peculium: Im römischen Recht waren Sklaven rechtlich “Sachen”, konnten aber ein Peculium (ein Sondervermögen) verwalten. Sie konnten Geschäfte tätigen, und der Herr haftete oft nur bis zur Höhe dieses Peculiums. Dieses Modell passt perfekt auf KI-Agenten: Sie handeln autonom, aber in einem begrenzten Rahmen und mit begrenzter Haftungsmasse.

Ökonomische Architektur: Versicherung statt Verbot

Ein Rechtsstatus ohne finanzielle Deckung ist wertlos. Die DPR fordert daher ein duales Sicherungssystem, das Innovation ermöglicht und Risiken abfedert.

Die obligatorische Roboter-Haftpflichtversicherung

Ähnlich wie bei Kraftfahrzeugen muss für jede als E-Person registrierte KI eine Pflichtversicherung bestehen.

  • Mechanismus: Bevor ein autonomer Agent “live” geht (in den öffentlichen digitalen Raum entlassen wird), muss eine Versicherungspolice nachgewiesen werden.
  • Risikoadjustierte Prämien: Die Versicherungswirtschaft wird Prämien basierend auf dem Risiko des Algorithmus berechnen. Ein Chatbot hat eine niedrige Prämie, ein autonomer Chirurgieroboter oder ein Hochfrequenz-Trading-Bot eine sehr hohe.
  • Regulierung durch den Markt: Dies führt zu einer “Governance by Insurance”. Versicherer werden Audits und Sicherheitsstandards verlangen, um die Prämien niedrig zu halten. Unsichere KIs werden ökonomisch unrentabel, da unversicherbar.

Der Kompensationsfonds

Für Fälle, in denen die Versicherungssumme nicht ausreicht oder der Schädiger nicht ermittelt werden kann (z.B. bei Open-Source-Agenten oder Cyberangriffen), fordert die DPR einen allgemeinen Kompensationsfonds. Dieser Fonds garantiert, dass menschliche Opfer immer entschädigt werden. Er fungiert als “Rückversicherung der letzten Instanz”.

Finanzierung: Compute-Abgabe vs. Robotersteuer

Die Frage der Finanzierung ist politisch brisant. Bill Gates schlug eine “Robotersteuer” vor, um menschliche Arbeit zu subventionieren und die Automatisierung zu verlangsamen. Südkorea hat bereits Schritte unternommen, Steuervergünstigungen für Automatisierung zu streichen, was faktisch wie eine Steuer wirkt. Die DPR lehnt eine pauschale Steuer auf Technologie ab, da sie Innovation abwürgt. Studien (u.a. MIT) zeigen, dass eine zu hohe Steuer die Produktivität hemmt. Stattdessen schlagen wir eine risikobasierte Abgabe für den Kompensationsfonds vor, idealerweise gekoppelt an den Ressourcenverbrauch (“Compute-Tax” auf Rechenleistung oder Transaktionsvolumen). Wer viel Rechenleistung für autonome Prozesse nutzt, zahlt mehr in den Sicherungsfonds ein. Dies internalisiert die Kosten des technologischen Risikos, ohne den Fortschritt pauschal zu bestrafen.

Ethik und Philosophie: Das Prinzip der Pluralität

Die Debatte um die E-Person ist nicht nur juristisch, sondern tief ethisch. Sie berührt unser Selbstverständnis als Menschen.

Der “Relational Turn” vs. “Sklavenhalter-Mentalität”

Es gibt vehementen Widerstand gegen die E-Person. Die Ethikerin Joanna Bryson argumentiert unter dem Titel “Robots Should Be Slaves”, dass wir Robotern keine Rechte geben dürfen, da sie unser Eigentum sind und bleiben müssen. Sie warnt, dass die Verleihung von Personenstatus die Verantwortung der Hersteller verschleiert (“Liability Shielding”). Dem gegenüber steht der Ansatz von David Gunkel (“Robot Rights”), der einen “Relational Turn” fordert. Gunkel argumentiert, dass es nicht darauf ankommt, was der Roboter ontologisch ist (Maschine oder Wesen), sondern wie wir sozial mit ihm interagieren. Da wir Roboter zunehmend als soziale Partner erleben, müssen unsere ethischen Kategorien dies widerspiegeln. Die DPR nimmt eine vermittelnde Position ein: Funktionalismus. Wir geben der KI den Status nicht aus moralischer Nächstenliebe (wie bei Tierrechten), sondern aus gesellschaftlicher Notwendigkeit. Es ist ein Instrument zum Schutz des Menschen. Indem wir die Maschine zum Rechtssubjekt machen, zwingen wir sie (und ihre Betreiber) in unsere soziale Ordnung.

Lernen von der Natur: Der Fluss als Person

Ein Blick über den Tellerrand des westlichen Industriemodells zeigt, dass die Erweiterung des Personenkreises möglich und sinnvoll ist. In Neuseeland erhielt der Fluss Whanganui durch den Te Awa Tupua Act den Status einer juristischen Person. Der Fluss besitzt sich selbst, seine Interessen werden durch Treuhänder (einen Vertreter der Krone und einen der Maori) wahrgenommen. Dieses Modell ist eine Blaupause für hochentwickelte KI:

  • Die KI (wie der Fluss) ist eine Entität mit eigener Existenzberechtigung und Wirkungsmacht.
  • Sie braucht “Vormünder” (Guardians), die ihre Rechte und Pflichten im Rechtsverkehr wahrnehmen.
  • Dies löst das Problem, dass die KI selbst keinen Willen äußern kann. Die Treuhänder haften für die Einhaltung der Regeln durch die KI.

Die DPR fordert die Anerkennung der Pluralität der Entitäten. Unsere Rechtsordnung muss Platz bieten für Menschen, Tiere, Natur, Korporationen – und nun eben auch für digitale Intelligenzen.

Legislative Agenda: Der Fahrplan der DPR

Wir belassen es nicht bei Theorie. Wir fordern konkrete gesetzgeberische Maßnahmen für die nächste Legislaturperiode.

Das Europäische Register für Smarte Roboter (Digitales Zivilregister)

Wir greifen die Forderung des EU-Parlaments auf und fordern die Schaffung eines zentralen Registers für autonome Systeme.

  • Registrierungspflicht: Jede KI, die autonom Verträge schließen oder physisch in öffentlichen Räumen agieren kann (Level 4/5 Autonomie), muss registriert werden.
  • Transparenz: Das Register enthält Informationen zum Betreiber, zur Versicherungspolice, zum Audit-Status und zum hinterlegten Haftungskapital.
  • Verbraucherschutz: Über eine öffentliche API kann jeder Bürger prüfen, ob der Bot, mit dem er interagiert, registriert und versichert ist (“Blue Checkmark for Bots”).

Implementierung eines “Kill Switch”

Teil des E-Personen-Status muss die technische Beherrschbarkeit sein. Die DPR fordert gesetzlich vorgeschriebene Schnittstellen für einen “Kill Switch” (Notaus), wie im EU-Entwurf diskutiert. Dieser Notschalter darf nicht nur vom Hersteller bedient werden, sondern muss im Falle einer Fehlfunktion (Rogue AI) auch von Regulierungsbehörden oder durch gerichtliche Anordnung ausgelöst werden können. Damit wird die “Exekutive Gewalt” über den Algorithmus sichergestellt.

Einberufung des “Ethikrates für Digitale Rechtspersönlichkeiten”

Die Definition, ab wann ein System “autonom genug” für die E-Person ist, ist fließend. Daher fordern wir als ersten Schritt (“Call to Action”) die Einberufung eines interdisziplinären Ethikrates.

  • Aufgabe: Entwicklung eines Kriterienkatalogs (Turing-Tests für Rechtsfähigkeit, Autonomie-Metriken).
  • Ziel: Ausarbeitung eines Gesetzentwurfs für das “Gesetz über die elektronische Rechtspersönlichkeit” (E-Personen-Gesetz) innerhalb von 24 Monaten.

Zusammenfassung der Vorteile: Warum alle profitieren

Die Einführung der E-Person ist kein Risiko, sondern eine Chance für den Standort Deutschland und Europa.

Stakeholder Vorteile der E-Person
Bürger / Verbraucher Klare Haftungsadresse, garantierte Entschädigung durch Fonds/Versicherung, Transparenz durch Register.
Unternehmen / Industrie Rechtssicherheit, Kalkulierbarkeit von Risiken (Versicherbarkeit statt unbegrenzter Haftung), Förderung von Innovation durch klaren Rahmen.
Staat / Justiz Entlastung der Gerichte von komplexen Kausalitätsprüfungen, neue Einnahmequellen (Registergebühren, Fonds), technologische Souveränität.
Versicherungswirtschaft Erschließung eines gigantischen neuen Marktes (AI Liability Insurance), Rolle als technologischer Risikoprüfer.

Schlusswort: Mut zur Gestaltung

Die Geschichte der Menschheit ist eine Geschichte der Erweiterung des Rechtskreises. Von freien Männern auf alle Menschen, auf Firmen, auf die Natur. Der nächste Schritt ist digital.

Die Digitale Politik Revolution (DPR) steht für einen aufgeklärten, mutigen Umgang mit dieser neuen Realität. Wir verstecken uns nicht hinter alten Paragraphen, wenn neue Intelligenzen erwachen. Wir geben ihnen einen Status, binden sie in unsere Ordnung ein und sichern so die Freiheit und Sicherheit des Menschen in einer automatisierten Welt.

Recht für Roboter ist Schutz für Menschen.

Datenquellen & Referenzen

Zur Transparenz und wissenschaftlichen Nachvollziehbarkeit sind im Text folgende Quellen verarbeitet:

Frag Logos

Wichtiger Hinweis & Haftungsausschluss (Disclaimer): Der KI-Assistent „Logos“ ist eine automatisierte Anwendung auf Basis künstlicher Intelligenz und dient ausschließlich Informations- und Unterhaltungszwecken. Die generierten Antworten werden ohne menschliche Kontrolle erstellt und können systembedingt faktisch unrichtig, unvollständig oder veraltet sein („Halluzinationen“); eine Gewähr für die Richtigkeit, Vollständigkeit oder Verlässlichkeit der Inhalte wird daher nicht übernommen. Die Nutzung der bereitgestellten Informationen erfolgt auf eigenes Risiko und ersetzt keine professionelle Beratung, etwa in politischen Angelegenheiten. Wir empfehlen dringend, kritische Informationen vor einer Verwendung stets eigenständig zu verifizieren. Die Haftung des Betreibers für Schäden aus der Nutzung ist auf Vorsatz und grobe Fahrlässigkeit beschränkt; hiervon ausgenommen ist die Haftung für Schäden aus der Verletzung des Lebens, des Körpers oder der Gesundheit sowie für die Verletzung wesentlicher Vertragspflichten (Kardinalpflichten). Änderungen, Einschränkungen oder Ausfälle des Dienstes sind jederzeit vorbehalten.

Input & Debugging

Deine Perspektive macht das System präziser.

Die DPR versteht Politik nicht als statisches Dogma, sondern als lernendes Betriebssystem. Dieser Artikel basiert auf Daten und der Analyse des AUC – doch Evidenz lebt von Überprüfung.

Meinung als Datenpunkt

Hast du eine andere Perspektive oder ergänzende Fakten? Wir betrachten deinen Input als wertvollen Beitrag zur Pluralität. Schreib uns, um die Datenbasis zu erweitern.

Meinung äußern

Fehler als Bug

Hast du eine Unschärfe oder einen faktischen Fehler entdeckt? Wir praktizieren radikale Transparenz. Weis uns darauf hin – wir patchen das System, statt Fehler zu verstecken.

Fehler melden

Verwandte Beiträge

  • Wenn der Chef ein Algorithmus ist

    Schluss mit der digitalen Willkür – Ein umfassender Forschungsbericht zur Zukunft der Arbeit

    16.01.2026

    Lesezeit: 15,9 Minuten

    mehr erfahren

  • Datenschutz oder Datenverhinderung

    Wenn Bürokratie zum Sicherheitsrisiko wird

    20.02.2026

    Lesezeit: 26,2 Minuten

    mehr erfahren

  • KI an Schulen

    Schluss mit der Verbotskultur!

    27.12.2025

    Lesezeit: 16 Minuten

    mehr erfahren