TitelFundstelle
Riehm: Nein zur ePerson!RDi 2020, 42

Nein zur ePerson!

Gegen die Anerkennung einer digitalen Rechtspersönlichkeit

Prof. Dr. Thomas Riehm zur Fussnote *

Seit über zehn Jahren schon wird in Rechtswissenschaft und Politik diskutiert, ob Systeme Künstlicher Intelligenz als rechtsfähige digitale Rechtssubjekte („ePerson“) behandelt werden sollen. Der nachfolgende Beitrag untersucht diese Frage im Hinblick auf die Zuerkennung zivilrechtlicher Rechtsfähigkeit an KI-Systeme und gelangt zu dem Ergebnis, dass dies weder de lege lata möglich noch de lege ferenda wünschenswert ist.

I. Einleitung

1Die Vorstellung einer „digitalen Rechtspersönlichkeit“ ist beinahe so alt wie die Vorstellung von künstlicher Intelligenz selbst: Schon die „Robotergesetze“ des Science-Fiction-Autors Isaac Asimov zur Fussnote 1 aus dem Jahr 1950 sahen die Roboter selbst als Adressaten, also als Träger von Rechten und Pflichten, mithin als rechtsfähige Rechtssubjekte – nicht etwa die Menschen, die die Roboter konstruieren oder betreiben. Was als Vorstellung in der Science-Fiction anfing, wird seit über zehn Jahren auch in der Rechtswissenschaft und in der Politik diskutiert – z. T. de lege ferenda zur Fussnote 2, z. T. sogar de lege lata. zur Fussnote 3

2Anfang 2017 hat sogar das Europäische Parlament vorgeschlagen, „langfristig einen speziellen rechtlichen Status für Roboter zu schaffen, damit zumindest für die ausgeklügelten autonome Roboter ein Status als elektronische Person festgelegt werden könnte, die für den Ausgleich sämtlicher von ihr verursachten Schäden verantwortlich wäre […].“ zur Fussnote 4 Diese Vorschläge sind allerdings von der Kommission nicht aufgegriffen worden. zur Fussnote 5

3Ein Grund für die Vorstellung einer „ePerson“ dürfte darin liegen, dass KI-Systeme häufig humanoid dargestellt werden, was eine menschenähnliche Behandlung im Recht intuitiv nahelegt. Freilich genügt dies ebenso wenig als Begründung, warum die Rechtsordnung ein derartiges System als rechtsfähig anerkennen sollte, wie der Umstand, dass Menschen für KI-Systeme Empathie empfinden. zur Fussnote 6 Andernfalls müssten selbst Tiere als rechtsfähig angesehen werden, was jedenfalls für die zivilrechtliche Rechtsfähigkeit nicht ernsthaft vertreten wird. Um KI-Systeme als rechtsfähig zu behandeln, bedarf es vielmehr nicht einer empirischen oder moralischen, sondern einer spezifisch rechtlichen Begründung. zur Fussnote 7

4Der vorliegende Beitrag klammert die (rechts)philosophische Diskussion um die „(Rechts)Persönlichkeit“ von KI-Systemen zur Fussnote 8 bewusst ebenso aus wie die Debatte um die verfassungsrechtliche Grundrechts-


Seitenumbruch

Es folgt Seite 43

  • zurück zu Seite 42
  • vorwärts zu Seite 44

Sie befinden sich im Beitrag:Riehm: Nein zur ePerson!(RDi 2020, 42)

fähigkeit zur Fussnote 9 und die Strafmündigkeit, zur Fussnote 10 und behandelt ausschließlich die Frage ihrer zivilrechtlichen Rechtsfähigkeit, also der Fähigkeit, Träger zivilrechtlicher Rechte und Pflichten zu sein und ein Vermögen zu haben. zur Fussnote 11 Diese ist unstreitig unabhängig davon, ob das betreffende Rechtssubjekt ein Mensch ist oder nicht, wie die Existenz juristischer Personen und rechtsfähiger Personengesellschaften belegt. Ebenso unstreitig ist, dass die zivilrechtliche Rechtsfähigkeit nicht apriorisch vorgegeben ist, sondern zur Disposition des Gesetzgebers steht. zur Fussnote 12

II. Ausgangspunkt: Die „Verantwortungslücke“

5Aus zivilrechtlicher Sicht liegt der wesentliche Grund für die Forderung nach der Anerkennung einer digitalen Rechtspersönlichkeit („ePerson“) in der Befürchtung, dass andernfalls eine „Verantwortungslücke“ auftritt. zur Fussnote 13 Diese Befürchtung findet sich sowohl im Vertragsrecht als auch im Haftungsrecht; sie speist sich jeweils aus Erwägungen, welche die Zurechnung des „Verhaltens“ eines KI-Systems zu seinem Betreiber lockern sollen. Begründet wird dies jeweils mit der fehlenden Kontrolle des Betreibers über das System: Diesem solle nicht das „Autonomierisiko“, also das Risiko unvorhersehbarer Handlungen des Systems, zur Fussnote 14 auferlegt werden.

6So finden sich in der Rechtsgeschäftslehre Ansätze, die Erklärungen von KI-Systemen dem Betreiber nicht unmittelbar als eigene Willenserklärungen zuzurechnen, zur Fussnote 15 indem die Systeme entweder als Boten (mit der Anfechtungsmöglichkeit nach § BGB § 120 BGB) oder gar als Stellvertreter i. S. v. §§ BGB § 164 ff. BGB (mit der Möglichkeit einer gegenüber Dritten wirksamen Beschränkung der Vertretungsmacht) zur Fussnote 16 angesehen werden. Im Bereich der außervertraglichen Haftung ergibt sich eine „Verantwortungslücke“ aus einer Anwendung des in § BGB § 823 BGB § 823 Absatz I BGB verankerten Verschuldensprinzips, wonach der Betreiber nur haftet, wenn ihm selbst eine Verkehrspflichtverletzung im Hinblick auf die Überwachung des Systems oder auf die Abwehr der von diesem ausgehenden Gefahren nachgewiesen werden kann. zur Fussnote 17 Je unvorhersehbarer das Verhalten des KI-Systems ist, desto eher scheidet eine solche Verkehrspflichtverletzung aus, eben weil der Betreiber auch das Fehlverhalten nicht vorhersehen konnte. zur Fussnote 18

7Ein Parallelproblem tritt schließlich bei der vertraglichen Schadensersatzhaftung nach §§ BGB § 280 ff. BGB auf, wenn das „Verhalten“ des KI-Systems dem Schuldner nicht nach § BGB § 278 BGB zugerechnet wird: zur Fussnote 19 Auch dann würde eine Haftung des Schuldners ausscheiden, wenn dieser sich im Hinblick auf sein persönliches Verschulden exkulpieren kann (§ BGB § 280 BGB § 280 Absatz I 2 BGB). zur Fussnote 20

8Würde der Betreiber anstelle des KI-Systems Menschen einsetzen, würde jeweils eine Eigenhaftung der Hilfsperson an die Stelle der „Verantwortungslücke“ treten: bei der Stellvertretung zur Fussnote 21 die Haftung des Vertreters ohne Vertretungsmacht (§ BGB § 179 BGB § 179 Absatz I BGB), zur Fussnote 22 bei der deliktischen Haftung die Eigenhaftung des Gehilfen aus § BGB § 823 BGB § 823 Absatz I BGB. Bei der vertraglichen Schadensersatzhaftung würde die „Verantwortungslücke“ wegen der unmittelbaren Zurechnung des Fehlverhaltens der Hilfsperson gem. § BGB § 278 BGB gar nicht erst auftreten. zur Fussnote 23 Erst die Eigenhaftung der Hilfsperson bzw. die Zurechnung über § BGB § 278 BGB machen das System der vertraglichen und außervertraglichen Haftung beim Einsatz menschlicher Hilfspersonen komplett. Die Alternative bestünde darin, das Autonomierisiko dem jeweils betroffenen Dritten – Vertragspartner oder Geschädigter – aufzuerlegen; das kann freilich nicht gewünscht sein.

9Sobald man also KI-Systeme wie autonome Hilfspersonen behandelt und dementsprechend die Zurechnung ihrer „Handlungen“ an den Betreiber lockert, folgt daraus der Bedarf nach einer Eigenhaftung des KI-Systems, welche wiederum dessen Rechtsfähigkeit und die Existenz einer Haftungsmasse voraussetzt. Vor diesem Hintergrund sind die verschiedenen Versuche in der Literatur verständlich, die Rechtsfähigkeit autonomer KI-Systeme zu begründen.


Seitenumbruch

Es folgt Seite 44

  • zurück zu Seite 43
  • vorwärts zu Seite 45

Sie befinden sich im Beitrag:Riehm: Nein zur ePerson!(RDi 2020, 42)

III. Die These von der Rechtsfähigkeit („ePerson“)

1. Rechtsfähigkeit als Lösungsvorschlag

10Zur Schließung dieser Verantwortungslücke wird in der Literatur teilweise vorgeschlagen, KI-Systeme – z. T. nur de lege ferenda zur Fussnote 24, z. T. sogar de lege lata zur Fussnote 25 – als rechtsfähige digitale Rechtspersönlichkeiten („ePerson“) zu betrachten, die über eigenes Vermögen verfügen und selbst Adressaten rechtlicher Pflichten sein können. In der Folge sollen sie für ihre Handlungen selbst haften – anstelle ihrer Betreiber. zur Fussnote 26 Dies wird für das Vertragsrecht zur Fussnote 27 ebenso vorgeschlagen wie im Haftungsrecht. zur Fussnote 28 Ausgangspunkt dieser Überlegungen ist – neben philosophischen zur Fussnote 29 und soziologischen Erwägungen zur Fussnote 30 –, dass KI-Systeme ähnlich wie menschliche Gehilfen im Detail unberechenbar und nicht vollständig kontrollierbar sein können. zur Fussnote 31 Eine konsequente Fortführung der Gleichstellung von KI-Systemen mit menschlichen Gehilfen führt geradewegs zum Postulat ihrer Rechtsfähigkeit, um die vorstehend beschriebene Eigenhaftung des Gehilfen bzw. Stellvertreters realisieren zu können. KI-Systeme würden so zu tauglichen Adressaten von Haftungsnormen und Schuldnern von Schadensersatzansprüchen, die auch über eigenes Haftungsvermögen verfügen könnten.

11Damit ist allerdings zugleich die Frage angesprochen, mit welchem Vermögen eine solche digitale Rechtspersönlichkeit ausgestattet sein sollte. Denn ohne Haftungsmasse ist eine Eigenhaftung des KI-Systems sinnlos. zur Fussnote 32 Selbst wenn die Haftung über eine Pflicht-Haftpflichtversicherung des Systems gelöst werden sollte, zur Fussnote 33 müssten deren Beiträge aus einem Vermögen des Systems finanziert werden. Dementsprechend wären Regeln über die Mindestkapitalausstattung von KI-Systemen erforderlich – die entweder vom Hersteller, vom Verkäufer oder vom Betreiber einzuzahlen wäre, zur Fussnote 34 wirtschaftlich über die Preisgestaltung aber immer letzteren treffen würde.

2. Kritik

12Ein derart radikaler Eingriff in die Grundstrukturen des Privatrechts, wie er mit der Anerkennung einer neuen Art von Rechtssubjekten verbunden ist, setzt allerdings eine umfassende Analyse seiner rechtsdogmatischen Folgewirkungen voraus.

a) Wozu Rechtsfähigkeit?

13Aus zivilrechtlicher Sicht ist die zentrale Funktion der Schaffung eines Rechtssubjekts die Trennung verschiedener Vermögensmassen: Die natürlichen Personen, die die Entität betreiben, werden durch die Anerkennung seiner Rechtsfähigkeit von der Haftung für die Folgen des Handelns dieser Entität befreit – zugunsten der Haftung des Rechtssubjekts. Zweck einer solchen Haftungsbeschränkung ist es üblicherweise, das Eingehen von – gesamtwirtschaftlich erwünschten – Risiken zu fördern, indem diese auf die Gläubiger des Rechtssubjekts abgewälzt werden. zur Fussnote 35 Zudem führt die Anerkennung der Rechtsfähigkeit zu einer Bündelung von Rechten und Pflichten sowie Aktiva und Passiva bei der Entität, sowie dazu, dass sie für die Folgen „ihrer“ (d. h. der ihr zugerechneten) Handlungen auch rechtlich einstehen muss. zur Fussnote 36 Damit ist zugleich sichergestellt, dass Chancen und Risiken eines Verhaltens das gleiche Subjekt treffen, sodass dieses einen Anreiz erhält, sein „Verhalten“ so zu steuern, dass es nur solche Risiken eingeht, denen mindestens gleichwertige Chancen gegenüberstehen.

14Erst dieser Zusammenhang führt auch dazu, dass das Rechtssubjekt für die Rechtsordnung steuerbar wird, weil es dann die Konsequenzen eines Verstoßes selbst tragen muss: Im Wege der Haftung für rechtswidrig verursachte Schäden sowie ggfs. auch im Wege von Bußgeldern oder Geldstrafen. Aus zivilrechtlicher Sicht ist die Vermögenshaftung für verursachte Schäden die zentrale Voraussetzung für eine Verhaltenssteuerung mithilfe des Haftungsrechts.

b) Abgrenzungsprobleme

15Die Anerkennung von KI-Systemen als rechtsfähig setzt voraus, dass sie eindeutig identifizierbar sind: Jedes Rechtssubjekt muss nach außen als solches erkennbar


Seitenumbruch

Es folgt Seite 45

  • zurück zu Seite 44
  • vorwärts zu Seite 46

Sie befinden sich im Beitrag:Riehm: Nein zur ePerson!(RDi 2020, 42)

sein. zur Fussnote 37 Diese Abgrenzung ist zum einen formeller Natur – also die Identifikation eines konkreten Subjekts und seine Unterscheidung von anderen Subjekten–, und zum anderen materieller Natur – also die Unterscheidung von KI-Systemen von anderen, nicht rechtsfähigen Programmen oder Geräten.

16Bereits die formelle Abgrenzung stößt auf Schwierigkeiten. zur Fussnote 38 Zwar könnten KI-Systeme mit einer konkreten Verkörperung (Fahrzeuge, physische Roboter o. Ä.) anhand ihrer Körperlichkeit identifiziert werden: ein Gerät, ein Rechtssubjekt. Das wird allerdings schon zweifelhaft, wenn in einem Gerät mehrere autonome Subsysteme aktiv sind, oder wenn sich autonome Kleinroboter zu vernetzten „Roboterschwärmen“ zusammenschließen. Wenn aber KI-Systeme ohne physische Repräsentation betroffen sind (Handelsalgorithmen an der Börse, Internet-Suchmaschinen o. Ä.), ist eine solche körperliche Zuordnung ausgeschlossen, weil die Algorithmen nicht einer konkreten Hardware zugeordnet werden können. Dann müsste geklärt werden, ob der Algorithmus selbst oder eine konkret gestartete Instanz davon als rechtsfähig angesehen werden soll. zur Fussnote 39 Plakativ gefragt: Wie viele „Siris“ existieren? – Auf jedem Handy eine eigene, für jeden Nutzer eine eigene, oder eine zentrale?

17Praktisch dürfte dieses formelle Abgrenzungsproblem nur mit einem Register nach dem Vorbild des Gesellschaftsrechts lösbar sein. zur Fussnote 40 Wegen der großen Dynamik der Entwicklung von KI-Systemen müsste dies sinnvollerweise im Rahmen einer Blockchain dezentral organisiert werden, wo einem System je ein eigenes „wallet“ für sein Vermögen zugeordnet werden könnte. Die Eintragung in der Blockchain müsste dabei konstitutiv ausgestaltet werden, sodass die Betreiber nur dann von einer Haftungsbeschränkung profitieren können, dieses eingetragen ist. zur Fussnote 41 Mit dieser Maßgabe erscheint das formelle Abgrenzungsproblem zumindest theoretisch teilweise lösbar, auch wenn die praktischen Herausforderungen eines solchen – sinnvollerweise überstaatlichen – Registers erheblich erscheinen.

18In materieller Hinsicht sind diejenigen Systeme zu identifizieren, die hinreichend „autonom“ sind, um die Zuerkennung von Rechtsfähigkeit zu rechtfertigen. Bei vorhersehbaren deterministischen Algorithmen fehlt es schon an einer „Verantwortungslücke“, die durch die Anerkennung als Rechtssubjekt geschlossen werden könnte. Schließlich soll nicht jeder Taschenrechner – der auch eine einfache Form künstlicher Intelligenz darstellt zur Fussnote 42 – durch Eintragung in ein Register die Rechtsfähigkeit erlangen können und dadurch die Haftung seines Betreibers beschränken. Denjenigen Grad an Autonomie rechtssicher zu bestimmen, ab welchem von einem hinreichend autonomen System gesprochen werden kann, ist allerdings kaum möglich. zur Fussnote 43 Allenfalls könnte dieses Abgrenzungsproblem im Rahmen einer Registereintragung mit gelöst werden, indem vom Register selbst geprüft wird, ob das System hinreichend autonom ist, und zum anderen an die Eintragung im Register eine entsprechende Fiktion geknüpft wird. Nach welchen Maßstäben dies allerdings ein Register rechtssicher prüfen sollte, bleibt unbeantwortet und dürfte kaum lösbar sein.

c) Überlebenswille

19Selbst wenn man allerdings entgegen der hier vertretenen Auffassung die Abgrenzungsprobleme für lösbar hält, ist ein ganz zentrales Problem der Anerkennung der Rechtsfähigkeit von KI-Systemen bisher kaum beleuchtet: die Frage nach dem „Überlebenswillen“ des Systems. Als ungeschriebene Prämisse setzt die Zuschreibung von Rechtsfähigkeit an eine Entität nämlich voraus, dass diese den „Willen“ hat, wirtschaftlich zu überleben. Die rechtliche Verhaltenssteuerung durch Vertrags- und Haftungsrecht kann nur auf der Grundlage der Prämisse funktionieren, dass Rechtssubjekte ihr Vermögen nicht verlieren „wollen“. Nur wer sein Vermögen behalten will, befolgt rechtliche Verhaltensregeln, um finanzielle Konsequenzen von Regelverletzungen zu vermeiden. Wer dagegen gegenüber finanziellen Verlusten indifferent ist, ist für rechtliche Steuerungsmechanismen praktisch nicht ansprechbar. zur Fussnote 44 Ein Rechtssubjekt, das an seinem eigenen wirtschaftlichen Überleben kein Interesse hat, ist zudem für die übrigen Marktteilnehmer unberechenbar und dadurch eine Gefahr für den Rechtsverkehr – wie Gerichtsvollzieher aus dem praktischen Umgang mit vermögenslosen Schuldnern, die im wirtschaftlichen Sinne nichts mehr zu verlieren haben, berichten können.

20Grundsätzlich verfügen Menschen natürlicherweise über einen solchen wirtschaftlichen „Überlebenswillen“. Bei ihnen können finanzielle Verluste letztlich sogar physisch existenzbedrohend sein: Wer sein Essen nicht mehr bezahlen kann, droht zu verhungern. Freilich verhindert das jedenfalls in Deutschland der moderne Sozialstaat; doch auch die Furcht vor einem Leben am pfändungsfreien Existenzminimum oder vor einer


Seitenumbruch

Es folgt Seite 46

  • zurück zu Seite 45
  • vorwärts zu Seite 47

Sie befinden sich im Beitrag:Riehm: Nein zur ePerson!(RDi 2020, 42)

Privatinsolvenz, selbst die vor einem Verlust des gewohnten Komforts kann genügen, damit Menschen auf finanzielle Handlungsanreize reagieren und sich rechtskonform verhalten.

21Dieses Problem existiert auch im Konzernrecht, wo Fälle bekannt sind, in denen eine Tochtergesellschaft einem übergeordneten Konzernzweck „geopfert“ wird, sodass deren eigener „Überlebenswille“ entfällt. Im Gesellschaftsrecht wurden verschiedenste Konstruktionen entwickelt, um in einer derartigen „Anomalie“ die Haftungsbeschränkung der „geopferten“ Gesellschaft faktisch außer Kraft zu setzen, zur Fussnote 45 insbesondere die sogenannte Existenzvernichtungshaftung nach § BGB § 826 BGB, wonach die Geschäftsführer einer Kapitalgesellschaft persönlich haften, wenn sie die Gesellschaft vorsätzlich „geopfert“ haben. zur Fussnote 46 In der Sache stellt sich diese Haftung als Sanktion für das Fehlen eines „Überlebenswillens“ der Gesellschaft dar, kann also als Beleg für das implizite Erfordernis eines solchen Willens dienen. Dieser stellt den Regelfall dar, weil davon ausgegangen werden darf, dass die Geschäftsführer einer Gesellschaft diese so führen werden, dass sie den Gesellschaftszweck nachhaltig verwirklichen kann. zur Fussnote 47

22Im Hinblick auf KI-Systeme dürfte diese Voraussetzung die problematischste sein: Kein Algorithmus hat per se einen Überlebenswillen. Vielmehr sind Computer per se zunächst vollkommen indifferent gegenüber ihrem Vermögensstatus. Eine Verlustaversion kann ihnen selbstverständlich einprogrammiert werden; ohne eine solche Programmierung sind sie aber für mittelbare rechtliche Steuerung über finanzielle Anreize nicht ansprechbar, sodass ihnen auch keine Rechtsfähigkeit verliehen werden sollte.

23Wie allerdings – etwa im Rahmen eines Registrierungsverfahrens – sichergestellt werden soll, dass ein KI-System tatsächlich einen wirtschaftlichen Überlebenswillen hat und diesen trotz aller „Selbstlernfähigkeiten“ auch dauerhaft behalten wird, ist derzeit völlig schleierhaft. Wenn es gerade das Charakteristikum „autonomer“ Systeme ist, dass ihr „Verhalten“ für Betreiber nicht vorhersehbar ist, erscheint es kaum vorstellbar, dass die Grundtendenz einer Verlustaversion zuverlässig immer Teil der Optimierungsstrategien eines KI-Systems sein wird. Demnach sollte die Anerkennung von Rechtsfähigkeit von KI-Systemen jedenfalls an diesem Kriterium scheitern.

d) Stammkapital

24Schließlich wäre im Falle einer Anerkennung von Rechtsfähigkeit auch noch zu klären, ob und ggfs. in welcher Höhe derartige Systeme mit Stammkapital auszustatten wären. Dieses Kapital würde allerdings – anders als bei Handelsgesellschaften – nicht produktiv eingesetzt werden, sondern stünde lediglich als totes Kapital für potenzielle Haftungsfälle bereit, zur Fussnote 48 und wäre zudem notwendigerweise begrenzt, was wiederum den Bedarf nach einer Rückgriffshaftung des Betreibers (oder anderer) wecken würde. zur Fussnote 49 Wesentlich sinnvoller wäre insofern, für derartige Systeme eine verpflichtende Haftpflichtversicherung vorzusehen, die zugleich das Problem der notwendigerweise beschränkten Haftungsmasse eines reinen Stammkapitals lösen würde. Wenn der Kern der Vermögenshaftung eines KI-Systems aber letztlich in einer Haftpflichtversicherung besteht, könnte diese auch beim Betreiber angesiedelt werden, sofern dieser einer verschuldensunabhängigen Haftung für vom System verursachte Schäden unterworfen wird; eine Haftung des Systems selbst und damit dessen Rechtsfähigkeit wären dann nicht mehr erforderlich.

3. Fazit

25Nach dem Vorstehenden sind die fundamentalen Prämissen für die Verleihung von Rechtsfähigkeit an KI-Systeme praktisch kaum jemals erfüllbar. Damit kommt eine Verleihung von Rechtsfähigkeit in der Regel nicht in Betracht. Nach dem gegenwärtigen Stand von Technik und Rechtsentwicklung ist die Verleihung von zivilrechtlicher Rechtsfähigkeit an KI-Systeme daher abzulehnen. Dementsprechend entspricht es heute der h. M., dass die Anerkennung einer Rechtsfähigkeit von KI-Systemen weder de lege lata möglich noch de lege ferenda wünschenswert ist. zur Fussnote 50 Auf diesem Standpunkt stehen auch die Datenethikkommission der Bundesregierung zur Fussnote 51 und die High Level Expert Group on Artificial Intelligence der EU-Kommission. zur Fussnote 52

IV. Die These von der Teilrechtsfähigkeit

26Als „milderes Mittel“ zur Überbrückung der „Verantwortungslücke“ wird in der Lit. z. T. vorgeschlagen,


Seitenumbruch

Es folgt Seite 47

  • zurück zu Seite 46
  • vorwärts zu Seite 48

Sie befinden sich im Beitrag:Riehm: Nein zur ePerson!(RDi 2020, 42)

KI-Systeme als „teilrechtsfähig“ zu behandeln. zur Fussnote 53 KI-Systeme sollen danach nur insoweit als rechtsfähig angesehen werden, als dies für die Anwendbarkeit der Zurechnungsregeln des Stellvertretungsrechts (§ BGB § 164 BGB § 164 Absatz I BGB) und der vertraglichen Schadensersatzhaftung (§ BGB § 278 BGB) erforderlich ist. Ausdrücklich wird etwa die Einführung eines § BGB § 90 b BGB vorgeschlagen: „Autonome Systeme sind keine Personen. Auf sie sind die für Hilfspersonen geltenden Vorschriften entsprechend anzuwenden, soweit nicht etwas anderes bestimmt ist.“ zur Fussnote 54 Dagegen sollen KI-Systeme über kein eigenes Vermögen verfügen, also auch nicht selbständig Träger von Rechten oder Pflichten sein. zur Fussnote 55

27Gegen diese Aufspaltung der Rechtsfähigkeit sprechen jedoch bereits gravierende dogmatische Bedenken: zur Fussnote 56 Eine Entität kann entweder Träger von Rechten und Pflichten sein oder nicht; eine Teilrechtsfähigkeit ist dabei nicht vorstellbar. Sobald eine Entität irgendein Recht haben kann, ist sie rechtsfähig. zur Fussnote 57 Auf einem anderen Blatt steht die Selbstverständlichkeit, dass nicht jedes Rechtssubjekt die Voraussetzungen jeder Rechtsnorm erfüllen kann, sodass bestimmte Subjekte trotz ihrer Rechtsfähigkeit bestimmte Rechte nicht erwerben können. Die These von der „funktionell bestimmten Teilrechtsfähigkeit“ führt letztlich zu einem willkürlichen Rosinenpicken hinsichtlich der Voraussetzungen und Folgen von Rechtsfähigkeit, zur Fussnote 58 dessen dogmatische Folgewirkungen nicht absehbar sind.

28Zudem kann die Lehre von der Teilrechtsfähigkeit ihr eigenes Ziel, das Schließen der „Verantwortungslücke“, nicht erreichen. Solange ihr Zweck nur darin besteht, die Zurechnungsregeln der §§ BGB § 164 ff., BGB § 278 BGB anwendbar zu machen, bleibt die Frage nach der lückenschließenden Eigenhaftung des Stellvertreters aus § BGB § 179 BGB ohne eigenes Vermögen ungelöst. Von vornherein auf diese Weise nicht lösbar ist die Haftungslücke im Deliktsrecht, weil das deutsche Recht hier – abgesehen von § BGB § 31 BGB – keine Regeln über die Zurechnung des Verhaltens Dritter kennt, sodass für alle Fälle der Exkulpation des Hintermannes eine Eigenhaftung der Hilfsperson erforderlich ist. zur Fussnote 59 Stets ist die Eigenhaftung der Hilfsperson wesentlicher Teil des gesetzlichen Regelungssystems, die nicht über die willkürliche Konstruktion einer bloßen Teilrechtsfähigkeit ausgeschaltet werden darf.

29Im Recht der Stellvertretung sind daraus nur zwei Auswege denkbar: Entweder werden Einschränkungen der Vertretungsmacht für unwirksam erklärt, zur Fussnote 60 dann handelt es sich aber nicht mehr um Stellvertretung, sondern faktisch um eine unmittelbare und unbeschränkte Zurechnung der Erklärungen des KI-Systems an den Betreiber. zur Fussnote 61 Oder die Haftung des KI-Systems nach § BGB § 179 BGB wird explizit ausgeschlossen, z. B. durch Gleichstellung mit einem minderjährigen Stellvertreter (§ BGB § 179 BGB § 179 Absatz III 2 BGB). zur Fussnote 62 Damit würde allerdings das Risiko einer Vollmachtüberschreitung dem Vertragspartner zugewiesen, ohne dass – anders als im originären Anwendungsbereich des § BGB § 179 BGB § 179 Absatz III 2 BGB, dem Minderjährigenschutz zur Fussnote 63 – überwiegende Schutzinteressen dies rechtfertigen würden.

30Lediglich für die vertragliche Schadensersatzhaftung würde die Einführung einer Teilrechtsfähigkeit die „Verantwortungslücke“ schließen, indem Fehlverhalten des KI-Systems dem Betreiber gem. § BGB § 278 BGB als eigenes Verhalten zugerechnet würde. zur Fussnote 64 Freilich müsste auch nach dieser Auffassung jedenfalls das materielle Abgrenzungsproblem zur Fussnote 65 gelöst werden, um diejenigen Systeme zu identifizieren, bei denen eine derartige unbedingte Zurechnung erfolgen soll. Wie bereits gezeigt, dürfte dies nicht rechtssicher möglich sein.

V. Ausblick: Alternativen zur Rechtsfähigkeit

31Weder die Zuerkennung vollständiger Rechtsfähigkeit noch die Lehre von der Teilrechtsfähigkeit sind mithin geeignet, die sogenannte „Verantwortungslücke“ zu schließen. Wie abschließend kurz zu skizzieren sein wird, sind diese Konstruktionen für ein angemessenes Zurechnungs- und Haftungsregime auch nicht erforderlich.

32Im Vertragsrecht sollten Erklärungen von KI-Systemen unmittelbar als eigene Erklärungen des Betreibers angesehen werden, ohne dass die Regeln des Stellvertretungsrechts zur Anwendung gelangen (Lehre von der Computererklärung). zur Fussnote 66 Der Einsatz des Systems und


Seitenumbruch

Es folgt Seite 48

  • zurück zu Seite 47
  • vorwärts zu Seite 

Sie befinden sich im Beitrag:Riehm: Nein zur ePerson!(RDi 2020, 42)

seine Konfiguration gehen ebenso wie seine Eigenschaft als selbstlernendes System auf den Willen seines Betreibers zurück. Dadurch hat er selbst das Risiko gesetzt, dass dieses System Erklärungen abgibt, die er nicht vorhergesehen hat (und profitiert zugleich von den damit verbundenen Chancen), was seine Bindung an diese Erklärungen rechtfertigt. zur Fussnote 67 Das würde selbst dann gelten, wenn ein Betreiber ein Warenwirtschaftssystem mit einem Zufallsgenerator bei der Preisgestaltung versehen würde – warum sollte es für unvorhersehbare KI-Systeme anders sein? zur Fussnote 68 Die risikobasierte Zurechnung von Willenserklärungen ist dem geltenden Recht ohnehin nicht fremd; die alleinige Anknüpfung an den tatsächlichen Willen des Erklärenden ist eine rechtliche Fiktion. zur Fussnote 69 In der Folge hätte der Betreiber zugleich hinreichende Anreize, das System so zu konfigurieren und zu überwachen, dass es keine unvorhergesehenen Erklärungen abgibt. Nur ganz ausnahmsweise dürfte eine Irrtumsanfechtung analog § BGB § 120 BGB in Betracht kommen. zur Fussnote 70

33Auch im Bereich der vertraglichen Schadensersatzhaftung ist eine weitgehend unbeschränkte Zurechnung des Verhaltens von KI-Systemen an ihren Betreiber de lege lata möglich. Ob hierzu § BGB § 278 BGB analog angewendet zur Fussnote 71 oder dem Betreiber eine entsprechende Garantieübernahme i. S. v. § 276 I a. E. BGB unterstellt wird, zur Fussnote 72 dürfte zweitrangig sein; die §§ BGB § 276 ff. BGB sind jedenfalls hinreichend flexibel, um den Schuldner für die Handlungen der von ihm eingesetzten Computersysteme unabhängig von deren Autonomiegrad einstehen zu lassen. zur Fussnote 73 Hierin liegt jedenfalls ein wesentlich geringfügigerer Eingriff in die dogmatischen Grundlagen des Zivilrechts als in der Schaffung einer Teilrechtsfähigkeit.

34Im Deliktsrecht sorgen zunächst die Gefährdungshaftungstatbestände für die Halter von Kraft-, Schienen- und Luftfahrzeugen (§§ STVG § 7 StVG, 1 HaftPflG, § LUFTVG § 33 LuftVG) für eine nahezu unbeschränkte Haftung des Betreibers entsprechender autonomer Fahrzeuge. zur Fussnote 74 Für andere autonome Systeme dürfte die Haftungsfrage zunächst mit einer einzelfallbezogenen Definition und ggfs. Erweiterung der Verkehrspflichten im Umgang mit KI-Systemen befriedigend gelöst werden. Zusätzlich kommt eine Übertragung der Beweislastverteilung aus § BGB § 831 BGB § 831 Absatz I BGB in Betracht, sodass Betreiber sich exkulpieren müssen, wenn ihre KI-Systeme Rechtsgutsverletzungen verursachen. zur Fussnote 75 Eine Anerkennung von Teilrechtsfähigkeit ist auch hier nicht erforderlich, wie sich an § BGB § 833 BGB zeigt, der dieselbe dogmatische Konstruktion im Hinblick auf – zweifellos nicht rechtsfähige – Nutztiere vorsieht. Erst wenn sich auch dann noch Haftungslücken zeigen sollten, könnte de lege ferenda an die Entwicklung eines Gefährdungshaftungstatbestandes zulasten der Betreiber gedacht werden. zur Fussnote 76

35Keinesfalls sollte die Zuerkennung von Rechtsfähigkeit an KI-Systeme dazu genutzt werden, Hersteller und Betreiber weitgehend aus ihrer Verantwortung für das „Verhalten“ ihrer Systeme zu entlassen. Denn dadurch würde für sie ein wesentlicher Anreiz entfallen, sichere Systeme zu schaffen bzw. im laufenden Betrieb für deren Sicherheit zu sorgen. zur Fussnote 77 Durch die unbeschränkte Zurechnung des Verhaltens von KI-Systemen treffen Chancen und Risiken des Einsatzes dieser Systeme dagegen stets den Betreiber, sodass er bei der Auswahl und Konfiguration ebenso wie bei der Entscheidung über das Ob und den Umfang des Einsatzes von KI-Systemen sämtliche Haftungsrisiken mit berücksichtigen kann und wird.


Fussnoten
Fussnote * 

Der Autor ist Inhaber des Lehrstuhls für Deutsches und Europäisches Privatrecht, Zivilverfahrensrecht und Rechtstheorie an der Universität Passau, Sprecher des dortigen Instituts für das Recht der digitalen Gesellschaft (IRDG) und einer der geschäftsführenden Herausgeber der RDi. Der Beitrag beruht auf Vorträgen des Autors an den Universitäten Bonn, Speyer und Frankfurt sowie auf seinem Kap. 6.1 in Kaulartz/Braegelmann, Rechtshandbuch Artificial Intelligence und Machine Learning, 2020, das im Folgenden nicht im Einzelnen nachgewiesen wird. Sämtliche Internetquellen wurden zuletzt am 27.10.2020 abgerufen.

Fussnote 1 

Diese lauten (s. Asimov, Ich, der Robot, 1952, 1):

„Das nullte Gesetz: Ein Roboter darf der Menschheit keinen Schaden zufügen oder durch Untätigkeit zulassen, dass der Menschheit ein Schaden zugefügt wird.

Das erste Gesetz: Ein Roboter darf einem menschlichen Wesen keinen Schaden zufügen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird, es sei denn, dies würde das nullte Gesetz der Robotik verletzen.

Das zweite Gesetz: Ein Roboter muss dem ihm von einem menschlichen Wesen gegebenen Befehl gehorchen, es sei denn, dies würde das nullte oder das erste Gesetz der Robotik verletzen.

Das dritte Gesetz: Ein Roboter muss seine Existenz beschützen, es sei denn, dies würde das nullte, das erste oder das zweite Gesetz der Robotik verletzen.“

Fussnote 2 

Zuerst wohl Matthias, Automaten als Träger von Rechten, 2007; Gitter, Softwareagenten im elektronischen Geschäftsverkehr, 2008; aus jüngerer Zeit etwa Mayinger, Die künstliche Person, 2017.

Fussnote 3 

Wettig, Vertragsschluss mittels elektronischer Agenten, 2010; für Teilrechtsfähigkeit de lege lata Teubner AcP 218 (2018), ACP Jahr 218 Seite 155 ff.; Schirmer JZ 2016, JZ Jahr 2016 Seite 660 ff.; ders. JZ 2019, JZ Jahr 2019 Seite 711 ff.; Specht/Herold MMR 2018, MMR Jahr 2018 Seite 40 ff.

Fussnote 4 

EU-Parlament, Entschließung vom 16. Februar 2017 mit Empfehlungen an die Kommission zu zivilrechtlichen Regelungen im Bereich Robotik, 2015/2103(INL), Ziff. 59 f); s. dazu krit. Lohmann ZRP 2017, ZRP Jahr 2017 Seite 168 ff.; High Level Expert Group on Artificial Intelligence, Liability for Artificial Intelligence, 2019, S. 6, 36 f., abrufbar unter: https://beck-link.de/r6nme.

Fussnote 5 

EU-Kommission, Schaffung von Vertrauen in eine auf den Menschen ausgerichtete künstliche Intelligenz, COM(2019) 168 final.

Fussnote 6 

Aus der Verhaltensforschung s. Nijssen/Müller/van Baaren u. a. Social Cognition 37 (2019), 41 ff.

Fussnote 7 

Ähnlich auch Beck AJP 2017, 183 (185, 187 ff.).

Fussnote 8 

S. dazu etwa Kluge/Müller InTeR 2017, INTER Jahr 2017 Seite 24 ff.; Teubner AcP 218 (2018), ACP Jahr 218 Seite 155 ff.; Bora, Kommunikationsadressen als digitale Rechtssubjekte, 1.10.2019, abrufbar unter: https://beck-link.de/fc6hk; Misselhorn, Digitale Rechtssubjekte, Handlungsfähigkeit und Verantwortung aus philosophischer Sicht, 2.10.2019, abrufbar unter: https://beck-link.de/b6xta; Günther/Hilgendorf/Beck, Robotik und Gesetzgebung, 2013, 239 ff.; dies. AJP 2017, 183 ff.; zusammenfassend Schulz, Verantwortlichkeit bei autonom agierenden Systemen, 2015, 91 ff.

Fussnote 9 

S. dazu v. a. Ingold Der Staat 53 (2014), 193 ff.; Bull, Sinn und Unsinn des Datenschutzes, 2015, 120; Kersten JZ 2015, JZ Jahr 2015 Seite 1 (JZ Jahr 2015 7 f.); ders. ZfRSoz 37 (2017), 8 ff.; Joerden/Hilgendorf/Thiele/Fitzi/Matsuzaki, Menschenwürde und Medizin, 2013, 919 ff.

Fussnote 10 

Hierzu Beck JR 2009, JR Jahr 2009 Seite 225 (JR Jahr 2009 229 f.); Beck/Hilgendorf, Jenseits von Mensch und Maschine, 2012, 119 (128 ff.); Hilgendorf/Hötitzsch/Hilgendorf, Das Recht vor den Herausforderungen der modernen Technik, 2013, 11 (29 f.); Günther, Roboter und rechtliche Verantwortung, 2016, 246 ff.; Yuan RW 9 (2018), 477 ff.

Fussnote 11 

Zur Unterscheidung zwischen Rechtspersönlichkeit und Rechtsfähigkeit Lehmann AcP 207 (2007), ACP Jahr 207 Seite 225 (ACP Jahr 207 240).

Fussnote 12 

Lohsse/Schulze/Staudenmayer/Wagner, Liability for Artificial Intelligence and the Internet of Things, 2019, 27 (55); Beck AJP 2017, 183 (186).

Fussnote 13 

Eingehend Teubner AcP 218 (2018), ACP Jahr 218 Seite 155 (ACP Jahr 218 157 ff.); Beck AJP 2017, 183 (184).; aus technischer Sicht Matthias, Automaten als Träger von Rechten, 2. Aufl. 2010, 35 ff.

Fussnote 14 

Zech in Ständige Deputation des deutschen Juristentages (Hrsg.), Verhandlungen des 73. Deutschen Juristentages, 2020, A 41 ff.

Fussnote 15 

Überblick bei Foerster ZfPW 2019, ZFPW Jahr 2019 Seite 418 (ZFPW Jahr 2019 424 ff.).

Fussnote 16 

Näher Günther, Roboter und rechtliche Verantwortung, 45 ff.

Fussnote 17 

Seelmann/Gless/Janal, Intelligente Agenten und das Recht, 2016, 141 (148); Spindler CR 2015, CR Jahr 2015 Seite 766 (CR Jahr 2015 768); allgemein MüKoBGB/Wagner, BGB, 8. Aufl. 2020, § 823 Rn. 456 ff.

Fussnote 18 

S. auch Hilgendorf/Hanisch, Robotik im Kontext von Recht und Moral, 2013, 27 (33 f.). Zum Ausschluss der Haftung wegen Überkomplexität der erforderlichen Schutzmaßnahmen s. Günther, Roboter und rechtliche Verantwortung, 124 ff.

Fussnote 19 

Hierzu Klingbeil JZ 2019, JZ Jahr 2019 Seite 718 ff.

Fussnote 20 

Foerster ZfPW 2019, ZFPW Jahr 2019 Seite 418 (ZFPW Jahr 2019 431).

Fussnote 21 

In vielen Fällen verhindert schon die Unbeschränkbarkeit der gesellschaftsrechtlichen Vertretungsmachten (§§ GMBHG § 37 GMBHG § 37 Absatz II 1 GmbHG, 82 I AktG, 27 II 1 GenG, 126 II HGB) sowie der Schutz des guten Glaubens an den Umfang der Vertretungsmacht (§§ BGB § 173 BGB, 54 III HGB) die Entstehung einer „Verantwortungslücke“.

Fussnote 22 

Dazu Foerster ZfPW 2019, ZFPW Jahr 2019 Seite 418 (ZFPW Jahr 2019 426); Grapentin, Vertragsschluss und vertragliches Verschulden beim Einsatz von künstlicher Intelligenz und Softwareagenten, 2018, 98 ff.

Fussnote 23 

S. hierzu auch Günther, Roboter und rechtliche Verantwortung, 64 ff.

Fussnote 24 

Günther, Roboter und rechtliche Verantwortung, 251 ff.; Wettig, Vertragsschluss mittels elektronischer Agenten, 369 ff.; Mayinger, Die künstliche Person, 166 ff.; Matthias, Automaten als Träger von Rechten.

Fussnote 25 

Wettig, Vertragsschluss mittels elektronischer Agenten.

Fussnote 26 

Schon früh – im Zusammenhang mit elektronischen Agenten – Wein 6 [Fall] Harv. J. Law & Tec 103 (111 ff.) (1992); ähnlich auch schon Allen/Widdison 9 Harv. J. Law & Tec 25 (28 f.) (1996) Aus neuerer Zeit s. Wettig/Zehendner, The Electronic Agent: A Legal Personality under German Law?, 2003, sub IV.2., abrufbar unter: https://beck-link.de/kc3tt.

Fussnote 27 

Matthias, Automaten als Träger von Rechten, passim.

Fussnote 28 

Mayinger, Die künstliche Person, 80 ff., 229 f.

Fussnote 29 

S. etwa Hubbard Temp. L. Rev. 83 (2011), 405 ff.; Seelmann/Gless/Erhardt/Mona, Intelligente Agenten und das Recht, 61 ff.

Fussnote 30 

S. etwa Teubner J Law & Society 33 (2006), 497 ff.; Beck AJP 2017, 183 (186 f.).

Fussnote 31 

Etwa Matthias, Automaten als Träger von Rechten, 46; Beck JR 2009, JR Jahr 2009 Seite 225 (JR Jahr 2009 229 f.); Beck/Hilgendorf, Jenseits von Mensch und Maschine, 119 (125 ff.).

Fussnote 32 

So auch Lohsse/Schulze/Staudenmayer/Wagner, Liability for Artificial Intelligence and the Internet of Things, 27 (56); Foerster ZfPW 2019, ZFPW Jahr 2019 Seite 418 (ZFPW Jahr 2019 426).

Fussnote 33 

Beck AJP 2017, 183 (185); s. dazu Lohsse/Schulze/Staudenmayer/Wagner, Liability for Artificial Intelligence and the Internet of Things, 27 (58 f.).

Fussnote 34 

S. auch Beck AJP 2017, 183 (189).

Fussnote 35 

Lohsse/Schulze/Staudenmayer/Wagner, Liability for Artificial Intelligence and the Internet of Things, 27 (56); Spindler CR 2015, CR Jahr 2015 Seite 766 (CR Jahr 2015 776 f.).

Fussnote 36 

Beck Robotics and Autonomous Systems 86 (2016), 138 (sub 4. nach Fn. 35).

Fussnote 37 

Lehmann AcP 207 (2007), ACP Jahr 207 Seite 225 (ACP Jahr 207 247).

Fussnote 38 

Beck AJP 2017, 183 (190).

Fussnote 39 

S. dazu auch Spindler CR 2015, CR Jahr 2015 Seite 766 (CR Jahr 2015 775).

Fussnote 40 

So auch Beck AJP 2017, 183 (190).

Fussnote 41 

Ähnlich Beck AJP 2017, 183 (190).

Fussnote 42 

Bryson/Wyatt, Artificial Intelligence, April 1997, abrufbar unter: https://beck-link.de/nd6df.

Fussnote 43 

S. dazu auch Beck AJP 2017, 183 (188 f.); Seelmann/Gless/Janal, Intelligente Agenten und das Recht, 141 (157); auch die Stufen des § STVG § 1 a StVG dürften hier nicht weiterhelfen, weil sie nicht mit Blick auf die Rechtsfähigkeit definiert wurden.

Fussnote 44 

Angedeutet bei Lohsse/Schulze/Staudenmayer/Wagner, Liability for Artificial Intelligence and the Internet of Things, 27 (57 f.).

Fussnote 45 

Roth/Altmeppen/ders., GmbHG, 9. Aufl. 2019, § 13 Rn. 73 ff.

Fussnote 46 

BGHZ 173, BGHZ Band 173 Seite 246.

Fussnote 47 

S. auch Grigoleit, Gesellschafterhaftung für interne Einflussnahme im Recht der GmbH, 2006, 59 f.: „Prinzip der dezentralen Gewinnverfolgung“.

Fussnote 48 

Gless/Janal JR 2016, JR Jahr 2016 Seite 561 (JR Jahr 2016 571); Hilgendorf/Hanisch, Robotik im Kontext von Recht und Moral, 27 (40).

Fussnote 49 

High Level Expert Group on Artificial Intelligence, Liability for Artificial Intelligence, 38; Lohsse/Schulze/Staudenmayer/Koch, Liability for Artificial Intelligence and the Internet of Things, 99 (115).

Fussnote 50 

S. etwa Lohsse/Schulze/Staudenmayer/Koch, Liability for Artificial Intelligence and the Internet of Things, 99 (115); Faust/Schäfer/Althammer u. a./Wagner, Zivilrechtliche und rechtsökonomische Probleme des Internet und der künstlichen Intelligenz, 2019, 1 ff.; Spindler CR 2015, CR Jahr 2015 Seite 766 ff.; Schaub JZ 2017, JZ Jahr 2017 Seite 342 (JZ Jahr 2017 345 f.); Gless/Janal JR 2016, JR Jahr 2016 Seite 561 (JR Jahr 2016 571); Bull, Sinn und Unsinn des Datenschutzes, 120; Riehm/Meier in DGRI Jahrbuch 2018, 2019, 1 (31); Grinzinger in JbJZivRWiss 2019, 2020, 151 (164 f.); Zech in 73. djt I (A 97).

Fussnote 51 

Datenethikkommission, Gutachten, 2019, S. 219, abrufbar unter: https://beck-link.de/z5dpe.

Fussnote 52 

High Level Expert Group on Artificial Intelligence, Liability for Artificial Intelligence, 37 ff.; s. dazu auch Open letter to the European Commission – Artificial Intelligence and Robotics (http://www.robotics-openletter.eu/), Ziff. 2.

Fussnote 53 

Die Begriffe variieren: Von „teilrechtsfähigen Subjekten“ sprechen Schirmer JZ 2016, JZ Jahr 2016 Seite 660 (JZ Jahr 2016 663 ff.); ders. JZ 2019, JZ Jahr 2019 Seite 711 ff.; Specht/Herold MMR 2018, MMR Jahr 2018 Seite 40 (MMR Jahr 2018 43); Herold, Vertragsschlüsse unter Einbeziehung automatisiert und autonom agierender Systeme, 2020, 195 ff.; von „partieller Rechtssubjektivität“ Teubner AcP 218 (2018), ACP Jahr 218 Seite 155 ff.; von „Teilrechtssubjekten“ Beck/Gruber, Jenseits von Mensch und Maschine, 133 ff.

Fussnote 54 

Schirmer JZ 2019, JZ Jahr 2019 Seite 711 (JZ Jahr 2019 717).

Fussnote 55 

Ausdrücklich Teubner AcP 218 (2018), ACP Jahr 218 Seite 155 (ACP Jahr 218 161 f.); Schirmer JZ 2016, JZ Jahr 2016 Seite 660 (JZ Jahr 2016 665 f.); für die Zuerkennung von Vermögensfähigkeit nur „bei Bedarf“ auch Beck/Gruber, Jenseits von Mensch und Maschine, 133 (156).

Fussnote 56 

S. dazu auch Klingbeil JZ 2019, JZ Jahr 2019 Seite 718 (JZ Jahr 2019 722); Riehm/Meier in DGRI Jahrbuch 2018, 1 (32 f.).

Fussnote 57 

Lehmann AcP 207 (2007), ACP Jahr 207 Seite 225 (ACP Jahr 207 238).

Fussnote 58 

S. etwa die Überlegungen bei Herold, Vertragsschlüsse unter Einbeziehung automatisiert und autonom agierender Systeme, 211 ff.

Fussnote 59 

Allerdings möchte Schirmer JZ 2016, JZ Jahr 2016 Seite 660 (JZ Jahr 2016 665) die Eigenhaftung von Robotern nicht an deren fehlender Vermögensfähigkeit scheitern lassen.

Fussnote 60 

In diese Richtung Schirmer JZ 2016, JZ Jahr 2016 Seite 660 (JZ Jahr 2016 664).

Fussnote 61 

Ebenso Foerster ZfPW 2019, ZFPW Jahr 2019 Seite 418 (ZFPW Jahr 2019 426).

Fussnote 62 

So ausdrücklich Herold, Vertragsschlüsse unter Einbeziehung automatisiert und autonom agierender Systeme, 215 ff.

Fussnote 63 

S. bereits Riehm/Meier in DGRI Jahrbuch 2018, 1 (33 f.).

Fussnote 64 

Darauf stellen Schirmer JZ 2019, JZ Jahr 2019 Seite 711 ff.; Teubner AcP 218 (2018), ACP Jahr 218 Seite 155 ff. vorrangig ab.

Fussnote 65 

Oben III.2.b).

Fussnote 66 

So auch Gitter, Softwareagenten im elektronischen Geschäftsverkehr, 181 f.; Auer, Rechtsfähige Softwareagenten: Ein erfrischender Anachronismus, 30.9.2019, abrufbar unter: https://beck-link.de/bna54.

Fussnote 67 

Ebenso Foerster ZfPW 2019, ZFPW Jahr 2019 Seite 418 (ZFPW Jahr 2019 427).

Fussnote 68 

S. auch die Parallele zur Zurechnung von Blanketterklärungen bei Grapentin, Vertragsschluss und vertragliches Verschulden beim Einsatz von künstlicher Intelligenz und Softwareagenten, 100; Schulz, Verantwortlichkeit bei autonom agierenden Systemen, 127 f.

Fussnote 69 

Eingehend hierzu Rehberg, Das Rechtfertigungsprinzip, 2014.

Fussnote 70 

So – allerdings im Kontext eines deterministischen Warenwirtschaftssystems – BGH NJW 2005, NJW Jahr 2005 Seite 976.

Fussnote 71 

In diese Richtung Datenethikkommission, Gutachten, 219 (8.2.2); Hilgendorf/Hanisch, Robotik im Kontext von Recht und Moral, 27 (59 f.); Zech ZfPW 2019, ZFPW Jahr 2019 Seite 198 (ZFPW Jahr 2019 211); abl. Grapentin, Vertragsschluss und vertragliches Verschulden beim Einsatz von künstlicher Intelligenz und Softwareagenten, 131; Schulz, Verantwortlichkeit bei autonom agierenden Systemen, 138 ff.

Fussnote 72 

Angedacht bei Klingbeil JZ 2019, JZ Jahr 2019 Seite 718 (JZ Jahr 2019 722 f.); Schulz, Verantwortlichkeit bei autonom agierenden Systemen, 141.

Fussnote 73 

Für eine Darstellung möglicher Sorgfaltspflichten s. Grapentin, Vertragsschluss und vertragliches Verschulden beim Einsatz von künstlicher Intelligenz und Softwareagenten, 132 ff.

Fussnote 74 

S. nur Zech ZfPW 2019, ZFPW Jahr 2019 Seite 198 (ZFPW Jahr 2019 214 f.).

Fussnote 75 

Ähnlich Hilgendorf/Hanisch, Robotik im Kontext von Recht und Moral, 27 (59 f.); Zech ZfPW 2019, ZFPW Jahr 2019 Seite 198 (ZFPW Jahr 2019 211); zurückhaltend allerdings Schulz, Verantwortlichkeit bei autonom agierenden Systemen, 146 ff.; s. auch Foerster ZfPW 2019, ZFPW Jahr 2019 Seite 418 (ZFPW Jahr 2019 433): Sekundäre Darlegungslast des Halters.

Fussnote 76 

In diese Richtung auch Spindler JZ 2016, JZ Jahr 2016 Seite 805 (JZ Jahr 2016 816); Lohmann ZRP 2017, ZRP Jahr 2017 Seite 168 (ZRP Jahr 2017 171); Seelmann/Gless/Janal, Intelligente Agenten und das Recht, 141 (155 ff.); konkreter Gesetzgebungsvorschlag hierzu bei Hilgendorf/Hanisch, Robotik im Kontext von Recht und Moral, 27 (54); für Gefährdungshaftung des Herstellers Eidenmüller ZEuP 2017, ZEUP Jahr 2017 Seite 765 (ZEUP Jahr 2017 772).

Fussnote 77 

Lohsse/Schulze/Staudenmayer/Wagner, Liability for Artificial Intelligence and the Internet of Things, 27 (57); Hilgendorf/Hanisch, Robotik im Kontext von Recht und Moral, 27 (39 f.).