Ethische Steuerung Neuronaler Netze

Die Möglichkeit der ethischen Steuerung neuronaler Netze wird landläufig verneint. Das erscheint mir grundsätzlich erstmal unlogisch...

Wenn wir uns anschauen, wie Kinder lernen, stellen wir fest, dass sie auch ihren Lernquellen nach und nach vertrauen, oder eben nicht. Diese Lernquellen lehren sie auch, vertrauenswürdige Quellen zu identifizieren und die Inhalte entsprechend der Vertrauenswürdigkeit zu gewichten. „Was in der Bildzeitung steht ist doch nicht ernst zu nehmen“ oder „die Frankfurter Allgemeine ist eine gute Quelle“, „Glaub nicht alles, was im Internet steht“. Aber auch die frühe Umweltreaktion prägt das Kind und zeigt ihm, was lernwürdig oder weniger lernwürdig ist.

Spätestens mit Eintritt in den Kindergarten werden die Kinder Speziallisten in Sachen Schimpfworte. Hier schnappen sie gewichtete Bezeichnungen auf und bauen sie in den alltäglichen Sprachgebrauch ein. Was in der Regel auch ein sofortiges elterliches Korrektiv auslöst. Sie bemerken auf der Basis ihres Umfeldes, welche Redewendungen opportun sind und welche man besser nicht benutzt und sind in der Lage, durch die eigene Reaktion auf bestimme Wörter diese in einen soziokulturellen Gesamtzusammenhang zu setzen und bestimmte Begriffe besser gleich zu vergessen und andere entsprechend ihrer Intention einzusetzen.

Diese Fähigkeiten werden nun der künstlichen Intelligenz abgesprochen, da die künstliche Intelligenz nicht in der Lage sei, eine Quellengewichtung durchzuführen. Dies ist mir im Prinzip erstmal unverständlich, da ich im Impulsvortrag gelernt habe, dass eine Gewichtung von Informationen zur Zielerreichung des neuronalen Netztes zwingend notwendig ist.

Neuronale Netze müssen also auch gewichten. Die Gewichtung erfolgt zur Erreichung ihres jeweiligen Primärziels. Dann müsste es doch ein Einfaches sein ein Sekundärziel auszurufen, nämlich die Bewertung der Vertrauenswürdigkeit von Informationen. Speichert nun jeder neuronale Knoten diese Informationen in einem definierten Metadatenmodell über die Vorgängerinformation, den Vorgängerknoten und die Vertrauenswürdigkeit des Knotens, hat man eine logische Kette, aus welcher Information der neuronale Knoten welche Schlussfolgerung gezogen hat. Das würde eine vollständige Transparenz der Ergebnisermittlung auslösen.
Im Gegensatz zum kindlichen Gehirn wäre man sogar in der Lage, über die von außen gewichtetet Metadateninformationen bestimmte Einflüsse und Tendenzen aus dem neuronalen Netzwerk zu löschen.

Auch heute brauchen neuronale Netze schon sogenannte „getaggte Basisinformationen“, in denen ein Arzt z.B. beschreibt, dass er auf dem Bild eine Krebszelle sieht. Die Folgeinformationen können nur so gut sein wie die Eingangsinformationen. Haben wir unter den Einschätzung gebenden Ärzten einen Arzt mit einer schlechten Erkennungsrate, werden diese Informationen im System genauso verarbeitet, wie die Information des Arztes mit der guten Erkennungsrate. Würde nun die Metainformation der Erkennungsrate vom jeweiligen verarbeitenden Knoten gespeichert, könnte man die Schlussfolgerungen des neuronalen Netztes positiv beeinflussen.
Die Einschätzung des schlechten Arztes würde gewichtet.

Natürlich ist die Metadateninformation, die ein solches Netzwerk erhebt, sicher beträchtlich. Allerdings steht der nachvollziehbare, positive Lerneffekt der KI doch hier deutlich im Vordergrund und würde die ethische Diskussion im Kontext der KI sicher positiv beeinflussen. Die KI ist dann nicht mehr Blackbox, sondern es ist klar, woher diese ihre Herleitungen bezieht. Aus meiner Perspektive auf das Thema ein lohnenswertes Ziel.

 

ERGÄNZENDER BEITRAG VON DIETMAR FYLLA, BUSINESS ANALYST:

1 oder 0, oder die Bürde der „richtigen“ Entscheidung

Neuronale Netze und KIs werden in Zukunft zunehmend und in immer mehr Gebieten bei der Entscheidungsfindung und für Entscheidungen eingesetzt werden.
Einige von vielen möglichen Beweggründen, die dafür immer wieder aufgeführt werden sind die „Fehleranfälligkeit“ des Menschen und seine geringe Verarbeitungsgeschwindigkeit und begrenzten Kapazitäten bei der Bewertung von Daten sowie ökonomischer Druck.
Welche Auswirkungen diese outgesourcten und automatisierten Prozesse der Entscheidungsfindung und des Entscheidens auf Mensch und Gesellschaft haben können, findet bei der meist Technologie getriebenen Debatte wenig Beachtung.

Dabei ist die Frage der „richtigen Entscheidung“ und die damit verbundenen Bürden so alt wie die Menschheit selbst.

Schon seit Anbeginn der menschlichen Zivilisation haben sich Menschen mit dem Prozess und der Entscheidungsfindung und den Motiven von Entscheidungen beschäftigt.
Allein die Literatur, beginnend bei vorantiken Dramen bis in unsere Zeit, beschreibt viele Beispiele über die Bürde der „richtigen Entscheidung“ und den oft steinigen Weg dorthin.
Nicht nur das menschliche Dilemma beim Finden der „richtigen Entscheidung“ ist dabei immer wieder thematisiert worden.
Die philosophischen und literarischen Betrachtungen zu „dienstbaren Geister“, wie sie KIs und neuronale Netze darstellen, und das Dilemma der „automatisierten“  richtigen Entscheidung reichen vom mittelalterlichen Golem bis in unsere Zeit von Asimovs Robotergeschichten „ I Robot“ und Arthur C. Clarks HAL9000 aus „Odyssee im Weltraum“ bis hin zu Joschua aus „War Game“; um nur die bekanntesten zu nennen.

In der aktuellen Diskussion über neuronalen Netzen und KIs tauchen zu dem Problem der „ethisch richtigen Entscheidung“ als Lösungsansätze Ideen und Konzepte zur „Verdrahtung“ ethischer Grundsätze in den Entscheidungsstrukturen dieser Systeme auf.
Als Prüfung ob die IT- Systeme sich noch Moral konform verhalten, könnte man sich periodische „ethische Kalibrierungen“ durch „ethisch TÜV- geprüfte“ Testdatensätze und Testszenarien vorstellen.

Überspitzt gedacht, führen diese Ansätze zu dem kafkaesken Bild von KIs und neuronalen Netzen, die wöchentlich an einer Gesprächs- und Verhaltenstherapie für verhaltensauffällige IT- Systeme teilnehmen müssen.

Nur leider werden diese Therapiesitzungen nicht den gewünschten Erfolg bringen können, da technische Systeme aktuell und wohl auch bis in ferne Zukunft kein eigenständiges „Gewissen“ ähnlich einem menschlichen Gewissen haben werden.

Das Gewissen, jene eigenartige und mächtige Melange aus Selbsterhaltung, Sympathie, Empathie, Mitleid, Erfahrung, Ethik und Moral, die das tägliche Handeln des einzelnen Menschen bestimmt und leitet.

Neben diesem, nicht direkt greifbaren Objekt menschlichen Seins besteht ein viel größeres methodisches Problem: Es gibt keine übergeordnete, monolithische, universale Ethik und damit universelle Moral.    

Es gibt eine Vielzahl von ethische Weltbetrachtungen, wie z.B. religiöse Ethik, Gesinnungsethik, Verantwortungsethik, utilitaristische Ethik oder „objektivistische Ethik“.
Jedes dieser Ethiksysteme liefert aber nur perspektivisch verzerrte Handlungsschematas und -empfehlungen zu Teilaspekten des menschlichen Lebens.
Besonders in Grenzsituationen reichen, die aus einer bestimmten Ethik heraus abgeleiteten, moralische Handlungsvorgaben oft nicht als Lösung aus oder führen zum „konsequenten Scheitern in bester Absicht“.
Auch unterliegen Ethik und Moral Veränderungen. Sie werden und wurden dem aktuellen gesellschaftlichen Bezugsrahmen angepasst.
Hinzu kommt dass auch bei der einzelnen Person,  ethische und moralische Bewertungen sich ändern, , abhängig von deren Reife und der aktuellen persönlichen Situation.
Beispiel hierzu sind die Veränderung der moralischen Einstellung zu Tier- und Umweltschutz, Sexualität, Abtreibung, Homosexualität, Ehebruch, Sterbehilfe.
Selbst Handlungsmaxime, resultierend aus dem oft so überstrapazierten „Kantschen moralischen Imperativ“, unterliegen Veränderungen, abhängig von der Situation, den Möglichkeiten und dem Wissen des Anwenders.

Daraus folgt, dass für jeden Output eines neuronalen Netzes oder KI, der zu Entscheidungen in der Realwelt führt, ein Mensch oder eine Gruppe von Menschen die Verantwortung übernehmen muss. Nur der Mensch wird wohl noch für eine lange Zeit das einzige System sein, das über ein Gewissen verfügen wird.

Ein weniger beachtetes aber in seiner Auswirkung schon jetzt unterschätztes Problem entsteht bei Entscheidungen, die aufgrund von Outputs von KIs und neuronalen Netzen, von Anwendern getroffen werden, die Verantwortungsdiffusion.
Mit Verantwortungsdiffusion ist das Übertragen der Verantwortung und somit der Entscheidung auf andere, höhere, vermeintlich unfehlbarere Entitäten zu verstehen. 

Auch gut bekannt als „B hat es so gemacht“, „Das haben wir immer schon so gemacht“, „Es steht so geschrieben“, “Gott will es so“, “Der Computer hat gesagt“, „Die KPI/Kennzahl lässt uns keine andere Wahl“.

Hier zwei Realweltbeispiele, die beide Probleme der „automatisierten“ Ethik und Verantwortungsdiffusion auf traurige weise veranschaulichen.

1. Oktober 1983

Die damalige Sowjetunion hatte mit Hilfe von Analysten einen „Doomsday- Algorithmus“ mit Namen VRYAN entwickelt. Er sollte Prognosen über einen möglichen Angriff der Nato liefern. Über Jahre wurde dieser mit Daten gefüttert.
Im Oktober 1983 kam der Algorithmus zu dem Schluss, dass ein Angriff bevorstand. Der Warschauer Pakt und die Atomstreitmacht der UdSSR wurden also in Alarmbereitschaft versetzt.
Ein Überwachungssatellit meldete dem nuklearen Kommandostand der UdSSR den Start einer US- Interkontinentalrakete. Der Doomsday- Algorithmus empfahl den Gegenschlag. Der kommandierende Offizier entschied sich gegen die Empfehlung.
Auch als ein zweiter Alarm los ging entschied sich der Offizier abermals gegen den atomaren Gegenschlag.
Im Nachhinein wurde festgestellt, dass der Satellit eine Fehlfunktion hatte und dadurch atmosphärische Reflektionen als Raketenschweif interpretierte. Es wurde auch bekannt, dass die im Vorfeld gesammelten Daten, die zur Einschätzung der Bedrohungslage der UdSSR durch die Nato führten, falsch gewichtet wurden.

https://de.wikipedia.org/wiki/Able_Archer_83

https://www.heise.de/tp/features/Die-RYAN-Krise-als-der-Kalte-Krieg-beinahe-heiss-geworden-waere-3420663.html

2. 2018

Es wurde bekannt, dass in verschiedenen Bundesstaaten der USA ein Algorithmus zur Festlegung des Strafmaßes bei Gerichtsverfahren zur Unterstützung der Richter eingesetzt wurde. Es stellte sich heraus, dass der Algorithmus bei gleichen sozialen Rahmenbedingungen bei Afro- Amerikanern immer höhere Vorschläge für Strafen liefert, die dann auch von den Richtern festgesetzt wurden.

https://www.deutschlandfunkkultur.de/algorithmen-im-us-justizsystem-schicksalsmaschinen.3720.de.html?dram:article_id=385478

https://www.heise.de/newsticker/meldung/US-Justiz-Algorithmen-benachteiligen-systematisch-Schwarze-3216770.html

Es muss daher nicht die Frage gestellt werden: „Wie versichern wir uns, dass die „dienstbaren Geister“ nach aktuellen, moralischen Maßstäben entscheiden und handeln?

Es müssen vielmehr folgende Fragen gestellt werden:

Welche Entscheidungen können und dürfen auf neuronale Netze bzw. eine KIs übertragen werden?

In welchem Umfang ist der Entwickler, der Datenlieferant und am Ende immer der entscheidende Endanwender bei Entscheidungen an denen neuronalen Netzen und KIs beteiligt sind und deren Folgen in Verantwortung zu nehmen?   

Wie wird verhindert, dass es zur Verantwortungsdiffusion kommt?

Wie wird verhindert, dass Entscheidungsschemata von neuronalen Netzen /KIs schleichend über die „Gewohnheit“ ihrer Anwendung als „Gottes-“ oder „Naturgesetz“ in der Realwelt übernommen werden?  

„Die kürzesten Wörter, nämlich 'ja' und 'nein' erfordern das meiste Nachdenken“: Pythagoras von Samos (570 bis 510 v. Chr.)