Die Ethik autonomer Maschinen

Gestern war ich auf der Jahrestagung des Deutschen Ethikrats, einer von der Bundesregierung eingesetzten Expertenkommission, die Politiker in Bezug auf die ethischen und moralischen Folgen der technischen Entwicklung berät. Da ich diese (potenziellen) Folgen in meinen Romanen verarbeite, wollte ich wissen, wie der aktuelle Stand der Diskussion unter den renommiertesten Experten Deutschlands ist, und erhoffte mir auch ein paar neue Ideen und Anregungen. Viel Neues lernte ich nicht, trotzdem war es interessant, worüber geredet wurde – und worüber nicht.

 

Der Titel der Konferenz lautete: "Autonome Systeme - Wie intelligente Maschinen uns verändern". Doch genau über diesen Aspekt, den Einfluss intelligenter Maschinen auf den Menschen, wurde gestern so gut wie gar nicht gesprochen. Stattdessen kreiste die Diskussion darum, was Maschinen können oder nicht können, was sie dürfen oder nicht dürfen und ob sie überhaupt etwas dürfen können.

 

Den Anfang machte der ehemalige SAP-Vorstand und Vorsitzende der Deutschen Akademie der Technikwissenschaften, Henning Kagermann, mit einem überfrachteten Fachvortrag über den Stand der Technik, der mit unerklärten Fachbegriffen gespickt war und dem selbst Zuhörer, die sich einigermaßen im Thema auskennen, nicht leicht folgen konnten. Auf der letzten Folie erwähnte er mögliche Probleme wie „Kontrollverlust“, „gesellschaftliche Spaltung“ und „Jobverluste“, wischte diese jedoch mit einem lapidaren „das glaube ich nicht“ ohne jegliche inhaltliche Begründung beiseite. Kein guter Einstieg für eine Konferenz, die sich mit ethischen Konsequenzen der Technik beschäftigt. Viel besser war in meinen Augen der Vortrag der Informatikprofessorin Katharina Zweig von der TU Kaiserslautern, die sehr anschaulich erklärte, wie „intelligente“ Algorithmen funktionieren und wo ihre Tücken liegen. Sie ist Mitgründerin der Initiative Algorithmwatch, die ich sehr lobenswert finde.

 

Als nächster hielt der Philosoph Julian Nida-Rümelin einen Vortrag zu der Frage, wer für autonome Systeme die Verantwortung trägt. Sein Beitrag war symptomatisch für die weitere Diskussion: Statt über klare Regeln und politische Maßnahmen wurde viel über abstrakte Begriffe debattiert. Was heißt eigentlich Verantwortung? Was ist Frieden? Kann eine Maschine überhaupt „autonom“ genannt werden? So sinnvoll und notwendig solche Begriffsklärungen im wissenschaftlichen Diskurs sein mögen, so theoretisch und unproduktiv kamen sie mir in diesem Rahmen vor.

 

Besonders deutlich wurde das in dem Fachforum zum Thema „Autonome Waffensysteme“, von dem ich mir als Thrillerautor am meisten versprochen hatte. Während der Inspekteur der Luftwaffe, Generalleutnant Karl Müllner, meines Erachtens zurecht darauf verwies, dass „autonome“ Drohnen nicht wirklich autonom seien, da ihr Einsatzbefehl und -ziel immer von einem Menschen vorgegeben würden und sie sich insoweit nicht von anderen Waffen wie etwa Mittelstreckenraketen unterschieden, verfing sich sein Gegenpart Bernhard Koch vom Institut für Theologie und Frieden in recht bizarr anmutenden Grundsatzdiskussionen. Er sprach von „positivem“ und „negativem“ Frieden, was mich irgendwie an die „alternativen Fakten“ aus dem Weißen Haus erinnerte, und verstieg sich zu den Behauptungen, die Würde des Menschen sei stärker herabgesetzt, wenn er von einem Roboter erschossen würde als von einem Menschen, und Hass sei auch eine Form von Würdigung und insoweit moralisch besser als die kalte, unemotionale Tötung durch eine Maschine.  

 

Die meiner Ansicht nach drängendsten Fragen wurden dagegen nicht behandelt: Inwieweit können sich autonome Waffensysteme verselbstständigen und gegen den Willen ihrer Kommandanten handeln? Was passiert, wenn auch Einsatzbefehl und -ziel immer mehr von automatischen Systemen beeinflusst werden? Wie sichert man autonome Waffen gegen Hacker? Was, wenn Zivilisten aufgrund eines „Bugs“ sterben? Und was, wenn nach einem Angriff nicht mehr nachvollzogen werden kann, wer solche selbstständig agierenden Waffensysteme in Marsch gesetzt hat? Werden dann „versteckte“ Angriffe möglich, bei denen der Aggressor sich hinterher für unschuldig erklären kann und insofern keine Gegenmaßnahmen befürchten muss, ähnlich wie bei den Hackerangriffen auf die US-Wahlen, die man der russischen Regierung auch nur schwer nachweisen kann?

 

Erst meine Schriftstellerkollegin Thea Dorn war es, die in ihrem Abschlussvortrag das offizielle Thema der Veranstaltung aufgriff und die Frage stellte: „Was macht das mit uns?“ Sie kam zu dem Schluss, dass vollautomatische Entscheidungssysteme zu einer Schwächung der eigenen Urteilskraft, einer Art freiwilliger Entmündigung, führen können, so wie die Nutzung von Navigationssystemen dazu führt, dass man die Fähigkeit verliert, ohne sie durch eine unbekannte Stadt zu navigieren. Sie forderte Maßnahmen zur Stärkung der menschlichen Urteilskraft in Anlehnung an den gestern häufig zitierten Philosophen Kant: „Habe den Mut und nutze deinen Verstand, um dem vollautomatischen System zu widersprechen.“ So, wie wir ins Fitnessstudio gehen, um der Bequemlichkeit der modernen Welt entgegenzuwirken und die Bewegungsfähigkeit unserer Körper zu erhalten, bräuchten wir ihrer Ansicht nach „geistige Laufbänder“, die unsere Fähigkeit, uns eigene Urteile zu bilden und kompetente Entscheidungen zu treffen, trainieren. Schon immer habe die Menschheit Technik genutzt, um ihre eigene Autonomie zu steigern, doch seien wir nun womöglich an einem gefährlichen Umkehrpunkt, von dem an wir unsere Unabhängigkeit und Entscheidungsfreiheit schrittweise verlieren könnten. Ich kann ihr da nur aus vollem Herzen zustimmen.

 

Wie oft bei Konferenzen waren die Gespräche in den Pausen mindestens so interessant und anregend wie die Vorträge. Ich war positiv überrascht über die Menge und Vielfalt der Teilnehmer. Ich sprach mit einem Experten eines Unternehmens, das Ministerien bei der Vergabe von Fördermitteln berät, einer Journalistin, einem Regierungsdirektor aus dem Bundesarbeitsministerium, einer Vertreterin eines Verbandes von Pflegekräften und einer pensionierten Ärztin, die sich auch im Ruhestand noch dafür interessierte, wie Maschinen ihr Fachgebiet verändern. Es waren Schüler, Abgeordnete, Lobbyisten, Unternehmensvertreter und engagierte Privatpersonen dort. Auch die Fragen, die nach den Vorträgen aus dem Publikum gestellt wurden, waren oft tiefgründig und interessant. Das war vielleicht der positivste Aspekt dieser Veranstaltung: Dass eine lebendige Diskussion über die Technikfolgen stattfindet, auch wenn sie mehr Fragen aufwirft, als sie beantwortet. Vielleicht waren das schon die ersten Schritte auf dem "geistigen Laufband" im Sinne von Thea Dorn.

 

Kommentar schreiben

Kommentare: 5
  • #1

    Felix (Donnerstag, 22 Juni 2017 20:23)

    Diese Diskussion scheint sehr interessant gewesen zu sein, allerdings Frage ich mich ob man die Ethik einer Maschine überhaupt als Ethik bezeichnen kann? Es ist zwar möglich das menschliche Gehirn und somit die Denkweise eines Menschen zu 100% imitieren zu können aber wenn man betrachtet das wir mehr über den Weltraum als über das Meer und unser eigenes Gehirn wissen wird das noch etwas dauern. Wobei man allerdings bedenken muss das sich die Technik immer schneller weiter entwickelt was man unter anderem sehr gut daran sehen kann das die NASA ungefähr bis um 2030 den Mars kolonialisiert haben will.Aber um noch einmal auf das Thema der "Ethik" von Maschinen zurück zu kommen: Wenn man das menschliche Gehirn zu 100% imitiert dann denken KI's genau so wie Menschen und da kommt bei mir die Frage auf wenn kein Glücksfall eintritt und genau die 4% der Menschheit imitiert wird die noch logisch und selbstständig denken kann dann müssen wir denke ich nicht mehr von Ethik oder irgent etwas in der Art sprechen, da wäre mir ein 100% Rationell (oder Rational, gibt es da einen Unterschied?) viel angenehmer als irgendwelche Menschen die nicht mehr logisch denken können oder sich über eventuelle Folgen von Taten im klaren sind und genau das tun was alle anderen tun(was in den meisten Fällen nicht so gut ist) und das einfach weil: irgenteinen Grund wird das sicherlich haben.

    Naja das ist ein Thema über das man sicherlich viel reden kann aber wenn man sich von einer Psychologin einen 30 minütigen Vortrag darüber anhören darf wie wichtig die Reihenfolge ist in der Menschen durch eine Tür gehen, kann man wahrscheinlich über ALLES stundenlang erzählen.
    Ich wünsche Ihnen und allen anderen noch einen schönen Tag, auf Wiedersehen.

  • #2

    Heinrich (Freitag, 23 Juni 2017 02:52)

    Danke Karl, für diese grandiose Zusammenfassung! Die hat MIR mehr gebracht, als eine Teilnahme an der Jahrestagung!
    Schriftsteller/innen wie Thea Dorn und Karl Olsberg haben gelernt, wie man ein Thema strukturiert, nicht unnütz abschweift, beziehungsweise den Faden wiederfindet, und es seinen Lesern so präsentiert, dass sie folgen können und bis zum Schluss interessiert bleiben.
    Da wundert es mich nicht, dass ein Generalleutnant da nicht mithalten kann und ein Vorstandsvorsitzender seinen Vortrag mit Ego und Komplexität überfrachtet.
    Vorne stehen nicht immer die "richtigen" Leute.
    Da so eine Veranstaltung aber niemals perfekt sein kann, dienen auch die kritikwürdigen Beiträge der Sache! Mein Horizont wurde wieder erweitert - und da ist noch eine Menge Platz! Auch wenn ich technische Hilfmittel benutze (u.a. autonom fliegende Kameras) bleibt mein Abstand zum Horizont immer gleich. ;)
    Gruß Heinrich

    P.S. Felix, danke für die guten Wünsche an alle! Ich schneide mir ein Scheibchen davon ab! Ihren Kommentar finde ich sehr interessant und auch der hat mir die Augen geöffnet, dass ich schon länger zu den 96% gehöre, die nicht alles mehr selbständig können. ;)

  • #3

    Karl Olsberg (Freitag, 23 Juni 2017 10:01)

    @Felix: Ich glaube nicht, dass Maschinen jemals "denken wie ein Mensch" - dazu müssten sie ja auch alle Macken eines Menschen haben, und das will doch hoffentlich keiner. Das bedeutet aber nicht, dass sie uns nicht überlegen sein können. "Intelligente" Maschinen sind ja nicht wirklich intelligent im menschlichen Sinn, können aber bestimmte Entscheidungen, für die wir Intelligenz brauchen, viel besser treffen als wir. Das gilt prinzipiell auch für Ethik: Eine Maschine könnte theoretisch Entscheidungen nach ethisch-moralischen Prinzipien treffen, wenn man es ihr beibringt. Ob sie dann eine eigene Ethik hat oder bloß eine menschliche imitiert, ist eine philosophische Frage.

    "Selbstlernende autonome Systeme" handeln übrigens viel weniger "rational" als Menschen (in dem Sinn, dass sie ihre Entscheidungen erklären und begründen könnten). Sie entscheiden eher "intuitiv" anhand von Mustern, die sie erkennen, sehr ähnlich dem, was wir beim Menschen "Bauchgefühl" nennen.

  • #4

    Karl Olsberg (Freitag, 23 Juni 2017 10:05)

    @Heinrich: Den Generalleutnant muss ich in Schutz nehmen, der hat ganz sachlich und vernünftig argumentiert. Und was Henning Kagermann betrifft: Dessen Präsentation hat mich sehr stark an das erinnert, was ich als Unternehmensberater schon oft selber fabriziert habe - viel zu viel Information auf viel zu vielen Charts. Frei nach Goethe hatte der arme Mann offensichtlich nicht genug Zeit, sich kurz zu fassen und sich auf das Wesentliche zu konzentrieren.

  • #5

    Heinrich (Freitag, 23 Juni 2017 22:38)

    Du bist ein fairer Kollege! ;)