Schattenblick → INFOPOOL → MEDIZIN → FAKTEN


ETHIK/1247: Jahrestagung "Autonome Systeme. Wie intelligente Maschinen uns verändern" (Infobrief - Dt. Ethikrat)


Infobrief des Deutschen Ethikrates Nr. 21 - Juli 2017 - 02/17

Jahrestagung
Wie wird die Zukunft mit intelligenten Maschinen?

von Thorsten Galert


Rund 500 Teilnehmer besuchten in Berlin die Jahrestagung des Deutschen Ethikrates zum Thema "Autonome Systeme. Wie intelligente Maschinen uns verändern".

Wir sind es gewohnt, uns in immer mehr Alltagssituationen von zunehmend leistungsfähigeren technischen Systemen unterstützen zu lassen. Bereits jetzt ist absehbar, dass die weitere Entwicklung maschineller Assistenzsysteme, die scheinbar immer selbstständiger agieren, unsere Gesellschaft und auch unser Selbstverständnis tief greifend verändern wird. Welche Auswirkungen sind zu erwarten und wie können und wollen wir sie gestalten? Dies waren die Leitfragen der Jahrestagung des Deutschen Ethikrates, die am 21. Juni 2017 in Berlin stattgefunden hat.

Der Vorsitzende des Ethikrates Peter Dabrock eröffnete die Tagung mit einer Reihe von Fragen an das Publikum, um zum Nachdenken über mögliche technologische Neuerungen anzuregen. Würden sie sich in ein selbstfahrendes Auto setzen? Würden Sie sich von einem Pflegeroboter pflegen lassen? Würden sie sich über einen die Milch selbstständig nachbestellenden Kühlschrank freuen? Den bei der Luftwaffe arbeitenden Sohn lieber an einer Drohnen-Fernsteuerung als am Steuer eines Kampfjets sehen? Mit diesen Fragen waren zugleich die vier Anwendungsgebiete autonomer Systeme - selbstfahrende Autos, Medizinmaschinen und Pflegeroboter, das vernetzte Heim sowie autonome Waffensysteme - angesprochen, die am Nachmittag in parallelen Foren zur Diskussion standen. Peter Dabrock ließ keinen Zweifel daran, dass der Umgang mit autonomen Systemen uns als Menschen verändern wird. Entscheidend sei es, mögliche Veränderungen zu bewerten und problematischen Entwicklungen durch angemessene Regulierung neuer Technologien entgegenzutreten. Die Gesellschaft müsse sich der Aufgabe der Mitgestaltung der technischen Entwicklung stellen und Regeln zur Haftung für von autonomen Systemen verursachte Schäden und für den verantwortlichen Umgang mit personenbezogenen Daten etablieren. Anderenfalls drohten wir zu Sklaven der Datennutzungsindustrie zu werden oder gar in die Situation des von Goethe beschriebenen Zauberlehrlings zu geraten, der die Macht über die von ihm beschworenen Kräfte verlor.

Neue Technologien

Einen Überblick über das Spektrum der aktuellen technologischen Möglichkeiten und ihre voraussichtlichen Entwicklungsperspektiven gab im ersten Vortrag des Tages Henning Kagermann, der unter anderem Präsident der Deutschen Akademie der Technikwissenschaften acatech ist. Er stellte klar, dass wir es derzeit nicht so sehr mit gänzlich neuen Technologien zu tun hätten; vielmehr gelangten gerade seit Langem in Entwicklung befindliche Anwendungen zur Marktreife. Dieser Prozess werde unter anderem durch den Einsatz von verbesserten Verfahren maschinellen Lernens vorangetrieben. So tritt beim sogenannten Deep Learning das aufgrund selbstständiger Verarbeitung von Lerninhalten entstehende Verbindungsmuster innerhalb von und zwischen schichtartig organisierten neuronalen Netzen an die Stelle der von Programmierern generierten Wissensbasis älterer Expertensysteme. Die Entwicklung schreite somit voran von automatisierten Systemen, die lediglich einen festgelegten Aktionsablauf selbstständig ausführen, über lernende und selbstlernende Systeme zu selbststeuernden bzw. selbstregulierenden Systemen, die ein vorgegebenes Ziel selbstständig und situationsadaptiv verfolgen. Die Plastizität selbstlernender Systeme sei jedoch nicht in allen Kontexten von Vorteil. So könne man beispielsweise bei Anwendungen mit besonders hohen Sicherheitsanforderungen, also beispielsweise bei selbstfahrenden Autos, gerade wegen der immanenten Wandlungsfähigkeit selbstlernender Systeme kaum ausschließen, dass diese sich in ethisch fragwürdiger Weise entwickelten. Bezüglich des Straßenverkehrs gelte im Übrigen, dass die Phase des Mischverkehrs von selbstfahrenden Autos einerseits und von Menschen gesteuerten Autos andererseits schwieriger zu regulieren sei als ein Zukunftsszenario, in dem sich auf den Straßen nur noch autonome Fahrzeuge bewegten. Im Bereich der Mobilität gelte ebenso wie für die Industrieproduktion, das Anwendungsfeld Smart Home oder für Maßnahmen in menschenfeindlicher Umgebung, dass Maschinen Menschen unterstützen und ihre Fähigkeiten ergänzen, sie aber nicht ersetzen sollten. Deshalb sei "ein frühzeitiger und langfristig angelegter gesellschaftlicher Dialog nötig, in dem Chancen und Risiken transparent gemacht und gegeneinander abgewogen werden", so Kagermann.

Auf den Hauptvortrag folgten zwei Kommentare aus ökonomischer und aus technischer Perspektive. Im ersten Kommentar prognostizierte Christoph M. Schmidt, Vorsitzender des Sachverständigenrates zur Begutachtung der gesamtwirtschaftlichen Entwicklung, dass der Einsatz autonomer Systeme die Märkte im Sinne einer "kreativen Zerstörung" ebenso rapide verändern werde wie "soziale und administrative Institutionen". Dieser radikale Wandel müsse nicht unbedingt Grund zur Besorgnis sein, schließlich habe das Voranschreiten der technologischen Entwicklung in den letzten Jahrzehnten zum globalen Rückgang der Armut beigetragen. Die absehbar größere Schnelllebigkeit von Institutionen und Strukturen werde jedoch einen hohen Änderungsdruck auf der regulatorischen Ebene erzeugen. Folglich forderte Schmidt neue Regulierungsansätze, die die Befähigung zur individuellen Teilhabe und Absicherung gegenüber dem Schutz durch den Staat in den Vordergrund stellen.

Katharina A. Zweig von der Technischen Universität Kaiserslautern erläuterte am Beispiel von Systemen, mit denen in den USA Rückfälligkeitsprognosen für Straftäter angefertigt werden, die Grenzen in der Anwendung von algorithmusbasierten, entscheidungsunterstützenden Systemen. Sie mahnte dringend "die Entwicklung qualitätssichernder Prozesse zu ihrem Design, ihrer Implementierung, Wartung und kontinuierlichen Verbesserung an. Dazu bedarf es einer gesamtgesellschaftlichen Diskussion darüber, welche gesellschaftlichen Prozesse sich überhaupt für algorithmische Entscheidungssysteme eignen und nach welchen Kriterien sie optimiert werden sollen", so Zweig. In der Konsequenz müssten für solche Systeme demokratisch legitimierte, industrieunabhängige Prüfstellen etabliert werden.

Regeln für Roboter

Im zweiten Hauptvortrag legte Julian NidaRümelin von der Ludwig-Maximilians-Universität München dar, warum aus philosophischer Perspektive autonomen Systemen keine Verantwortung zugeschrieben werden sollte. Der Verantwortungsbegriff sei an Intentionalität und Personalität gekoppelt - Fähigkeiten, die so alleine Menschen zukämen. Die Entwicklung und der zunehmende Einsatz autonomer Systeme seien zwar wünschenswert, "aber ethisch nur unter der Bedingung vertretbar, dass autonomen Systemen keine mentalen und speziell personalen Eigenschaften zugeschrieben" würden. Nida-Rümelin riet daher auch dazu, statt von autonomen Systemen besser von Systemen unterschiedlichen Automatisierungsgrads zu sprechen. Zu wenig Beachtung finde auch, dass die Anerkennung einer so genannten "starken" künstlichen Intelligenz, die dem menschlichen Denken mindestens gleichzusetzen wäre, technikfeindliche Konsequenzen haben müsse, da man wirklich intelligenten Maschinen auch bislang dem Menschen vorbehaltene Rechte und Würde zuzugestehen habe. In der Folge wären ihrer Instrumentalisierung enge Grenzen gesetzt und es müsste sogar moralisch fragwürdig erscheinen, solche Maschinen auszuschalten. In ihrem Kommentar nahm die Juristin Christiane Wendehorst von der Universität Wien die jüngst von Bundesverkehrsminister Alexander Dobrindt getroffene Aussage aufs Korn, wonach Fahrer und Computer rechtlich gleichgestellt werden sollten. Diese Aussage sei absurd, weil im derzeit geltenden Recht Maschinen selbst dann keine Rechtspersönlichkeit zukäme, wenn sie mit fortgeschrittener künstlicher Intelligenz ausgestattet seien. "Sie sind daher auch nicht Adressaten rechtlicher Regelungen und können weder 'dürfen' noch 'nicht dürfen'", so Wendehorst. Regelungsadressaten seien vielmehr die Menschen oder juristischen Personen, die Maschinen herstellen, verkaufen und nutzen. Haftungsfragen sei in diesem Zusammenhang noch vergleichsweise leicht beizukommen, etwa mit Instrumenten wie Haftungsfonds. Phänomene wie Dezentralisierung und Selbstorganisation, die es schwer machten, den Hersteller und Halter eines autonomen Systems zweifelsfrei zu bestimmen, könnten dennoch zur Gefahr eines Verantwortungsvakuums führen. Ebenso wie Nida-Rümelin hielt auch Wendehorst die Einführung sogenannter E-Personen für nicht wünschenswert - eine Einschätzung, der aus dem Publikum teilweise widersprochen wurde.

Parallele Foren

Am Nachmittag fanden parallel vier Foren zu autonomen Systemen in verschiedenen Anwendungsfeldern statt.

Im Forum A diskutierten Joachim Damasky vom Verband der Automobilindustrie e. V. und Ratsmitglied Reinhard Merkel über selbstfahrende Autos. In 50 Jahren werde kein Mensch mehr Autos kaufen, sondern Mobilität, so Damaskys Vision. Wir seien vom voll autonomen Fahren zwar noch weit entfernt, er sei aber froh, dass die gesellschaftliche Diskussion darüber bereits jetzt beginne. Die Leitlinien für automatisiertes und vernetztes Fahren, die die von Minister Dobrindt eingesetzte Ethik-Kommission tags zuvor vorgelegt hatte, verstand Damasky als einen wichtigen Beitrag auf diesem Weg. Angesichts der Tatsache, dass mehr als 90 Prozent der Verkehrsunfälle auf menschliches Versagen zurückgingen, sei es das Ziel der deutschen Automobilindustrie, den Fahrer mithilfe automatisierter und vernetzter Fahrzeuge zu entlasten, Mobilität bis ins Alter zu erhalten und insgesamt die Verkehrssicherheit zu erhöhen. Hinsichtlich der viel diskutierten Dilemmata, die sich aus Fragen des Typs ergeben, ob ein autonomes Fahrzeug in unausweichlichen Schadenssituationen eher einen alten Mann, eine Gruppe Schulkinder oder aber den Fahrer selbst opfern solle, plädierte Damasky für eine unabhängige Stelle, die für Automobilbauer verbindliche Richtlinien für den Umgang mit solchen Zweifelsfällen vorgeben sollte.

Merkel wies bezüglich solcher Dilemmata darauf hin, dass es bei der Programmierung autonomer Fahrzeuge erlaubt sei, dem System Entscheidungen vorzugeben, die wir Menschen nicht gestatten würden und nicht gestatten dürften. Es gebe nämlich einen substanziellen Unterschied zwischen der konkreten Situation, in der ein Mensch entscheidet, ein Leben zu opfern, um viele andere zu retten, und der abstrakten Situation, in der ein System so programmiert ist, dass es den geringeren Schaden anrichtet.

Im Forum B befassten sich die Teilnehmenden mit den Herausforderungen durch Medizinmaschinen und Pflegeroboter.

Birgit Graf vom Fraunhofer-Institut für Produktionstechnik und Automatisierung stellte den Stand der Forschung zu Pflegerobotern, wie dem Care-O-bot®, und zukünftige Entwicklungsperspektiven für solche Assistenzsysteme vor. Weil bisherige Studien gezeigt hätten, wie wichtig die Frage der Akzeptanz von Pflegerobotern aufseiten der Patienten sei, würden diese immer stärker an deren Entwicklung beteiligt.

Steffen Leonhardt von der RWTH Aachen prognostizierte, dass sich die zunehmende Komplexität von Behandlungssituationen in Krankenhäusern überhaupt nur durch den Einsatz automatisierter Systeme bewältigen lassen werde. Der "Robodoc" bleibe jedoch bis auf Weiteres eine Fiktion.

Arne Manzeschke von der Evangelischen Hochschule Nürnberg wies - aus ethischer Perspektive - darauf hin, dass mit der zunehmenden Digitalisierung im Gesundheitswesen zwangsläufig auch automatisierte Prozesse und algorithmusbasierte Entscheidungen verbunden seien. Deren Überprüfbarkeit durch den Einzelnen sei aber aufgrund der Komplexität praktisch unmöglich geworden. Zudem bestünde die Gefahr, dass durch die zunehmende Vernetzung von automatisierten Systemen Entscheidungen getroffen würden, die nicht mehr nachvollziehbar seien und auch keinem Verantwortlichen mehr zugeordnet werden könnten.

Im Forum C wurde diskutiert, wie Smart-Home-Umgebungen das
Wohnverhalten der Zukunft beeinflussen können.

Die neue Technik verspreche eine enorme Arbeitserleichterung und Unterstützung im Alltag, berichtete Wolfgang Maaß vom Deutschen Forschungszentrum für Künstliche Intelligenz. Das Recht auf informationelle Selbstbestimmung könne dabei sehr wohl gewahrt bleiben, wenn private Daten nicht in externen Clouds, sondern nur lokal im Eigenheim gespeichert würden, und zwar ohne dass dadurch der Service stark eingeschränkt werden müsse. Dass viele bisherige Anwendungen dennoch massenhaft Rohdaten der Nutzer an die Anbieter übermitteln, liege eher an deren geschäftlichen Interessen als an einer wirklichen technischen Notwendigkeit.

Michael Decker vom Karlsruher Institut für Technologie beschrieb die Gefahr, dass Menschen sich in ihrem Verhalten zu stark durch ihre Heimtechnik beeinflussen lassen. Eine enge emotionale Bindung zu Assistenzrobotern oder auch Bequemlichkeit begünstigten dies. Über die letzte Zwecksetzungskompetenz sollten aber, so Decker, ausschließlich die Bewohner verfügen. Anderenfalls bewohnte man nicht mehr die Wohnung, sondern die Wohnung bewohnte ihre Bewohner.

Dass einige Technologien künftig gleichwohl unumgänglich sein werden, führte Johanna Kardel vom Verbraucherzentrale Bundesverband aus. So seien "intelligente" Stromzähler, sogenannte Smart Meter, bereits seit 2017 für Haushalte mit hohem Energieverbrauch gesetzlich verpflichtend.

Im Forum D diskutierte Bernhard Koch vom Hamburger Institut für Theologie und Frieden mit dem Inspekteur der Luftwaffe, Generalleutnant Karl Müllner, über autonome Waffensysteme, die in der internationalen Debatte oft als LAWs (Lethal Autonomous Weapons) abgekürzt werden. Nach Ansicht von Koch töteten solche Systeme nicht nur, sondern raubten ihren Opfern dabei noch die Menschenwürde, weil sie diese nicht als Menschen behandeln können, da sie über keinen Begriff des Menschen verfügen.

Auch Müllner sprach sich für die Ächtung von LAWs aus, die Einsätze mit menschlichen Opfern voll automatisch planen und durchführen könnten. Er verwies jedoch auf die ethische Relevanz des Unterschieds zwischen offensiven und defensiven Einsätzen autonomer Waffensysteme. So seien im Defensivbereich auch bei der Bundeswehr schon seit Längerem automatisierte Waffensysteme wie etwa das Patriot-System unumstritten im Einsatz. Zudem sei es nicht nur legitim, sondern sogar geboten, neben möglichen Kollateralschäden durch automatisierte Waffensysteme auch die Sicherheitsinteressen der Soldaten zu beachten, die sich dank solcher Systeme nicht länger in Gefahr begeben müssen.

In allen Foren wurde deutlich, dass entgegen einer Tendenz, den Menschen zum Objekt der autonomen Systeme zu machen, der Mensch und seine Autonomie im Mittelpunkt bleiben müssen.

"Königstugenden"

In ihrem Schlussbeitrag beurteilte die Schriftstellerin Thea Dorn die Anwendung von Begriffen wie Intelligenz, Autonomie und Lernen auf Maschinen als überaus problematisch, da diese zu "den Königstugenden des Menschen" gehörten. So bestehe wahre Autonomie in der Kompetenz, selbstständig Zwecke zu setzen, während wir von technischen Systemen allenfalls erwarten sollten, dass sie vorgegebene Zwecke selbstständig verfolgen. Entsprechend habe ein Schüler nur dann etwas wirklich gelernt, wenn er irgendwann dem Lehrer widersprechen könne, während es bei lernenden Maschinen in erster Linie darum ginge, diese zu gut funktionierenden Helfern abzurichten. Nicht unterschätzt werden sollte auch der Preis, den man für die Nutzung automatisierter Assistenzsysteme in Gestalt des Verlusts an Selbstständigkeit zu entrichten habe. Im Kleinen zeige sich die Autonomie untergrabende Wirkung technischer Hilfsmittel schon heute am verkümmerten Orientierungsvermögen vieler Menschen, die sich im Alltag nur noch auf satellitengestützte Navigationssysteme verlassen. Angesichts einer allgemeinen Tendenz zur geistigen Trägheit, wenn allzu viele Kompetenzen an Maschinen abgetreten werden, forderte Dorn "persönlichkeitsbildende Fitnessbänder", um individuelle und gesellschaftliche Resilienzen zu bilden. Nur so könne man einer maschinenzentrierten Weltsicht vorbeugen, in der der Mensch irgendwann nur noch als Störfaktor erscheine. (Ga)


INFO

Quelle
Die einzelnen Beiträge der Tagung können unter
http://www.ethikrat.org/veranstaltungen/jahrestagungen/autonomesysteme nachgehört und nachgelesen werden.

*

Quelle:
Infobrief Nr. 21 - Juli 2017 - 02/17, Seite 4 - 7
Informationen und Nachrichten aus dem Deutschen Ethikrat
Herausgeber: Geschäftsstelle des Deutschen Ethikrates
Sitz: Berlin-Brandenburgische Akademie der Wissenschaften
Jägerstr. 22/23, 10117 Berlin
Redaktion: Dr. Joachim Vetter (V.i.S.d.P.)
Telefon: 030/203 70-242, Telefax: 030/203 70-252
E-Mail: kontakt@ethikrat.org
Internet: www.ethikrat.org


veröffentlicht im Schattenblick zum 30. August 2017

Zur Tagesausgabe / Zum Seitenanfang