Ist autonome Technik gut oder böse? Für Professor Michael Lauster, Leiter des Fraunhofer INT, kann sie beides sein. Letztendlich entscheide der Mensch darüber, ob seine Werkzeuge Gutes oder Böses bewirken. Dennoch sei die Angst des Menschen vor dem selbst geschaffenen autonomen Wesen tief in uns verwurzelt. // von Antonia Heizmann
„Autonomie – technisch machbar und ethisch vertretbar?“ lautete das Thema, zu dem Michael Lauster im Panel „Technische Autonomie“ vortrug. Diese zentrale Frage stieß auf großes Interesse: Bunt gemischt war das Publikum, von jung bis alt, von Jeans bis Anzug und Krawatte. Dass künstliche Wesen die Menschen bereits vor Jahrhunderten beschäftigt haben, war sicherlich für viele neu: „Den ersten Roboter gab es schon im frühen Mittelalter, das war der Golem“, überraschte Michael Lauster seine Zuhörer. Dieses Wesen aus der jüdischen Literatur und Mystik wurde von einem Rabbi aus Lehm geschaffen. Der Golem führte die Befehle aus, die man auf einen Zettel schrieb und ihm unter die Zunge legte. Erschaffen wurde er, um Menschen schützen, aber durch einen Fehler wurde er zum Amokläufer. Die Furcht vor dem Golem ist somit Ausdruck der tief verwurzelten Angst, dass sich das künstliche Wesen gegen den Menschen richten könnte.
Autonomie heißt moralisch zu handeln
Heute gebe es immer noch Golems. Sie seien nicht mehr aus Lehm und anstatt Zetteln unter der Zunge gebe es Programmierung und Codes. Michael Lauster fragte sein Publikum: „Müssen wir wirklich Angst vor unseren Golems haben?“ Gut und böse seien Begriffe aus der Ethik, die sich nur auf den Menschen bezögen. Nur der Mensch könne, noch bevor er über umfassende Erfahrungen verfügen würde, schon gut und böse unterscheiden. „Das ist es, was unsere Eltern gesagt haben, als wir klein waren: Was du nicht willst, das man dir tu, das füg' auch keinem anderen zu.“ Der Mensch sei ein autonomes Wesen, weil er von sich aus moralisch handeln könne. Dies gelte nicht für Technik.
Technik ist nicht frei
Menschliche Autonomie und technische Autonomie seien auch aus einem anderen Grund nicht vergleichbar. Der Mensch sei viel freier in seinen Entscheidungen als die Technik. Letztere sei immer nur unter bestimmten Rahmenbedingungen frei. Zum Beispiel seien Laptops, Tablets, Smartphones nur so lange autonom in Bezug auf ihre Funktion bis die Batterie leer wäre. „Unsere jetzigen Systeme sind nichts anderes als Werkzeuge und wir entkommen unserer Verantwortung nicht, wir sind es, die diese Systeme erschaffen“, sagte Michael Lauster.
Künstliche Intelligenzen müssten lernen
Ein weiteres Kriterium für Autonomie sei die Intelligenz. Michael Lauster unterschied zwischen schwacher und starker künstlicher Intelligenz. Schwache künstliche Intelligenz würde lediglich agieren wie ein intelligentes Wesen, sei es aber nicht. Als Beispiele nannte Michael Lauster Siri oder Alexa: „Wenn man eine der beiden fragt, klingt die Antwort eigentlich ganz vernünftig, doch sobald die Fragen komplexer werden, kommt nur Unfug heraus.“ Starke künstliche Intelligenz müsste fähig sein, zu lernen, zu planen, kreativ und empathisch zu sein. Bislang hätten Maschinen zwar bei einigen Logikspielen wie Schach oder Kreuzworträtsel den Menschen besiegt, doch autonomes Entscheiden bei Maschinen gäbe es noch nicht. Michael Lauster resümierte: „Alles, was wir im Augenblick sehen, ist schwache künstliche Intelligenz.“ Ob es jemals eine starke künstliche Intelligenz geben wird und wann das sein könnte, weiß man heute noch nicht.
Nachfolgend einige Eindrücke aus dem Vortrag von Professor Michael Lauster, eingefangen von Marius Franke:
Links:
- Die Robotergesetze von Isaac Asimov
Auf der Seite von Roboterwelt findet man einen Artikel über die Robotergesetze von Isaac Asimov. Prof. Michael Lauster redet darüber, dass technische Autonomie weder „gut“ noch „böse“ sei, da sie nur als Werkzeug diene. Trotzdem könnte das „Werkzeug“ zu bösen Zwecken genutzt werden. Der Science-Fiction-Autor Isaac Asimov beschäftigte sich mit dem Zusammenleben von Robotern und Menschen und hielt in einer Kurzgeschichte drei Robotergesetze fest. - Die Prager Golem-Sage
Dieser Link führt zu einer Seite wo man Informationen über die jüdische Geschichte und Kultur findet. Hier ist die Geschichte des Golems interessant, die Prof. Michael Lauster anspricht. Der Golem erinnert an autonome Roboter und hat durch einen „Bedienungsfehler“ alles kurz und klein geschlagen. Dies zeigt, dass autonome Roboter nicht fähig sind ethisch zu handeln und sich gegen uns wenden können. - Gut und Böse nach Immanuel Kant
Dieser Link führt zu einem Auszug des Buches „Die Analytik der reinen praktischen Vernunft“ von Immanuel Kant. Hier werden die Begriffe „gut“ und „böse“ erklärt. Kant deutet darauf hin, dass Vernunft nötig ist um beides zu unterscheiden.
- Autonomie nach Immanuel Kant
Dieser Link führt zu einer Seite auf der Kants Autonomiebegriff beschrieben wird. Unter anderem wird auf der Seite die Autonomie auch in Bezug zu Freiheit, Wille und Moral beschrieben. Ein Computer ist Prof. Michael Lauster zufolge nicht autonom, da er nicht frei ist, sondern seinem Programm folgt. Technische Autonomie müsse daher von Autonomie unterschieden werden. - Der Unterschied zwischen starker KI und schwacher KI
Auf folgender Seite sind die schwache und die starke KI beschrieben, von der Prof. Michael Lauster spricht. Schwache KI simuliert etwas, während starke KI wie ein Lebewesen interagiert. Schwache und starke KI werden je nach benötigten Fähigkeit in unterschiedlichen Anwendungsgebieten benutzt.