••• Die Consumer Electronics Show in Las Vegas rückte der Welt soeben einmal mehr ins Bewusstsein, wie leistungsfähig computergestützte Systeme unterdessen geworden sind. In diesem Jahr machen Lösungen auf Basis des Machine Learnings besonders von sich reden. Da man heute in einem Smartphone mobil über die Rechenleistung verfügen kann, die vor 30 Jahren noch Supercomputern vorbehalten war, scheint nichts mehr unmöglich. Schon vor Jahren nahm Deep Blue dem Menschen die Schachkrone. Unterdessen besiegte AlphaGo die besten Go-Spieler der Welt. Der Künstlichen Intelligenz scheint die Zukunft zu gehören. Wann, fragt sich mancher, werden uns die Maschinen auf breiter Front überflügeln? Darf man es so weit kommen lassen? Oder ist es gar nicht so, dass Maschinen wirklich denken können?
Tatsächlich ist die Wissenschaft vom Begriff der Künstlichen Intelligenz längst abgerückt. So beeindruckend die Leistungen von Deep Blue oder AlphaGo auch erscheinen mögen, um Intelligenz handelt es sich nicht, sondern um Mustererkennung, gepaart mit Regelwerken und der Möglichkeit, sehr viele Optionen in kurzer Zeit durchprobieren und bewerten zu können. Dabei existieren diese Systeme genau nur in der Welt des Problems, das sie lösen sollen. Nehmen wir als Beispiel ein Schachprogramm. Dessen Welt besteht 8×8 Feldern, zwei Sets von Figuren und einem Regelwerk, wie sich diese Figuren bewegen dürfen und welche Bewertung eine bestimmte Stellung dieser Figuren hat. Soll das Programm den besten nächsten Zug ermitteln, probiert es alle möglichen Züge, ermittelt den Wert der resultierenden Stellung und wiederholt das Ganze für sich und den Gegner für so viele Züge voraus wie sinnvoll und möglich. Dann entscheidet es sich für den Zug mit den besten Siegaussichten. Das Spiel eines solchen Programmes mag uns kreativ erscheinen. Tatsächlich handelt es sich nur um mathematische Folgerichtigkeit.
Die meisten lernfähigen Systeme bestehen heute aus neuronalen Netzwerken. Deren Funktion ist angelehnt an die der Neuronen und Synapsen im menschlichen Gehirn. Die Unterschiede sind jedoch gravierend. Während im Gehirn Milliarden von Neuronen gleichzeitig feuern, erfolgt in Programmen die Verarbeitung sequentiell. Während Zeit in der Signalverarbeitung im Gehirn eine fundamentale Rolle spielt, haben neuronale Netzwerke von Zeit keinen Begriff. Und schließlich erzeugen solche Netzwerke bei gleicher Eingabe die gleiche Ausgabe, wohingegen unser Gehirn ein unscharfes System ist, das auf »gleiche« Reize unterschiedlich reagieren kann.
In naher Zukunft dürfte es kaum geschehen, dass Computer an die Leistungsfähigkeit in der Parallelverarbeitung und an die Funktionsweise des menschlichen Gehirns heranreichen. Nehmen wir aber dennoch an, dass es geschieht. Denn dann wird die Frage aus weltanschaulicher Sicht interessant. Der Talmud (Sanhedrin 65b) bescheinigt dem Menschen die Fähigkeit, ganze Welten zu erschaffen, inklusive Leben. Der Maharsha schränkt ein, dass diese Schöpfungen jedoch über keine Seele verfügen. Während ein Atheist also annehmen mag, dass die rein quantitativen Voraussetzungen in eine neue Qualität, nämlich die einer sich selbst bewussten, denkenden Maschine, umschlagen können, müsste man dies aus jüdischer Sicht verneinen. Dies aber wäre die Voraussetzung für freien Willen. Und den wiederum würde es brauchen, um die Herrschaft über die eigenen Schöpfer überhaupt anzustreben.
Können wir also Entwarnung geben? – Keineswegs. Die Gefahr liegt lediglich woanders.
Obwohl die Computersysteme nicht intelligent sind und es auch auf lange Sicht und womöglich nie sein werden, übertragen wir ihnen mehr und mehr Aufgaben, die intelligente, ja beseelte, Entscheidungen erfordern. Auch hier zeigt ein Beispiel am ehesten, worum es geht. Triage-Probleme gehören zu den schwierigsten ethischen Fragestellungen: Wen soll man retten, wenn begrenzte Möglichkeiten die Rettung von einzelnen nur auf Kosten anderer erlauben? Nehmen wir an, Sie werden Zeuge eines tragischen Unfalls: Eine Frau mit Kleinkind und ein Torah-Gelehrter fallen von der Reling eines Schiffes ins Meer. Sie können nur einem Menschen helfen, aber wem?
Mit genau solchen Fragen müssen sich die Entwickler der Software für selbstfahrende Fahrzeuge auseinandersetzen. Kommt es nämlich auf der Straße zu einer Gefahrensituation, muss das Fahrzeug unmittelbar selbst entscheiden, was zu tun ist. Wenn ein Bus voller Schulkinder vor dem Absturz in eine Schlucht bewahrt werden kann, indem mein eigenes Fahrzeug ausweicht und abstürzt, ist das dann die richtige Entscheidung? Kann ein Leben wichtiger sein als ein anderes?
Der Talmud behandelt dieses schwierige Problem in Horayot 13a, und ich kann Ihnen versichern, dies ist keine erheiternde Lektüre. Was den hypothetischen Unfall auf See angeht, lautet die Priorisierung: Der Gelehrte, die Frau und dann erst das Kind. Hätten Sie anders entschieden? – Dumm nur, wenn sie gar nicht mehr entscheiden dürfen, sondern nur noch der Gott aus der Maschine.
Erschienen als Leitartikel in:
»Jüdische Allgemeine« vom 18.01.2018, S. 1
Am 15. Februar 2018 um 16:51 Uhr
Servus,
diese Triage-Probleme lassen sich doch nur mit dem Wissen um die Zukunft lösen, womit auch eine KI, so sie nicht mal kurz in der Zukunft war, ein erhebliches Problem haben sollte.
Jetzt kann man natürlich statistisch davon ausgehen, dass sich in einem Bus mit 20 Kindern wenigstens ein gewisser Prozentsatz von hellen Köpfen befindet, somit die Mengenbetrachtung für das Retten des Busses spricht. Aber das ist ja nur die direkte Beziehung. Die kann aber nicht berücksichtigen, was für Desaster eines der Kinder in der Zukunft auslösen kann.
Somit gehört diese Frage für mich ganz sicher in den Kasten „nicht beantwortbar“.
Matthias
Am 20. Februar 2018 um 23:03 Uhr
Eben weil wir nicht in die Zukunft schauen könne, handelt es sich hier um ein ethisch-moralisches Problem. Auch wenn wir die »richtige« Antwort nicht wissen, müssen wir doch handeln. Besonders häufig treten diese Fragestellungen im medizinischen Bereich auf. Die Option, nichts zu tun, scheidet in diesen Situationen klar aus.
Am 23. Februar 2018 um 22:01 Uhr
Die selbe Frage in einem anderen Kontext, hier Medizin, ergibt auch eine andere Betrachtung. Beim selbstfahrenden Auto geht es im Fall eines Unfalls um eine spontane Momententscheidung, ohne die Möglichkeit einer Beobachtung oder Vorbereitung, wie sie in der Medizin regelmäßig gegeben ist.
Auch handelt es sich bei einem Unfall oft auch um ein 1:n Verhältnis, wenn ein Bus mit x Insassen über die Klippe geht. In der Medizin sollte 1:n eher die Ausnahme sein.
Daher bleibt für den initialen Fall des selbstfahrenden Autos die Aussage „nicht zu beantworten“ völlig valide.
PS: Deine Seite erscheint aktuell ohne jegliches CSS.
Am 24. Februar 2018 um 08:16 Uhr
Was also, soll das selbstfahrende Auto dann tun? Nichts ist ja keine Option.