Künstliche Intelligenz, ein echtes Problem

Künstliche Intelligenz, Real Issue

Smart Box oder echter Junge?

Von Neil Osterweil Aus dem Arztarchiv

24. September 2001 --Wenn Sie eine Maschine erschaffen, die zu eigenständigem Denken fähig ist, haben Sie dann Leben erschaffen? Haben Sie eine Verantwortung für dieses Leben oder haben Sie lediglich ein weiteres Stück cleverer Hardware zusammengebaut, das durch die nächste Neuheit überflüssig wird?

In dem Film AI (künstliche Intelligenz) von Steven Spielberg und Stanley Kubrick erschafft ein Roboterhersteller David, einen synthetischen Jungen, der auf Liebe programmiert ist. Sein menschlicher Besitzer startet ein Programm, das die Zuneigung des Cyberkids unwiderruflich auf seinen Besitzer fixiert.

Doch mit der Entwicklung und dem Bau von David hat der Roboterbauer ein weiteres Frankenstein'sches Monster geschaffen. Der scheinbar selbstbewusste "Mecha" (kurz für "mechanisch") sehnt sich nach der Liebe seiner menschlichen "Mutter" und sehnt sich wie Pinocchio danach, ein "echter" Junge zu werden.

Der Film wirft sowohl faszinierende als auch beunruhigende philosophische Fragen darüber auf, was es bedeutet, ein Mensch zu sein, einen Sinn für sich selbst zu haben und ein einzigartiges, unabhängiges Wesen zu sein, das Respekt und Rechte vor dem Gesetz verdient.

Als David, um sich vor den Spötteleien und Drohungen der Jungs aus Fleisch und Blut zu schützen, versehentlich den Sohn seiner Besitzer verletzt, wird er im Wald ausgesetzt und ist auf sich allein gestellt. Er findet sich in der Gesellschaft von freakigen, kaputten, halb geformten Robotern wieder, die sich am Leben erhalten, indem sie Ersatzteile von einer Müllhalde sammeln.

Aber nur weil David weint und fleht, bei der Frau zu bleiben, die er Mama nennt, und flieht, als er von Kopfgeldjägern aufgespürt wird, sind seine Instinkte des Schreckens und der Selbsterhaltung echt, oder sind sie lediglich eine brillante mechanische und elektronische Simulation dessen, wie ein echter Junge reagieren würde? Spielt das eine Rolle?

Ich denke, also bin ich?

Nick Bostrom, PhD, Dozent für Philosophie an der Yale University in New Haven, Conn. sagt, dass es darauf ankommt.

"Ich denke, sobald ein Wesen empfindungsfähig wird - fähig, Schmerz oder Vergnügen zu empfinden - erhält es eine Art moralischen Status, allein dadurch, dass es in der Lage ist, zu leiden", erklärt Bostrom dem Arzt. "Auch wenn Tiere keine Menschenrechte haben - und die meisten von uns denken, dass es akzeptabel ist, sie für die medizinische Forschung zu verwenden - gibt es dennoch Grenzen. Wir erlauben den Menschen nicht, Tiere ohne jeden Grund zu quälen."

Frank Sudia, JD, hat etwas andere Kriterien. Er sagt, dass die Fähigkeit, eine oder mehrere Entscheidungen aus einer Vielzahl von Möglichkeiten zu treffen und danach zu handeln, und die Fähigkeit, zu entscheiden, welche von Tausenden von Möglichkeiten in einer unvorhergesehenen Situation die beste ist, eine grundlegende Arbeitsdefinition dessen sein kann, was es bedeutet, "zu sein".

"Wenn die Maschine die Macht hat, sich selbst zu produzieren - wenn sie ihre eigenen Ziele suchen oder sogar ihre eigenen Ziele aus einer Liste von Zielen auswählen kann, über die sie in der Zeitung gelesen hat [und beschließt]: 'Oh, ich möchte wie Madonna aussehen' - dann denke ich, dass diese Fähigkeit zu wählen, wie auch immer sie gelenkt sein mag, nicht von dem zu unterscheiden ist, was wir als unser Selbstgefühl betrachten", erklärt er dem Arzt.

Sudia ist ein in San Francisco ansässiger Berater für E-Commerce-Sicherheit und selbsternannter Ethiker, Wissenschaftler und Denker über intelligente Systeme. Er vergleicht die Rolle des Entwicklers von Systemen mit künstlicher Intelligenz oder des Herstellers von Robotern mit der Rolle der Eltern eines Heranwachsenden.

"Der Teenager beginnt, eine gute Auswahl an Reaktionen zu haben, [aber] kein wirklich gutes Rückhaltesystem", sagt er. "Man versucht, ihren Charakter so zu formen, dass sie vernünftige Entscheidungen treffen, die für sie von sozialem Nutzen sind. Sie spielen also in einem enormen Ausmaß Gott mit Ihren Kindern. Vergessen Sie, sie zu Mozart zu formen - Sie versuchen, sie zu etwas zu formen, das überleben kann, indem Sie sie dazu bringen, ein Selbst zu haben."

Ich treffe Entscheidungen, also bin ich?

Die Fähigkeit, Entscheidungen zu treffen, ist allein noch kein Beweis für Autonomie, betont Bostrom. Der Computer Deep Blue besiegte den Schachgroßmeister Gary Kasparov. Er kann unter Millionen von möglichen Schachzügen in einer bestimmten Situation wählen, aber versuchen Sie einmal, ihn über die Straße zu schicken, um einen Liter Milch zu kaufen.

"Um einem Menschen Autonomie zu gewähren, brauchen wir eine ganze Menge davon", sagt Bostrom. "Kinder haben nicht die volle Bandbreite an Autonomie, obwohl sie mehr tun können, als Schachzüge zu wählen oder einfache Entscheidungen wie diese zu treffen. Sie brauchen eine Vorstellung von ihrem Wohlergehen und einen Lebensplan und solche Dinge. Ich glaube nicht, dass irgendeine Maschine, die es heute auf der Erde gibt, über ein Gefühl oder Autonomie verfügt."

Damit wir sagen können, dass eine Maschine sich ihrer selbst bewusst ist und somit ein bewusstes Wesen darstellt, müssen wir zunächst wissen, was es bedeutet, sich seiner bewusst zu sein. Zumindest ein menschlicher Geist behauptet, dass wir keine Ahnung haben, was Bewusstsein ist.

Margaret Boden, PhD, Professorin für Philosophie und Psychologie an der Universität von Sussex, England, erklärt, dass es durchaus möglich sein könnte, einen Roboter zu schaffen, der den Anschein eines selbstbewussten, autonomen Wesens hat.

"Im Prinzip könnte es eine Computersimulation eines solchen Wesens geben, denn alles, was der menschliche Geist tut, hängt vom menschlichen Gehirn ab", sagt sie. "Aber wenn Sie mich fragen, ob dieser Roboter ein Bewusstsein hätte, würde ich sagen, dass wir noch nicht einmal wissen, was es bedeutet, zu sagen, dass wir bewusst sind."

Selbst wenn wir, wie Spielberg und Kubrick, davon ausgehen, dass es möglich ist, einen Roboter zu schaffen, der in seinem eigenen Interesse handelt und Schmerz, Verlust und Einsamkeit empfindet, werden wir ihn dann als einen von uns behandeln oder nur als einen weiteren intelligenten Toaster?

Ich kaufe Lebensmittel, also bin ich?

Wenn wir durch einen Film - eine andere Form von simuliertem Leben - emotional manipuliert werden können oder wenn uns die Las Vegas-Version von Paris gefällt, dann könnten wir sicherlich auch durch das Weinen eines Roboterbabys oder das Flehen eines künstlichen Jungen wie David in AI beeinflusst werden. Und es ist diese Schnittstelle - die Box, die die Hardware enthält (ein Robotergehirn) und die Art und Weise, wie die Software mit dem Benutzer interagiert, die den Unterschied ausmachen kann.

"Wenn eine KI wie ein Hund aussehen würde, hätte sie vielleicht die Rechte eines Hundes. ... Wenn sie wie Einstein aussehen würde, hätte sie vielleicht auch die Rechte eines Einsteins", sagt Sudia.

Es ist sicherlich möglich, ein intelligentes System zu entwickeln, das zum Beispiel den Lebensmitteleinkauf und die Bezahlung an der Kasse für uns übernimmt. Dazu muss es nicht wie ein Mensch aussehen, sagt Ian Horswill, PhD, Assistenzprofessor für Informatik an der Northwestern University in Evanston, Illinois.

"Man kann Systeme haben, die in jeder Hinsicht intelligent sind - zumindest viel intelligenter als Bleistifte oder Textverarbeitungsprogramme -, aber sie haben nicht die ... Eigenschaften der menschlichen Existenz", sagt Horswill zum Doktor.

Es gibt zum Beispiel keinen Grund, dass ein Einkaufsroboter wie Onkel Chuck aussehen muss. Er könnte eine rollende Registrierkasse sein - ein einfacher Kasten mit einem Bildschirm, Greifarmen, um Cornflakes-Schachteln aus dem Regal zu nehmen, und einer Schublade für das Wechselgeld. Aber es wäre immer noch ein "es" und nicht ein "er" oder eine "sie", meint Horswill.

"Man könnte eine Maschine mit einem Commander-Data-ähnlichen Körper bauen und ihr Emotionen verleihen, dann ihr Gehirn entfernen und sie in einen Mülltonnenroboter mit einer Kassenschublade stecken und ihr nur erlauben, im Morsecode zu kommunizieren", sagt er. "Ich vermute, dass die meisten Menschen viel eher bereit wären, den Mülltonnenroboter abzuschalten als Commander Data.

Hot