Was das wahre christliche Leben ausmacht – Teil 50

Quelle:

Dr. Albrecht Kellner – Künstliche Intelligenz, Robotik und die Zukunft der Menschheit – Teil 2

2.Kapitel: Künstliche und natürliche Intelligenz im Vergleich

Ganz grob gesprochen, kann man sagen, dass es vier Kategorien der Intelligenz gibt:

1. Die programmierte Intelligenz bei Roboter und Mensch

Man hat sie sowohl beim Roboter als auch beim Menschen. Hier geht es um fest vorgegebene Regeln oder Abläufe. Zum Beispiel gibt es beim Roboter so einige typische Regeln wie:

  • „Wenn die CPU-Temperatur, also die Temperatur des Mikroprozessors, zu hoch ist, dann schalte den Lüfter ein“. Das kennen wir von unserem Laptop. Da hören wir ab und zu, dass da plötzlich der Lüfter eingeschaltet wird.
  • „Wenn die Batterie zu schwach ist, dann suche die Lade-Station auf“. Das ist so eine Regel für mobile Roboter. Das haben wir zum Beispiel heute schon bei den Staubsauger-Robotern.

Wichtig ist, dass sich das die Künstliche Intelligenz und der Roboter nicht selbst einfallen lassen können. Diese Befehle werden vom Hersteller programmiert. Beim Menschen haben wir Ähnliches. Da heißt es zum Beispiel: „Wenn die Körpertemperatur zu hoch ist, dann erhöhe die Schweißproduktion zur Kühlung“, oder: „Wenn Nahrung ankommt, dann spritze Gallenflüssigkeit ein.“ Auch hier stellt sich die Frage: Wo kommen diese Regeln her? Gibt es da auch einen Hersteller, der das Ganze programmiert hat? Ich lasse auch diese Fragen einmal offen.

2. Die geteachte (gelehrte) Intelligenz bei Roboter und Mensch

Man hat sie sowohl beim Roboter als auch beim Menschen. Das sind beim Roboter von einem Lehrer vorgegebene und dann abgespeicherte Verhaltensweisen, wie zum Beispiel geteachte Greifbewegungen. In diesem Fall sind sie objektspezifisch.

Das möchte ich kurz erläutern. Um das Beispiel mit unserem Roboter wieder aufzugreifen, der seinem Herrchen ab und zu eine Flasche Bier bringt. Ihm stellt man eine Flasche Bier an eine bestimmte Position, führt ihn dorthin, nimmt seinen Arm, bewegt diesen zu der Flasche, legt seine Finger um die Flasche und sagt zu ihm: „Merke dir diesen Bewegungsablauf, und merke dir auch die Position dieser Flasche.“ Wenn der Roboter dann später die Flasche an dieser Position wiedersieht, kann er sie wunderbar greifen. Aber wehe, wenn die Flasche nur ein klein wenig verrückt worden ist oder eine etwas andere Orientierung hat, dann klappt das nicht mehr. Das Ganze ist also objektspezifisch.

Das Gleiche gilt auch für die Spracherkennung bei einem Roboter. Wenn wir etwas sprechen, erzeugen wir Luftdruckschwankungen in der Luft, diese akustischen Schwingungen. Und bei der Spracherkennung wird dann diese bestimmte Signatur dieser akustischen Schwingungen auf Text abgebildet. Zum Beispiel spricht man „Auto“, und dann wird diese Schwingung, die diesem Wort entspricht, auf den Text „Auto“ abgebildet. Das funktioniert wunderbar. Wenn wir das noch einmal sagen, kommt aus dem Roboter „Auto“ heraus. Aber wenn wir nun zum Beispiel „Flugzeug“ sagen, und der Roboter hat das nicht gelernt, läuft er in die Irre. Das Ganze ist also wortspezifisch. Wichtig ist, dass es dazu Vorgaben von außen benötigt. So etwas kann der Roboter sich nicht selbst einfallen lassen.

Was die Menschen anbelangt, da hat man zum Beispiel Benimm-Regeln. Die muss man lernen, und sie sind länderspezifisch. Das, was wir hier in Deutschland an Benehmen gelernt haben, das gilt sicherlich nicht einwandfrei in Japan. Oder nehmen wir zum Beispiel Spielregeln. Die muss man für jedes neue Spiel lernen. Dazu sind Vorgaben von außen von Lehrern notwendig.

3. Die autonom erlernte Intelligenz bei Roboter und Mensch

Sie ist wesentlich interessanter, und zwar geht es hier um Folgendes: In Wechselwirkung mit der Umwelt oder durch Analyse großer Datenmengen werden jetzt SELBSTSTÄNDIG Verhaltensweisen erlernt. Im Fall der Künstlichen Intelligenz spricht man in diesem Zusammenhang von Deep_Learning. Das ist sozusagen die Krone der aktuellen Wissenschaft.

Nehmen wir dazu als Beispiel wieder unseren Roboter. Da geht es jetzt um das allgemeine Greifen. Wie wir bereits gesehen haben, geht das nur objektspezifisch. Die Flasche Bier muss dazu genau an der richtigen Stelle stehen; aber das will man natürlich auf die Dauer nicht.

Der Roboter soll schließlich Bierflaschen an beliebigen Positionen greifen können. Ich lasse jetzt das Beispiel ein wenig abstrakt werden. Man umstellt den Roboter jetzt mit nicht nur einer Flasche, sondern vielleicht mit 50 an verschiedenen Positionen. Nun lässt man ihn selbstständig lernen, wie man sie greift. Wie geht das? Durch Zufallsgeneratoren gibt man dem Roboter Greifbewegungen vor. Aufgrund dessen greift der Roboter sozusagen wahllos auf die Flaschen zu, aber natürlich meistens daneben. Doch wenn es bei einer Flasche geklappt hat, dann gibt es eine Bewegungsfunktion, die ihm sagt, dass seine Greifbewegung in diesem Fall richtig war. Und diese Information wird von ihm gespeichert. Und wenn man das Ganze 100 000 Mal wiederholt, dann hat er schließlich sämtliche Flaschen richtig gegriffen. Und jetzt kommt die Crux: Die Bewegungen, die dazu geführt haben, dass er richtig greift, werden aber nicht in einer normalen Datenbank gespeichert, sondern in einem so genannten künstlichen_neuronalen_Netz. Das neuronale Netz ist ein Software-System, das der Struktur des menschlichen Gehirns nachgebildet ist. Das hat den Vorteil, dass hier eine Verallgemeinerung möglich ist. Das bedeutet Folgendes: Wenn wir jetzt einmal die 51. Flasche Bier nehmen und sie an eine Position stellen, die der Roboter noch nicht gelernt hat, also noch nicht kennt, dann ermöglicht diese Verallgemeinerungsfähigkeit des neuralen Netzes, dass er sie auch dort findet und richtig greift. Es ist hochinteressant, dass das funktioniert. So lernt der Roboter durch die Verallgemeinerungsfähigkeit des neuronalen Netzes allgemeines Greifen.

Der Auszug aus dem Artikel endet hier. Lesen Sie den gesamten Artikel als PDF.