Hallo.
Weil hier mehrfach die KI-Problematik angesprochen worden ist, habe ich im nachfolgenden Spoiler einen Artikel aus der heutigen FAZ eingebracht - Achtung: Das ist ein sehr langer Text!
Wie schafft man ein Menschenhirn?
Ein Halbleiterchip von IBM verspricht die Simulation kognitiver Fähigkeiten. Dabei steht die Forschung noch am Anfang, und vieles wird immer Fiktion bleiben.
Wenn unsere Autos demnächst nicht nur selbständig einparken, sondern auch bremsen, lenken und die Parkgebühren bezahlen, warum sollten wir uns dann nicht schon bald von Maschinen mit „Menschenhirn-Chips“ das Leben nach unserem Gusto versüßen lassen? Von Apparaten, die uns in ihrer Arbeitsweise und ihrem Denken vielleicht schon so ähnlich geworden sind, dass man der Technik plötzlich nicht nur humanoide Züge zurechnen, sondern berechtigterweise von menschlichen Replikaten sprechen könnte. Im Falle des „kognitiven Chips“ wird uns das nahegelegt. Forscher des Computerkonzerns IBM haben ihn kürzlich mit einigem Rummel präsentiert und ihn der Welt als aussichtsreichen Vertreter einer neuen Generation menschengleicher Denkmaschinen angepriesen. „Der Aufstieg der denkenden Maschinen“, war zu lesen. Die Medien waren verzaubert. Verzaubert von dem geschickt gewählten Namen, der höhere, also menschliche Intelligenz suggeriert: Kognition. Auch der Gedanke dahinter, dass die Verarbeitung und Übertragung von Information auf dem Chip praktisch wie in unserem eigenen, anerkanntermaßen genialen Denkorgan ablaufen könnte, hat es den Propagandisten des kognitiven Chips leichtgemacht, die ferne Utopie wie einen großen Moment der aktuellen Zeitgeschichte aussehen zu lassen.
Tatsächlich ging es jedoch lediglich um zwei Prototypen eines frisch entwickelten Siliziumchips, der flexibel leitende, also gewissermaßen lernfähige Leitungsbahnen besitzt und damit auf primitivstem Niveau die neuronalen Netzwerke des Gehirns simulieren soll. Das Entscheidende: Transistoren und die Einheiten für Gedächtnis, Verarbeitung und Kommunikation sind aufs engste miteinander verknüpft, Effizienz ist das oberste Signalleitungsgebot. Neue Materialien waren dazu erst einmal nicht erforderlich. Erklärtermaßen zielte IBM mit der massiv parallel arbeitenden Computerarchitektur aufs Energiesparen ab – eine der in der Tat herausragenden Eigenschaften des menschlichen Gehirns. Muss man aber, um das zu erreichen, das Hirn bis aufs i-Tüpfelchen simulieren? Oder hier treffender: wenigstens den Anschein der Simulation erwecken?
Vor Jahren hatte der Nachbau des Gehirns als futuristisches Großprojekt schon einmal weit über die Zukunftsforschung hinaus regelrecht elektrisiert. Da ging es darum, lebendige und technische Intelligenz buchstäblich miteinander zu verschmelzen. Solche hybriden Chips oder „Neurochips“, auf denen Nerven und Drähte quasi verschmelzen und Informationen austauschen, hatte der Münchener Biophysiker Peter Fromherz am Max-Planck-Institut für Biochemie entwickelt. Obwohl der eine Teil, der Chip, Elektronen nutzt zur Signalerzeugung und der andere Ionen, hat Fromherz es geschafft, dass die Halbleiterbauteile auf dem Chip zuerst die Entladungen der Nervenzellen erfassen und später, umgekehrt, die Nerven die elektrischen Signale von den Chips verstehen. Mit der Firma Infineon wurden die Neurochips vor fünf Jahren weiterentwickelt, in Petrischalen und auf mikroskopischen Hirnschnitten von Tieren getestet. Bis zu 16 000 Halbleiterelemente wurden mit dem Hirngewebe gekoppelt. In Padua werden nadelförmige Varianten dieser Hirnchips neuerdings auf nadelförmigen Implantaten in Rattenhirne verpflanzt, um zu testen, ob sich die Hirnchip-Module in die Schaltzentrale für die Motorik einbauen und prothesenhaft als Informationsvermittler für Bewegungsbefehle verwenden lassen. Dazu Fromherz: „Man zupft an den Schnurrhaaren und misst mit den Transistoren.“
Ratten, Hasen, Schnecken, Hirnpräparate – das sind die Übungsplätze der Neurochipforschung. Man denkt an Neuroprothesen für Auge oder Ohr, die an der Verwirklichung schon so nahe dran sind, dass sie teilweise schon einigen Patienten Erleichterungen gebracht haben. Und wie steht es um das Gedächtnis, den menschlichen Verstand? Eine kognitive Verschmelzung von Menschenhirn und Technik wagt von den Forschern keiner zu propagieren.
In der Originalpublikation der IBM-Chipentwickler liest man da ganz anderes. Dort wird das „cognitive Computing“ heraufbeschworen und mit der Idee gespielt, „dank neuer Durchbrüche in der Nanotechnik einen neuromorphen Chip herzustellen, der aus einer Million Nervenzellen und zehn Billionen Synapsen pro Quadratzentimeter besteht“ – was bei einem angepeilten Volumen von zwei Litern der Leitungs- und Zelldichte des menschlichen Gehirns zumindest auf wenigstens zwei Größenordnungen nahe käme. Aber schon im Folgesatz des Artikels erscheinen die Chancen, dieses Maximalziel zu verwirklichen, als unkalkulierbar: „Die schlechte Nachricht ist“, so schreiben die Forscher, „dass bisher ja leider nicht einmal der Kernsatz von Algorithmen, mit denen das Gehirn arbeite, entdeckt worden ist.“ Der Fortschritt ist auch hier eine Schnecke. Gut sechzigtausend wissenschaftliche Dokumente werden jedes Jahr veröffentlicht, die jeweils die Rolle eines bestimmten Gens, eines Moleküls oder Prozesse des elektrischen Verhaltens von Hirnzellen und ihrer Vernetzung beschreiben. Und doch braucht es, um auch nur die Rechenleistung einer einzelnen Nervenzelle zu simulieren, immer noch die Kapazitäten eines ganzen Laptops. Das Meisterstück der Evolution erscheint uns noch immer wie Magie.
Selbst also unter der streng naturwissenschaftlichen Annahme, dass sich der von den IBM-Forschern vermisste Kernsatz an Algorithmen, gewissermaßen der neuronale Code, als die entscheidende Instanz gelungener Kognition findet, bliebe die Frage der technischen Rekonstruierbarkeit immer noch offen. Der Golem ist weit. Mit anderen Worten: Die denkende Menschmaschine ist mit dem „Menschenhirn-Chip“ zwar nicht wesentlich realistischer geworden, die Sehnsucht nach solchen Replikaten aber offensichtlich schon. Jedenfalls wird sie von Wissenschaftlern nach Kräften forciert.
Immer beherzter spielen viele von ihnen das Spiel mit der Fiktion. Es geht für sie ums Überleben im akademischen und kommerziellen Wettbewerb. Die Fördermittelquellen dürfen nicht versiegen. Sobald man in der Hirnforschung vorgeben kann, dem höchsten Ziel, nämlich der funktionalen Stufe des Menschen, näher gekommen zu sein, ist die Hochachtung so gut wie sicher. Und um diesen Anschein zu generieren, gibt es in der Forschung kein prägnanteres Mittel als das der Simulation und vor allem ihrer geschickten Interpretation. Es wird immer ausgefeilter und erzeugt eine Cyber-Realität mit Bildern und Effekten, die das unbedarfte Publikum leicht zu täuschen vermag und die Grenzen zwischen Wirklichkeit und Fiktion verschwimmen lässt.
Die Simulation ist zugleich wissenschaftliches Handwerkszeug und immer häufiger das Vehikel für die Popularisierung der eigenen Ziele. Für die Lebenswissenschaften und in der Biomedizin gilt das längst auch, aber in der Erforschung der künstlichen Intelligenz, KI, und Robotik hat sie eine durchaus besondere Tradition. Seitdem Alan Turing vor sechzig Jahren spekulierte, ob Rechenmaschinen irgendwann vielleicht im selbständigen, intentionalen Denken dem Menschen ebenbürtig sein könnten, wurde diese Frage immer wieder gestellt: Kann die Maschine denken wie ich?
Vor kurzem war es auf dem Technik-Festival im indischen Guwahati, wo der von dem britischen KI-Forscher Rollo Carpenter entwickelte „Cleverbot“ neben dreißig Freiwilligen einen anonymen Vier-Minuten-Chat absolvierte und sechzig Prozent der mehr als eintausenddreihundert Prüfer am Bildschirm davon überzeugte, dass es sich bei ihm um einen menschlichen Chatpartner handeln müsse. Von seinen menschlichen Konversationspartnern glaubten das nur wenig mehr: 63 Prozent. Der Rechner mit dem Computerprogramm Cleverbot habe, so schrieb danach die britische Zeitung „Independent“, die das Spektakel beobachtet hat, den Turing-Test erfolgreicher als kaum eine andere Maschine vor ihm absolviert, aber so clever wie der Mensch sei er halt immer noch nicht.
Jedenfalls sprachgewandt und nicht ohne Witz war er wohl. Als Cleverbot gefragt wurde: Weißt du, was der Turing-Test ist?“, antwortete er: „Turing-Test? Keine Ahnung, was das sein soll.“ Letzten Endes war es wie bei dem sprachfähigen Spiele-Supercomputer „Watson“ keine menschenähnliche Intelligenz, sondern softwaregetriebene Imitation, gepaart mit enormer Rechenkapazität, die zu den menschenähnlichen mentalen Qualitäten des Rechners geführt hatte.
In der Szene der KI-Forschung schwelt seit Jahren die Diskussion, ob das Ziel tatsächlich die Simulation des menschlichen Gehirns in all seinen Aspekten mit Hilfe von Computern sein sollte, wie es etwa Hunderte im „Human Brain Project“ versammelte Experten verfolgen, oder ob die buchstäbliche Nachbildung – die Emulation – der Hirnarchitektur und womöglich die vollständige materielle Verknüpfung, wie sie Softwarepionier Ray Kurzweil vorschwebt, vielversprechender seien. Der Wunsch dahinter klingt fast immer ähnlich: Denken nachbilden, Gedächtnis optimieren und – auch daran denken die krudesten Vordenker des Cyberhirns – die Realisierung von maschinellem Bewusstsein. Der Weg dahin ist freilich umstritten. „Wir mussten doch auch nicht den Vogel neu erfinden, damit wir fliegen konnten“, meint dazu der amerikanische KI-Forscher Ben Goertzel. Den Vogel vielleicht nicht, könnte man darauf antworten, aber den Flügel bestimmt. Und das war harte Arbeit genug. Joachim Müller-Jung
Frankfurter Allgemeine Zeitung vom 13.09.2011 Seite 37