Abonnieren Sie unseren Insights Newsletter

Unsere Insights liefern informative, inspirierende und unterhaltsame Einsichten hinter die Kulissen von Finanz und Wirtschaft, aber auch von Gesellschaft oder Kunst. Mit dem monatlichen Newsletter bleiben Sie stets informiert.

 

Unternehmertum

Künstliche Intelligenz als Kunst der Nachahmung

Die Geschichte der künstlichen Intelligenz als historische Mimesis, als Versuch der maschinell-künstlichen Nachahmung von menschlicher Intelligenz und Realität.

Datum
Autor
Marc Neumann, Gastautor
Lesezeit
7 Minuten

Schwarzweiss Szene aus dem Film Metropolis zeigt einen Frauenkopf mit Helm, der mit Kabeln versehen ist.
Technologien der Künstlichen Intelligenz (KI) sind für Menschen mit Interesse an Engineering, Ökonomie, Politik, Geist und Geld das bestimmende Thema auf dem Weg von der Gegenwart in die Zukunft. Frage und Suche nach künstlicher, maschineller Intelligenz sind indessen schon einige Jahre älter. © akg / Horst von Harbou - Stiftung Deutsche Kinemathek

Internetsuche und Wissensgenerierung, Aktienmärkte und Portfolios, Erdbeben in der Finanzwelt durch den Quartalsbericht eines Chip-Herstellers für KI-Anwendungen, Produktionsabläufe und Arbeitsmärkte, Regulierungen und Gesetze, die Zukunft oder das Ende der Menschheit - Technologien der Künstlichen Intelligenz (KI) sind für Menschen mit Interesse an Engineering, Ökonomie, Politik, Geist und Geld das bestimmende Thema auf dem Weg von der Gegenwart in die Zukunft.

Was aber ist das eigentlich, die oder eine künstliche Intelligenz? Humanoide Automaten, wie sie etwa als Ritter-Automat der Fantasie Leonardo da Vincis, als Ritter-Automat, oder als Olimpia E.T.A. Hoffmanns Erzählung "Der Sandmann" entsprangen? Beginnt sie mit dem "Roboter", als welchen der tschechische Science-Fiction-Autor Karel Čapek künstliche Menschen erstmals 1921 bezeichnete? Oder bereits mit der mechanischen "Engine", einer Rechenmaschine, die der englische Satiriker Jonathan Swift 1726 in Gullivers Reisen erträumte? Hat ein Schach-Rechner Intelligenz, oder braucht es dafür schon eher Hal, den erbarmungslosen Computer in Stanley Kubricks Science-Fiction "Space Odyssee" - oder gar den aus der Zukunft zurückgekehrten Terminator? Wie steht's mit dem IQ von Siri, Alexa, einem selbstfahrenden Auto oder dem IoT-Kühlschrank? Ist KI ein veritabler "Ghost in the Machine" oder bestenfalls eine emergente Qualität einer hochfunktionellen komplexen Rechenmaschine? Gemeinsam ist all diesen Versuchen, KI zu modellieren, ein grundsätzliches Moment. Künstliche Intelligenz ergibt sich, so schien es, aus der Nachahmung des Menschen und seiner geistigen Fähig- und Tätigkeiten.

KI-Beginn in den 1950ern: Alan Turing

Begriffsgeschichtlich wollte John McCarthy, der Erfinder des Ausdrucks "Artificial Intelligence", gemäss dem Economist genau dieser Bedeutungsbreite Rechnung tragen. Zudem benutzte McCarthy laut Matthew Jones, Wissenschaftshistoriker und Professor an der Princeton University, die begriffliche Unschärfe bewusst zu Marketingzwecken bzw. zur Sammlung von Forschungsgeldern während eines Computing-Workshops am Dartmouth College im Jahr 1955: "Ich erfand den Ausdruck "Artificial Intelligence", um Finanzmittel für eine "Sommerstudie" zu sammeln", so McCarthy. Das eigentliche "Ziel, Maschinenintelligenz auf Menschenniveau zu erreichen", war offenbar zu wenig "catchy".

Eine Gruppe älterer Männer mit roten Lanyards um den Hals posiert für ein Gruppenfoto.
John McCarthy, (mitte vorn bei einem Ehemaligentreffen) der Erfinder des Ausdrucks "Artificial Intelligence", wählte diese begrifflich unscharfe Bezeichnung 1955, um seine Chancen zu erhöhen, Gelder für eine Sommerstudie zum Thema, Maschinenintelligenz auf Menschenniveau zu erhalten. © John Markoff/NYT/Redux/laif

Frage und Suche nach künstlicher, maschineller Intelligenz selbst sind indessen schon einige Jahre älter. So richtig beginnt die Geschichte der KI fünf Jahre vor ihrer Namensgebung. Ohne KI-Pionieren wie Charles Babbage (1791-1871), der im 19. Jahrhundert als Erster rein mechanische Rechenmaschinen erfand, oder dem Mathematiker und Universalgenie John von Neumann (1903-1957, u.a. ein Rechenmaschinen-Innovator in Bereichen wie Hardware und Algorithmen) zu nahe treten zu wollen, lässt sich der Anfang dessen, was wir heute als KI begreifen, in Alan Turings berühmtem Aufsatz "Computing Machinery and Intelligence" aus dem Jahr 1950 verorten. Darin schlägt der englische Kryptograph, der den Code der Nazis im zweiten Weltkrieg entschlüsselte, vor, die Frage, ob Maschinen denken können, als "Imitation Game" zu denken. In diesem mimetischen Rollenspiel versucht ein Computer, einen Befrager oder Interviewer mittels schriftlich wiedergegebener Aussagen davon zu überzeugen, dass er kein Computer, sondern ein Mensch zu sei. Im Aufsatz widerlegt Turing alle denkbaren Einwände gegen die grundsätzliche Möglichkeit eines solchen Rechners. Und deshalb versuchen Computerwissenschaftler seither, eine Maschine zu bauen, die menschliches Verhalten nachahmt.

Junger Mann mit Anzug und Seitenscheitel Frisur der 1930er Jahre steht vor einem grauen Hintergrund
In einem berühmten Aufsatz erläutert Alan Turing 1950 die Idee des "Imitation Games". © Darchivio/opale.photo/laif

Interessanterweise erstreckt sich Turings Einfluss nicht nur auf die Anfänge, sondern auch auf den Fortgang der Geschichte von KI - hin bis zum Transformer, der neuronale Netze ab 2017 Daten-Muster nicht nur erkennen, sondern "erinnern" lässt, was zum Grundstein unserer heutigen "selbst-lernenden" LLM (Large Language Models) wie ChatGPT wurde (GPT steht für "Generative Pre-trained Transformer"). Auch hier gilt im Geist von Turings berühmtem, später als "Turing-Test" bekannt gewordenen "Imitation Game": Die Geschichte der KI ist eine Geschichte der Versuche, menschliche Intelligenz zu imitieren und später die von ihr wahrgenommene Welt möglichst genau abzubilden. Der Turing-Test ist das Paradigma der KI.

Drei Aspekte der KI: Robotik, Symbol-Logik, künstliche neuronale Netze.

Formal können wir die reiche Geschichte der KI vereinfachend in drei Momente unterteilen: Erstens dem menschlichen Körper nachempfundene Automaten und Roboter; zum zweiten regelgeleitete, grammatisch-symbolische Rechenmaschinen, die logisches Denken und Verstand des Menschen imitieren; und drittens detailorientierte, empirische Daten verarbeitende, lernfähige neuronale Netze in Analogie zu einem menschlichen Gehirn in seinem Austausch mit der Welt zu gewährleisten."

Robotik: intelligentes Verhalten durch Nachbau des Körpers

Automaten und Roboter, dazu die Frage nach möglichem Geist in diesen Maschinen faszinieren die Menschheit schon seit der Antike. Ein erstarkendes Ingenieurwesen, von Uhrmachern gepushte Feinmechanik und Elektronik im Zuge des industriellen Zeitalters beflügelten die Phantasie von Romantikern weiter - bis hin zum Launch des Worts "Roboter" (von tschechisch robota, Sklaven- oder Leibeigenenarbeit) durch den bereits erwähnten Karel Čapek. Von analogen Elektronik-Androiden, deren erste Prototypen bereits in den späten 1920er Jahren auftauchten (etwa der in Japan von Makoto Nishimura entwickelte Gakutensoku), führte der Weg zu digitalen, computergesteuerten Maschinen, die dedizierte Funktionen in Industrie und High-Tech-Sparten ausführen - ob in der Fabrik- oder Fertigungshalle oder im OP. 

Auch heute forscht man noch an humanoiden, sensorgesteuerten und autonomen Agenten, wie sie der Robotiker Rodney Brooks am MIT anfangs der 1980er Jahre zur erfolgreicheren Mimesis menschlichen Verhaltens und Bewusstseins propagierte. Parallel erfreuen sich aber auch mit Betriebssystemen und komplexen Programmen zur Wahrnehmung von Welt und Umwelt ausgestattete Roboter (evolutionäre oder entwicklungs- und lernfähige Roboter) nach wie vor einiger Beliebtheit. Die Konvergenz von autonomen, körperlichen Robotern und Software führt dieser Tage zu Erfindungen wie dem vom chinesischen Militär vorgestellten Hunderoboter mit aufmontierter Schusswaffe - bei aller Sorge um futuristische Bedrohungen auch er ein Produkt der Imitation der Realität.

Eine menschengrosse Figur mit Gesicht und beweglichen Gliedmassen steht neben einem Mann und einer Kiste mit Kabeln.
Von analogen Elektronik-Androiden, deren erste Prototypen bereits in den späten 1920er Jahren auftauchten, führte der Weg zu digitalen, computergesteuerten Maschinen. © akg-images/Universal Images Group/Underwood Archives

Der intelligente Schachcomputer: Intelligenz durch regelgeleitetes Programmieren

Auch der zweite Moment der Geschichte der KI ist ein mimetischer: Auf der positivistischen (sprach-)philosophischen Annahme aufbauend, dass sich die Welt durch regelgeleitete Propositionen adäquat und vollständig beschreiben lässt, fokussierten Mathematiker und Logiker ihre Kräfte darauf, diese Regeln in Form einer logischen Grammatik zu fassen. Erkenntnistheoretisch modellierte man Rechner, die das menschliche Denken und Weltwahrnehmen kopieren sollten. In der Computerwissenschaft zeitigte dies erste Programmiersprachen (z.B. John McCarthys Lisp, für "List Processing"). Diese ermöglichten Anwendungen wie Schachcomputer und erste "Chatterbots", etwa Joseph Weizenbaums 1966 präsentiertes Psychotherapie-Programm ELIZA, das natürliche Sprachen zu prozessieren und mit Patienten in einem schriftlichen Frage- und Antwort-Spiel zu interagieren vermochte. 

Möglich machten dies Fortschritte in Maschinenlernen (Arthur Samuel verwendete 1959 den Begriff "Machine Learning" für ein lernfähiges Schachprogramm) und sogenannte "Expertensysteme", erstmals 1965 von Edward Feigenbaum und Joshua Lederberg als Nachahmer menschlichen Expertenwissens vorgestellt. Erfolge und Errungenschaften wie diese führten 1979 zur Gründung der American Association of Artificial Intelligence und zu einem ersten KI-Boom, während dem auch Regierungen in die neue Technologie investierten. Japan beispielsweise lancierte 1982 das "Fifth Generation Computer System". Für nach heutigem Wert 1.75 Milliarden CHF sollte das Projekt Computer herbeiführen, die wie Menschen natürlich sprechen, argumentieren und übersetzen konnten (es wurde nach zehn Jahren mangels kommerziellen Erfolgs eingestellt).

Auf einem Bildschirm ist ein Schachbrett mit einer Partie und ein Mensch zu sehen, der den Kopf in seinen Händen vergräbt.
Im 11. Mai 1997 musste sich Schachweltmeister Garri Kasparow in seinem finalen Spiel gegen IBM's Deep Blue Computer geschlagen geben. Aber jenseits einer von Regeln definierten Umgebung wie dem Schachspiel konnte KI noch nicht überzeugen. © KEYSTONE/AFP/Stan Honda

Die frühen 1980er Jahre waren Schauplatz eines eigentlichen KI-Booms, gefolgt von einem KI-Doom, dem sogenannten Winter der KI-Forschung. Zwar präsentierten Forscher und Ingenieure neue KI-Leistungen. Im Jahr 1986 enthüllte Ernst Dickmann an der Münchner Universität der Bundeswehr beispielsweise das erste fahrerlose Auto der Welt. Derweil es menschenähnlich mit rund 80 Stundenkilometern auf hindernis- und fussgängerfreien Strassen manövrieren konnte, verkörperte es doch recht gut die Unzulänglichkeiten der zeitgenössischen KI: Mit den unvorhersehbaren Herausforderungen einer komplexen, chaotischen Umwelt, die Menschen zuweilen spontan intelligent meistern, konnte KI (noch) nicht mithalten. Zwar schwangen sich im limitierten Regelwerk des Schachspiels Rechner wie IBMs Deep Thought und Deep Blue zu Grossmeistern auf, die Schachweltmeister Garri Kasparow Paroli bieten und schliesslich schlagen konnten. Aber jenseits einer von Regeln definierten Umgebung wie dem Schachspiel klappte das nicht. Zu klein war der lexikalische Wissensschatz, zu schwach die Rechenleistung, um selbst reduzierte Sätze empirischer Daten in nützlicher Frist zu sinnvollen Handlungsanweisungen an bzw. durch die Maschine zu verarbeiten.

Die Wende: KI als Imitation von Neuronen und Synapsen

Daran scheiterten vorerst auch alternative Modelle von dem menschlichen Gehirn nachempfundenen neuronalen Netzen, wie sie MIT-Mitgründer Marvin Minsky schon früh konzipiert hatte: Ohne explizit logischen Regeln zu folgen, liess sich das Verhalten dieser in Software verpackten künstlichen neuronalen Netze trainieren, indem man ihnen Aufgaben so lange repetitiv stellte, bis die künstlichen Neuronen ein Verhalten gelernt hatten, das eine Lösung darstellte. Aber bis in die 1990er Jahre stellten limitierte Rechenleistung und mithin Datengrundlagen unüberwindbare Hindernisse für die neuronalen Netze dar. Um tatsächlich menschenähnlich intelligent zu sein, fehlte diesen künstlichen Intelligenzen die Fähigkeit, die Welt in ihrer Vielfalt zu "lesen". Also machten sich KI-Forscher daran, in lernfähigen Maschinen die menschliche Wahrnehmung einer hochkomplexen, empirischen Welt zu modellieren.

Mehrere Neuerungen führten diesbezüglich zum Durchbruch der neuronalen "Deep Learning"-Rechner: Zum einen ergänzten Computerwissenschaftler der Stanford University die "Central Processing Unit" (CPU) des Computers im Jahr 2009 um eine "Graphic Processing Unit" (GPU), die weitere Prozessebenen für neuronale Netze quasi als Simulation hinzufügte. Damit konnten neuronale Netze auf mehreren Ebenen und damit in grösserer Tiefe trainiert werden. Dem verdankt sich nicht nur der Name "Deep Learning", sondern auch eine um ein Vielfaches höhere Geschwindigkeit der Rechenleistung. Die Komplexität dieser Maschinen ähnelte immer mehr einem menschlichen Gehirn mit Milliarden von Neuronen und Synapsen. Erste dementsprechende Anwendungen folgten bald in Form digitaler Assistenten wie Apples Siri (2011) oder Amazons Alexa (2014). Seit dem Einsatz der oben genannten Transformer (2017) sind "Deep Learning"-Maschinen zudem in der Lage, an gigantischen Mengen von Daten trainiert zu werden und dabei eine Art Gedächtnis zu generieren. Hinsichtlich des schieren Volumens und der Komplexität der Daten ähnelt diese Datenmenge den unendlichen Möglichkeiten an Wahrnehmungen und Phänomenen einer Welt, die das menschliche Gehirn zur Realität zusammenbaut. Damit wurde gewissermassen die Welt mit ihrer ganzen Unreduzierbarkeit nachgeahmt, erinnerbar gemacht und in die Maschine hinein geholt.

Digitale Daten im Internet als Welt der Erscheinungen für die KI

Das phänomenologische, d.h. unsortierte und umfangreiche Rohmaterial hinwiederum stand dank der Ankunft des Internetzeitalters zur Verfügung: Dank weltweit permissiver Daten- und Persönlichkeitsschutzgesetze frei zugängliche Internetinhalte und via Browser und andere Applikationen gespeicherte Anwender- und Verhaltensprofile. An diesem unglaublich voluminösen, beinah unerschöpflichen Datenrohstoff arbeiten sich heute die sogenannten Large Language Models (LLM) und generativen vortrainierten Transformer (das GPT in ChatGPT) mit brachial-brutaler Rechenleistung ab, um die wahrscheinlichsten Muster und Sequenzen zu generieren. Diese imitieren den Status quo tradierten Wissens. 

Ein metallischer Roboter sitzt in einer Bibliothek und liest ein Buch.
Eine aktuelle Studie könnte belegen, dass Turings "Imitation Game" perfekt ist. © Freepix/ bugphai

Damit scheint die Geschichte der KI vorerst vollendet, die Nachahmung einer Funktionsweise des menschlichen Gehirns und der Zugang zur Wahrnehmung einer komplexen Realität abgeschlossen. Die Erfolge sind so bekannt wie eindrücklich: Es gibt heutzutage kaum jemand, der nicht von der täuschend echten Redaktions-, Recherche-, Wissensaggregierungs- und Verbildlichungsleistung dieser generativen KI-Programme (ChatGPT, DALL-E, Gemini etc.) beeinflusst wird. KI ist derzeit bereits allgegenwärtig, sei es beim Surfen im Internet, beim Gebrauch oder der Erstellung von medialen Inhalten (KI-Text, KI-Bilder und -Videos), bis hin zum Erledigen einer Vielzahl professioneller Aufgaben im Beruf - sowohl im Guten der Effizienzsteigerung wie auch im weniger Guten, als Konkurrenz am Arbeitsmarkt.

So überzeugend sind die Resultate von GAI und Chatbots mittlerweile, dass Forscher der Universität San Diego im Mai 2024 verkündeten, dass mit ChatGPT-4 zum ersten Mal ein Computer den Turing-Test bestanden habe: Menschliche Probanden waren nicht mehr in der Lage, die Aussagen des Chatbots zuverlässig als die eines Computers zu identifizieren. Falls die noch junge Studie den Peer Reviews standhält, wäre Turings "Imitation Game" perfekt.

Auch interessant

Hier sehen sie Richard Socher an einem Tisch sitzend.
Unternehmertum

"KI wird jede Branche umkrempeln"

Herr Socher, die meisten Menschen glauben zu wissen, wofür künstliche Intelligenz (KI) steht. Vielleicht wäre Ihre Definition als Experte hilfreich. Wir definieren KI als ein Gebiet der Informatik, das anfangs versucht, die menschliche Intelligenz nicht nur nachzuahmen, sondern letztlich über...
Kopf mit Datensträngen
Unternehmertum

Generative KI fürs Unternehmen: Der Teufel steckt im Detail

Hardware und Anwendungen, die Verbraucher und Unternehmen in eine neue gemischte oder komplett virtuelle Realität locken, sind Jahre vom Mainstream entfernt. Zumindest hat Apple der gesamten Sparte nun einen dringend benötigten Auftrieb gegeben.
Querschnittsgelähmter Patient, Mitte, geht zwischen Gregoire Courtine, rechts, und Jocelyne Bloch, links
Unternehmertum

Der Weg in den Cortex: Die vielversprechende Zukunft der Gehirn-Computer-Schnittstellen

Neue Technologien, die eine Verbindung zum menschlichen Gehirn herstellen, könnten Millionen von Patienten mit schweren Behinderungen neue Hoffnung geben und einer wachsenden alternden Bevölkerung helfen.
Insights abonnieren