Wir feiern 80 Jahre Halluzinationen durch künstliche Intelligenz

By | December 31, 2023

Künstliche Intelligenz, insbesondere generative KI, dominierte im Jahr 2023 alle technischen Dinge und sorgte für ein bahnbrechendes Jahr an der Wall Street, neue Anwendungen und Vorschriften, Weltuntergangsszenarien und hochgeschätzte Erwartungen. Kurz gesagt, eine Flut von Halluzinationen, die beliebteste Form des Eskapismus der Menschheit, besonders beliebt bei Menschen, die es sich leisten können, sich eine andere, bessere und verständlichere Welt ihrer eigenen Schöpfung vorzustellen.

Die spezifische Art der fabrizierten, verzerrten und erfundenen Realität, die behauptet, auf „Wissenschaft“ zu basieren, begann in diesem Monat, vor achtzig Jahren. Der Neurophysiologe Warren S. McCulloch und der Logiker Walter Pitts veröffentlichten in der Dezemberausgabe 1943 der Zeitschrift „A Logical Calculus of the Ideas Immanent in Nervous Activity“. Das Bulletin der Mathematischen Biophysik. Später wurde es zur Inspiration für die Entwicklung computergestützter „künstlicher neuronaler Netze“ und deren populäre Beschreibung als „Nachahmung des Gehirns“.

Wissenschaftler wissen heute viel mehr über das Gehirn als 1943, aber „wir wissen immer noch nicht, wie es funktioniert“, so das Allen Institute. Das Verfassen einer Arbeit, die laut McCulloch-Biographin Tara Abraham „eine theoretische Darstellung der logischen Beziehungen zwischen idealisierten Neuronen mit mutmaßlichen Auswirkungen auf die Funktionsweise des Zentralnervensystems als Ganzes“ vorlegt, war jedoch nicht erforderlich beliebig empirisches Wissen.

Tatsächlich „wurde McCulloch in entgegengesetzte Richtungen gezogen – zwischen der chaotischen, subjektiven, klinisch motivierten Welt des Labors und der abstrakten, mit Bleistift und Papier geprägten Welt der mathematischen Biologie“, erklärt Abraham. „Das Ziel von McCulloch und Pitts bestand darin, über empirische Beweise hinauszugehen und die funktionellen Beziehungen zwischen Neuronen im Sinne der Booleschen Logik darzustellen: das Denken in die Physiologie des Gehirns zu integrieren.“

McCulloch und Pitts mussten „bestimmte theoretische Annahmen“ treffen, insbesondere, dass „die Aktivität eines Neurons ein Alles-oder-Nichts-Prozess ist und dass sich die Struktur des Netzwerks im Laufe der Zeit nicht ändert.“ Obwohl McCulloch und Pitts zugaben, dass es sich hierbei um eine Abstraktion handelte, betonten sie, dass ihr Ziel nicht darin bestehe, eine zu präsentieren sachlich Beschreibung von Neuronen, sondern entwerfen Sie „Dummy-Netzwerke“, die aus Neuronen bestehen, deren Verbindungen und Grenzen unverändert bleiben.“

So entstand eine fiktive Darstellung der Funktionsweise des Gehirns vermutet An- oder Aus-Aktivität von Neuronen als äquivalent zu wahren oder falschen Aussagen. McCulloch und Pitts wurden von dem aufstrebenden Gebiet der mathematischen Biologie beeinflusst und arbeiteten in diesem Das Bulletin der Mathematischen Biophysik war eine Gründungspublikation. Mathematische Symbole verleihen einem wissenschaftlichen Artikel immer „Glaubwürdigkeit“ und eine „wissenschaftliche“ Aura, insbesondere wenn sie in Biologie-, Wirtschafts- oder Psychologieartikeln vorkommen.

Wissenschaftliche Theorien werden jedoch durch empirische Beweise überprüft. Die Theorie von McCulloch und Pitts, insbesondere ihre Implikationen, dass sensorische Informationen direkt zum Gehirn gelangen, wo sie von seinen vermeintlichen digitalen Neuronen (ein und aus, Einsen und Nullen) verarbeitet werden, wurde durch Experimente an Fröschen überprüft, die von ihrem Freund und Kollegen durchgeführt wurden. Jerônimo Lettvin.

Zusammen mit McCulloch, Pitts und dem Biologen Humberto Maturana unterzog Lettvin die Frösche verschiedenen visuellen Experimenten und zeichnete die Informationen auf, die das Auge an das Gehirn sendete. „Zu jedermanns Überraschung“, schreibt Amanda Gefter, „erledigten chaotische, analoge Prozesse im Auge zumindest einen Teil der Interpretationsarbeit, anstatt dass das Gehirn Informationen von jedem digitalen Neuron mithilfe des präzisen Instruments der mathematischen Logik verarbeitete.“

Über die Ergebnisse der Experimente wurde 1959 in der Arbeit „What the Frog’s Eye Tells the Frog’s Brain“ berichtet, die „zu einer wegweisenden Arbeit in der Kognitionswissenschaft“ wurde. Lettvin fasste später den beruflichen Werdegang der Halluzination von McCulloch und Pitts zusammen: „Das gesamte Gebiet der Neurologie und Neurobiologie hat die Struktur, Botschaft und Form der Theorie von McCulloch und Pitts ignoriert. Stattdessen waren diejenigen, die sich davon inspirieren ließen, dazu bestimmt, Liebhaber eines neuen Unternehmens zu werden, das heute als künstliche Intelligenz bezeichnet wird und vorschlägt, die durch die Theorie generierten Ideen programmatisch umzusetzen.“

Die Theorie von McCulloch und Pitts war die Inspiration für den „Konnektionismus“, die spezifische Variante der heute vorherrschenden künstlichen Intelligenz (heute „Deep Learning“ genannt), die es ihren Anhängern schließlich gelungen ist, in realen Anwendungen umzusetzen. Die Entwicklung und Ausschmückung der Halluzination von McCulloch und Pitts darüber, ob Neuronen feuern oder nicht feuern, setzte sich 1949 fort, als der Psychologe Donald Hebb eine Theorie darüber aufstellte, wie neuronale Netze lernen könnten. Hebbs Theorie wird oft als „Neuronen, die gemeinsam feuern, miteinander verdrahten“ zusammengefasst und argumentiert, dass Synapsen – die Verbindungen zwischen Neuronen – mit der Zeit durch die wiederholte Reaktivierung eines Neurons durch ein anderes stärker werden oder bei Fehlen einer solchen Reaktivierung schwächer werden.

Die aktuelle Begeisterung für Computeralgorithmen, die angeblich die Lernprozesse des menschlichen Gehirns nachahmen, hat ihren Ursprung in diesen Halluzinationen der 1940er Jahre, „der Zuschreibung von ‚Realität‘ an logische und mathematische Modelle“ in Ermangelung „experimenteller Fakten“, wie sie es ausdrückte Ralph Lillie, ein zeitgenössischer Physiologe.

Die heutigen KI-Fans stören sich weder an der Abwesenheit von Fakten noch an der Anwesenheit experimenteller Fakten, die der Theorie, auf der sie basieren, widersprechen. In dem Artikel „Artificial Intelligence Inspired by Neuroscience“ aus dem Jahr 2017 schrieben die Autoren unter der Leitung von Demis Hassabis (Mitbegründer von DeepMind, derzeit Leiter der KI-Arbeit bei Google), dass McCulloch, Pitts und Hebb „das Feld der künstlichen neuronalen Netze eröffnet haben“. Forschung.“ und liefern weiterhin die Grundlage für die zeitgenössische Forschung zum Thema Deep Learning.

Im Jahr 1967 debattierte Lettvin mit Timothy Leary über die Vorzüge und Gefahren der halluzinogenen Droge LSD. Sie diskutierten über Möglichkeiten, die Welt aus ihrer miserablen Situation zu befreien.“ Leary, „Gründer und Oberhaupt seiner eigenen LSD-Religion“, argumentierte, dass der Mensch schon immer gebunden gewesen sei, sei es durch Geißelung, Sexualität oder auf andere Weise. „Heute“, sagte er, „ist das Sakrament chemisch.“

Lettvin „zitierte einen Fall nach dem anderen von Menschen, die nach Erfahrungen mit LSD ihre Arbeitsfähigkeit verloren oder psychotisch wurden“ und kam zu dem Schluss, dass sich LSD von anderen Fluchtdrogen wie Alkohol oder Marihuana dadurch unterscheidet, dass „der Konsument sich dessen nicht sicher ist.“ Wer wird zurückkehren? zu seinem Zustand der Rationalität vor der Erfahrung.“

Auf jeden Fall war der „Zustand der Rationalität“ fraglich, ob mit oder ohne Drogen. Lettvin legte seine wenig schmeichelhafte Sicht auf die wissenschaftliche Gemeinschaft in seiner Rede auf einer UNESCU-Konferenz im Jahr 1971 dar und warnte vor einer neuen Religion, „dem Glauben, der den Menschen von einer selbstgewählten Verwaltungspriesterschaft aufgezwungen wird“:

„Das Grausamste, was diese öffentliche Wissenschaft sagt … ist, dass die Wahrheit in den Zahlen liegt, dass die Zahlen in den Maschinen stecken, dass die Maschinen nicht menschlich und daher fair sind.“ Sie bleiben von der Erbsünde verschont. In den Händen einer skrupellosen und machtgierigen Priesterschaft wurde dieses effiziente Werkzeug, wie zuvor der Letzte Mann, zu einem Instrument der Sklaverei.“

Als Mitglied der MIT-Fakultät verbrachte Lettvin seine Zeit, wie er sagte, „mit diesen fröhlichen Brüdern, die sich um den Computer kümmern“ und wollte sein Publikum auf „einen Blick auf den Retter selbst vorbereiten, dessen Konzept so edel ist wie jedes moderne.“ .“ Unterfangen, möglicherweise das edelste von allen, aber auch das grausamste in Bezug auf die Wirkung. Dieser König, dieser leuchtende Stern im Diadem unseres Papieruniversums ist ein Projekt namens Künstliche Intelligenz.“

Genau wie heute bestand das Ziel der Entwickler künstlicher Intelligenz zu Lettvins Zeiten darin, „die Maschine von einem Zauberlehrling in eine Zauberin zu verwandeln“. Und genau wie uns die heutigen KI-Programmierer sagen, dass AGI vor der Tür steht, „suchen sie nach einem universellen Bugkiller, denn alles, was zwischen ihnen und der ultimativen Errungenschaft der Erkenntnis steht, sind diese wenigen Bugs.“

Einige Monate vor der Veröffentlichung der Arbeit von McCulloch und Pitts reichten John Mauchly und J. Presper Eckert von der Moore School der University of Pennsylvania einen Vorschlag zum Bau eines „elektronischen Rechners“ beim U.S. Army Ballistics Research Laboratory ein. Das Ergebnis war der ENIAC, der erste elektronische Allzweckcomputer, der im Februar 1946 der Öffentlichkeit vorgestellt wurde.

Aus der Arbeit am ENIAC ging auch der Artikel von John von Neumann vom Juni 1945 hervor, der die Architektur moderner Computer bis heute definiert. Erster Entwurf eines Berichts über EDVAC. „In Anlehnung an McCulloch und Pitts“, schrieb von Neumann, „ignorieren wir die komplizierteren Aspekte der Funktionsweise von Neuronen … Es ist leicht zu erkennen, dass diese vereinfachten Funktionen von Neuronen durch Telegraphenrelais oder Vakuumröhren nachgeahmt werden können.“

Von Neumann – und alle nachfolgenden Hardware- und Softwareentwickler – beschäftigten sich nicht mit der „Wissenschaft“, sondern mit der Technik. Er verwendete die Theorie von McCulloch und Pitts über die Funktionsweise von Neuronen, um verschiedene Computer-„Elemente“ mit Begriffen zu veranschaulichen, die aus der menschlichen Anatomie bekannt sind – „Gedächtnis“ war ein solcher Begriff in von Neumanns Sprachgebrauch, der bis heute überlebt hat.

Geniale Computertechnik brachte in den 1940er Jahren die künstliche Intelligenz hervor und verlieh Maschinen eine beispiellose Rechengeschwindigkeit. Die anschließende Weiterentwicklung moderner Computer – angetrieben durch die menschliche Intelligenz der Ingenieure, die sie entwickelt haben – fügte Computern immer mehr Funktionalität hinzu, bis hin zur heutigen effizienten Text- und Bildverarbeitung.

Künstliche Intelligenz ist das, was Computer tun und was Computeringenieure erfinden, ohne zu verstehen, wie unser Gehirn funktioniert. Halluzinationen über „künstliche allgemeine Intelligenz“ oder AGI mögen einige von ihnen motivieren, aber sie tragen in keiner Weise zu ihrem Erfolg bei, die Möglichkeiten von Computern ständig zu erweitern.

Leave a Reply

Your email address will not be published. Required fields are marked *