Die neueste KI von DeepMind kann Geometrieprobleme lösen

By | January 17, 2024

DeepMind, das KI-Forschungs- und Entwicklungslabor von Google, glaubt, dass der Schlüssel zu leistungsfähigeren KI-Systemen in der Entdeckung neuer Wege zur Lösung anspruchsvoller geometrischer Probleme liegen könnte.

Zu diesem Zweck hat DeepMind heute AlphaGeometry vorgestellt – ein System, das nach Angaben des Labors genauso viele Geometrieprobleme lösen kann wie der durchschnittliche Goldmedaillengewinner der Internationalen Mathematikolympiade. AlphaGeometry, das heute Morgen als Open-Source-Lösung verfügbar war, löst 25 Olympiad-Geometrieprobleme innerhalb der Standardzeit und übertrifft damit die 10 des vorherigen hochmodernen Systems.

„Die Lösung von Geometrieproblemen auf Olympia-Niveau ist ein wichtiger Meilenstein in der Entwicklung tiefer mathematischer Argumentation auf dem Weg zu fortschrittlicheren und allgemeineren KI-Systemen“, schrieben Trieu Trinh und Thang Luong, KI-Forscher bei Google, in einem heute Morgen veröffentlichten Blogbeitrag . „[We] Ich hoffe, dass AlphaGeometry dazu beiträgt, neue Möglichkeiten in Mathematik, Naturwissenschaften und KI zu eröffnen.“

Warum der Fokus auf Geometrie? DeepMind behauptet, dass der Beweis mathematischer Theoreme oder die logische Erklärung, warum ein Theorem (z. B. der Satz des Pythagoras) wahr ist, sowohl logisches Denken als auch die Fähigkeit erfordert, aus einer Reihe möglicher Schritte zu einer Lösung auszuwählen. Dieser Problemlösungsansatz könnte – wenn DeepMind recht hat – eines Tages in Allzweck-KI-Systemen nützlich werden.

„Der Nachweis, dass eine bestimmte Vermutung wahr oder falsch ist, erweitert die Fähigkeiten selbst der fortschrittlichsten KI-Systeme von heute“, heißt es in den mit TechCrunch geteilten Pressematerialien von DeepMind. „Um dieses Ziel zu erreichen, ist die Fähigkeit, mathematische Theoreme zu beweisen … ein wichtiger Meilenstein, da sie die Beherrschung des logischen Denkens und die Fähigkeit, neues Wissen zu entdecken, zeigt.“

Das Training eines KI-Systems zur Lösung von Geometrieproblemen stellt jedoch besondere Herausforderungen dar.

Aufgrund der Komplexität der Übersetzung von Beweisen in ein für Maschinen verständliches Format besteht ein Mangel an verwendbaren Geometrie-Trainingsdaten. Und viele der heutigen generativen KI-Modelle sind zwar hervorragend darin, Muster und Beziehungen in Daten zu erkennen, ihnen fehlt jedoch die Fähigkeit, mithilfe von Theoremen logisch zu argumentieren.

Die Lösung von DeepMind bestand aus zwei Gründen.

Bildnachweis: DeepMind

Beim Entwurf von AlphaGeometry kombinierte das Labor ein „neuronales Sprachmodell“ – ein Modell, das in seiner Architektur ChatGPT ähnelt – mit einer „symbolischen Deduktions-Engine“, einer Engine, die Regeln (z. B. mathematische Regeln) nutzt, um Lösungen für Probleme abzuleiten. Symbolische Engines können unflexibel und langsam sein, insbesondere bei der Verarbeitung großer oder komplizierter Datensätze. Aber DeepMind entschärfte diese Probleme, indem das neuronale Modell die Deduktionsmaschine durch mögliche Antworten auf bestimmte Geometrieprobleme „führte“.

Anstelle von Trainingsdaten hat DeepMind eigene Daten erstellt Synthetik Daten, die 100 Millionen „synthetische Theoreme“ und Beweise unterschiedlicher Komplexität generieren. Anschließend trainierte das Labor AlphaGeometry von Grund auf auf der Grundlage der synthetischen Daten – und evaluierte es anhand olympischer Geometrieprobleme.

Olympiade-Geometrieaufgaben basieren auf Diagrammen, denen vor ihrer Lösung „Konstruktionen“ hinzugefügt werden müssen, wie etwa Punkte, Linien oder Kreise. Auf diese Probleme angewendet, sagt das neuronale Modell von AlphaGeometry voraus, welche Konstrukte hinzugefügt werden könnten – Vorhersagen, die die symbolische Engine von AlphaGeometry verwendet, um Rückschlüsse auf die Diagramme zu ziehen und ähnliche Lösungen zu identifizieren.

„Mit so vielen Beispielen, wie diese Konstruktionen zu Beweisen führten, ist das AlphaGeometry-Sprachmodell in der Lage, gute Vorschläge für neue Konstruktionen zu machen, wenn es mit olympischen Geometrieproblemen konfrontiert wird“, schreiben Trinh und Luong. „Das eine System liefert schnelle, ‚intuitive‘ Erkenntnisse und das andere eine bewusstere, rationalere Entscheidungsfindung.“

Die AlphaGeometry-Problemlösungsergebnisse, die diese Woche in einer Studie in der Zeitschrift Nature veröffentlicht wurden, dürften die langjährige Debatte darüber anheizen, ob KI-Systeme auf Symbolmanipulation basieren sollten – also auf der Manipulation von Symbolen, die Wissen darstellen Regeln. – oder die neuronalen Netze, die offenbar eher dem Gehirn ähneln.

Befürworter des neuronalen Netzwerkansatzes argumentieren, dass intelligentes Verhalten – von der Spracherkennung bis zur Bilderzeugung – nur aus riesigen Datenmengen und Berechnungen entstehen kann. Andererseits Bei symbolischen Systemen, die Aufgaben lösen, indem sie Sätze von Symbolmanipulationsregeln definieren, die für bestimmte Aufgaben bestimmt sind (z. B. das Bearbeiten einer Zeile in einer Textverarbeitungssoftware), versuchen neuronale Netze, Aufgaben durch statistische Approximation und Lernen aus Beispielen zu lösen.

Neuronale Netze sind die Grundlage leistungsstarker KI-Systeme wie DALL-E 3 und GPT-4 von OpenAI. Doch Befürworter der symbolischen KI behaupten, sie seien nicht das A und O; Diese Befürworter argumentieren, dass die symbolische KI möglicherweise besser in der Lage sei, Wissen über die Welt effizient zu verschlüsseln, durch komplexe Szenarien zu argumentieren und zu „erklären“, wie sie zu einer Antwort gelangt sei.

Als hybrides neuronal-symbolisches Netzwerksystem, das AlphaFold 2 und AlphaGo von DeepMind ähnelt, demonstriert AlphaGeometry möglicherweise, dass beide Ansätze – Symbolmanipulation und neuronale Netzwerke – Kombiniert ist der beste Weg vorwärts bei der Suche nach verallgemeinerbarer KI. Vielleicht.

„Unser langfristiges Ziel bleibt es, KI-Systeme zu bauen, die sich über mathematische Bereiche hinweg verallgemeinern lassen, die ausgefeilten Problemlösungen und Argumentationen entwickeln, auf die allgemeine KI-Systeme angewiesen sind, und gleichzeitig die Grenzen des menschlichen Wissens zu erweitern“, schreiben Trinh und Luong. „Dieser Ansatz könnte die Art und Weise beeinflussen, wie zukünftige KI-Systeme neues Wissen entdecken, in der Mathematik und mehr.“

Leave a Reply

Your email address will not be published. Required fields are marked *