Aber es gibt versteckte Risiken: ScienceAlert

By | January 4, 2024

Microsoft hat kürzlich eine neue Version seiner gesamten Software veröffentlicht, die um einen Assistenten mit künstlicher Intelligenz (KI) erweitert wurde, der eine Vielzahl von Aufgaben für Sie erledigen kann.

Copilot kann mündliche Gespräche in Teams-Onlinebesprechungen zusammenfassen, auf der Grundlage mündlicher Diskussionen Argumente für oder gegen einen bestimmten Punkt vorbringen und auf einen Teil Ihrer E-Mails antworten. Sie können sogar Computercode schreiben.

Diese sich schnell entwickelnde Technologie scheint uns einer Zukunft noch näher zu bringen, in der KI unser Leben einfacher macht und all die langweiligen und sich wiederholenden Dinge, die wir als Menschen tun müssen, eliminiert.

Obwohl all diese Fortschritte sehr beeindruckend und nützlich sind, sollten wir bei der Verwendung solch großer Sprachmodelle (LLMs) vorsichtig sein. Trotz ihrer intuitiven Natur erfordern sie dennoch Geschick, um sie effektiv, zuverlässig und sicher nutzen zu können.

Tolle Sprachmodelle

LLMs, eine Art „Deep-Learning“-Neuronales Netzwerk, sind darauf ausgelegt, die Absicht des Benutzers zu verstehen, indem sie die Wahrscheinlichkeit unterschiedlicher Reaktionen basierend auf der gegebenen Eingabeaufforderung analysieren. Wenn also eine Person eine Anfrage eingibt, prüft LLM den Text und ermittelt die wahrscheinlichste Antwort.

ChatGPT, ein prominentes Beispiel für LLM, kann Antworten auf Anfragen zu einem breiten Themenspektrum geben. Trotz ihrer scheinbar fundierten Antworten verfügt ChatGPT jedoch über keine wirklichen Kenntnisse. Ihre Antworten stellen einfach die wahrscheinlichsten Ergebnisse dar, die auf der gegebenen Anfrage basieren.

Wenn Menschen ChatGPT, Copilot und anderen LLMs detaillierte Beschreibungen der Aufgaben zur Verfügung stellen, die sie erledigen möchten, können diese Modelle sich durch die Bereitstellung hochwertiger Antworten auszeichnen. Dies kann das Generieren von Text, Bildern oder Computercode umfassen.

Aber als Menschen stoßen wir oft an die Grenzen dessen, was Technologie leisten kann und wofür sie ursprünglich entwickelt wurde. Folglich begannen wir, diese Systeme zu nutzen, um die Arbeit zu erledigen, die wir selbst hätten erledigen sollen.

Warum eine übermäßige Abhängigkeit von KI ein Problem sein könnte

Trotz ihrer scheinbar intelligenten Antworten können wir nicht blind darauf vertrauen, dass LLMs korrekt oder zuverlässig sind. Wir müssen Ihre Ergebnisse sorgfältig auswerten und überprüfen, um sicherzustellen, dass sich unsere ersten Vorschläge in den bereitgestellten Antworten widerspiegeln.

Um LLM-Ergebnisse effektiv verifizieren und validieren zu können, müssen wir über ein umfassendes Verständnis des Themas verfügen. Ohne Erfahrung können wir die erforderliche Qualitätssicherung nicht gewährleisten.

Dies wird besonders wichtig in Situationen, in denen wir LLMs nutzen, um Lücken in unserem eigenen Wissen zu schließen. Hier kann unser Unwissen dazu führen, dass wir einfach nicht mehr feststellen können, ob das Ergebnis korrekt ist oder nicht. Diese Situation kann bei der Textgenerierung und Codierung auftreten.

Der Einsatz von KI zur Teilnahme an Besprechungen und zur Zusammenfassung von Diskussionen birgt offensichtliche Zuverlässigkeitsrisiken.

Obwohl die Besprechungsaufzeichnung auf einem Transkript basiert, werden Besprechungsnotizen dennoch auf die gleiche Weise wie andere LLM-Texte erstellt. Sie basieren immer noch auf Sprachmustern und Wahrscheinlichkeiten des Gesagten und müssen daher überprüft werden, bevor sie in die Praxis umgesetzt werden können.

Sie leiden auch unter Interpretationsproblemen aufgrund von Homophonen, Wörtern, die gleich ausgesprochen werden, aber unterschiedliche Bedeutungen haben. Aufgrund des Gesprächskontexts können die Menschen unter diesen Umständen gut verstehen, was gemeint ist.

Aber KI ist nicht gut darin, Zusammenhänge abzuleiten, noch versteht sie Nuancen. Daher ist es noch problematischer, Argumente auf der Grundlage einer möglicherweise fehlerhaften Transkription formulieren zu müssen.

Noch schwieriger wird die Verifizierung, wenn wir KI zur Generierung von Computercode nutzen. Das Testen von Computercode mit Testdaten ist die einzige zuverlässige Methode zur Validierung seiner Funktionalität. Dies zeigt zwar, dass der Code wie vorgesehen funktioniert, garantiert jedoch nicht, dass sein Verhalten den tatsächlichen Erwartungen entspricht.

Angenommen, wir verwenden generative KI, um Code für ein Stimmungsanalysetool zu erstellen. Ziel ist es, Produktbewertungen zu analysieren und die Stimmungen als positiv, neutral oder negativ zu kategorisieren. Wir können die Funktionalität des Systems testen und die Codefunktionen korrekt validieren – ob sie aus programmtechnischer Sicht solide sind.

Stellen Sie sich jedoch vor, wir setzen diese Software in der realen Welt ein und sie fängt an, sarkastische Produktbewertungen als positiv einzustufen. Dem Sentiment-Analysesystem fehlt das nötige Kontextwissen, um zu verstehen, dass Sarkasmus nicht als positives Feedback verwendet wird, ganz im Gegenteil.

Um zu überprüfen, ob die Ausgabe eines Codes in verschiedenen Situationen wie dieser den gewünschten Ergebnissen entspricht, sind spezielle Kenntnisse erforderlich.

Nicht-Programmierer verfügen nicht über Kenntnisse der Software-Engineering-Prinzipien, die zur Sicherstellung der Korrektheit des Codes verwendet werden, wie z. B. Planung, Methodik, Tests und Dokumentation. Programmierung ist eine komplexe Disziplin und Software-Engineering hat sich zu einem Bereich zur Verwaltung der Softwarequalität entwickelt.

Wie meine eigene Forschung gezeigt hat, besteht ein erhebliches Risiko, dass Nicht-Experten wichtige Schritte im Software-Designprozess ignorieren oder überspringen, was zu Code unbekannter Qualität führt.

Validierung und Verifizierung

LLMs wie ChatGPT und Copilot sind leistungsstarke Tools, von denen wir alle profitieren können. Aber wir müssen aufpassen, dass wir den Ergebnissen, die uns gegeben werden, nicht blind vertrauen.

Wir stehen am Anfang einer großen Revolution, die auf dieser Technologie basiert. KI hat endlose Möglichkeiten, aber sie muss gestaltet, überprüft und verifiziert werden. Und derzeit sind nur Menschen dazu in der Lage.

Simon Thorne, Dozent für Computer- und Informationssysteme, Cardiff Metropolitan University

Dieser Artikel wurde von The Conversation unter einer Creative Commons-Lizenz erneut veröffentlicht. Lesen Sie den Originalartikel.

Leave a Reply

Your email address will not be published. Required fields are marked *