Diese Woche in der KI: Die KI-Ethik bleibt weiterhin auf der Strecke

By | December 23, 2023

Mit einer sich schnell entwickelnden Branche wie der KI Schritt zu halten, ist eine schwierige Aufgabe. Bis eine KI dies für Sie erledigen kann, finden Sie hier eine hilfreiche Zusammenfassung der neuesten Geschichten aus der Welt des maschinellen Lernens sowie bemerkenswerte Forschungsergebnisse und Experimente, über die wir selbst nicht berichtet haben.

Diese Woche in IA hat sich der Nachrichtenzyklus vor der Weihnachtszeit endlich (endlich!) etwas beruhigt. Das heißt aber nicht, dass es an Dingen mangelte, über die man schreiben konnte – ein Segen und ein Fluch für diesen unter Schlafmangel leidenden Reporter.

Eine besondere Schlagzeile von AP fiel mir heute Morgen ins Auge: „KI-Bildgeneratoren werden auf explizite Fotos von Kindern trainiert.“ Der Kern der Geschichte ist, dass LAION, ein Datensatz, der zum Trainieren vieler beliebter kommerzieller und Open-Source-KI-Bildgeneratoren, darunter Stable Diffusion und Imagen, verwendet wird, Tausende von Bildern von mutmaßlichem sexuellem Kindesmissbrauch enthält. Eine in Stanford ansässige Überwachungsgruppe, das Stanford Internet Observatory, arbeitete mit Wohltätigkeitsorganisationen zur Missbrauchsbekämpfung zusammen, um illegales Material zu identifizieren und Links an die Behörden zu melden.

Jetzt hat LAION, eine gemeinnützige Organisation, seine Trainingsdaten gelöscht und sich verpflichtet, die beanstandeten Materialien zu entfernen, bevor sie erneut veröffentlicht werden. Der Vorfall verdeutlicht jedoch, wie wenig Aufmerksamkeit generativen KI-Produkten angesichts des zunehmenden Wettbewerbsdrucks geschenkt wird.

Dank der Verbreitung von Tools zur Erstellung von KI-Modellen ohne Code wird es extrem einfach, generative KI auf jedem erdenklichen Datensatz zu trainieren. Es ist ein Segen für Startups und Technologiegiganten, diese Modelle auf den Markt zu bringen. Mit der niedrigeren Eintrittsbarriere steigt jedoch die Versuchung, Ethik zugunsten einer beschleunigten Markteinführung aufzugeben.

Ethik ist schwierig – das lässt sich nicht leugnen. Die Untersuchung der Tausenden problematischen Bilder von LAION, um das Beispiel dieser Woche zu nennen, wird nicht über Nacht geschehen. Und im Idealfall erfordert die ethische Entwicklung von KI die Zusammenarbeit mit allen relevanten Interessengruppen, einschließlich Organisationen, die Gruppen vertreten, die häufig marginalisiert und von KI-Systemen negativ beeinflusst werden.

Die Branche ist voll von Beispielen für KI-Einführungsentscheidungen, die eher im Hinblick auf Aktionäre als auf Ethiker getroffen werden. Nehmen wir zum Beispiel Bing Chat (jetzt Microsoft Copilot), den KI-gestützten Bing-Chatbot von Microsoft, der beim Start einen Journalisten mit Hitler verglich und sein Aussehen beleidigte. Im Oktober gaben ChatGPT und Bard, ein Konkurrent von Googles ChatGPT, immer noch rassistische und veraltete medizinische Ratschläge. Und die neueste Version des DALL-E-Imagers von OpenAI zeigt Hinweise auf Anglozentrismus.

Es genügt zu sagen, dass das Streben nach KI-Überlegenheit – oder zumindest der Wall Street-Vorstellung von KI-Überlegenheit – Schaden anrichtet. Vielleicht gibt es mit der Verabschiedung der EU-KI-Vorschriften, die Geldstrafen für die Nichteinhaltung bestimmter KI-Schutzbarrieren drohen, etwas Hoffnung am Horizont. Aber der Weg, der noch vor uns liegt, ist wirklich lang.

Hier sind einige andere bemerkenswerte KI-Geschichten der letzten Tage:

Vorhersagen für KI im Jahr 2024: Devin legt seine Prognosen für KI im Jahr 2024 dar und geht unter anderem darauf ein, wie sich KI auf die US-Vorwahlen auswirken könnte und was als nächstes für OpenAI ansteht.

Gegen Pseudotropie: Devin schrieb auch, dass es der KI verboten werden sollte, menschliches Verhalten nachzuahmen.

Microsoft Copilot erhält Musikerstellung: Copilot, der KI-gestützte Chatbot von Microsoft, kann dank einer Integration mit der GenAI Suno-Musik-App jetzt Musik komponieren.

Gesichtserkennung bei Rite Aid eingeführt: Rite Aid wurde fünf Jahre lang der Einsatz von Gesichtserkennungstechnologie untersagt, nachdem die Federal Trade Commission festgestellt hatte, dass der „rücksichtslose Einsatz von Gesichtsüberwachungssystemen“ durch den US-Drogerieriesen die Kunden gedemütigt und ihre „sensiblen Informationen gefährdet“ habe.

Die EU bietet Rechenressourcen an: Die EU erweitert ihren ursprünglich im September angekündigten und letzten Monat gestarteten Plan, lokale KI-Start-ups zu unterstützen, indem sie ihnen Zugang zu Rechenleistung verschafft, um Modelle auf den Supercomputern der Union zu trainieren.

OpenAI verleiht dem Vorstand neue Befugnisse: OpenAI erweitert seine internen Sicherheitsprozesse, um die Bedrohung durch schädliche KI abzuwehren. Eine neue „Sicherheitsberatungsgruppe“ wird über den technischen Teams sitzen und Empfehlungen an die Führung richten, und dem Vorstand wurde ein Vetorecht eingeräumt.

Fragen und Antworten mit Ken Goldberg von der UC Berkeley: Für seinen regelmäßigen Actuator-Newsletter traf sich Brian mit Ken Goldberg, einem UC Berkeley-Professor, Startup-Gründer und erfahrenen Robotiker, um über humanoide Roboter und allgemeinere Trends in der Robotikbranche zu sprechen.

CIOs gehen mit der KI-Generation langsam um: Ron schreibt, dass CIOs zwar unter Druck stehen, die Art von Erfahrung zu bieten, die die Leute sehen, wenn sie online mit ChatGPT spielen, die meisten jedoch einen bewussten und vorsichtigen Ansatz bei der Einführung der Technologie für das Unternehmen verfolgen.

Nachrichtenverleger verklagen Google wegen KI: Eine von mehreren Nachrichtenverlagen eingereichte Sammelklage wirft Google „Abschöpfung“ vor[ing] „off“-Nachrichteninhalte durch wettbewerbswidrige Mittel, teilweise durch KI-Technologie wie Googles Search Generative Experience (SGE) und den Bard-Chatbot.

OpenAI Inks spricht Axel Springer an: Apropos Verlage: OpenAI hat einen Vertrag mit Axel Springer, dem in Berlin ansässigen Herausgeber von Publikationen wie Business Insider und Politico, geschlossen, um seine generativen KI-Modelle auf Verlagsinhalte zu trainieren und aktuelle von Axel Springer veröffentlichte Artikel zu ChatGPT hinzuzufügen.

Google bringt Gemini an mehr Orte: Google hat seine Gemini-Modelle in weitere seiner Produkte und Dienstleistungen integriert, darunter seine von Vertex AI und AI Studio verwaltete KI-Entwicklungsplattform, das Tool des Unternehmens zur Erstellung KI-gestützter Chatbots und andere Experimente in dieser Richtung.

Mehr maschinelles Lernen

Die wildeste (und am leichtesten zu fehlinterpretierende) Forschung der letzten Wochen war sicherlich life2vec, eine dänische Studie, die Tonnen von Daten aus dem Leben einer Person nutzt, um vorherzusagen, wie sie ist und wann sie sterben wird. Um!

Visualisierung der life2vec-Zuordnung verschiedener Konzepte und relevanter Lebensereignisse.

Die Studie erhebt keinen Anspruch auf orakelhafte Präzision (sagen wir übrigens dreimal schneller), aber sie soll zeigen, dass diese Wege mithilfe aktueller Techniken des maschinellen Lernens irgendwie extrapoliert werden können, wenn unser Leben die Summe unserer Erfahrungen ist. Anhand von Bildung, Bildung, Arbeit, Gesundheit, Hobbys und anderen Kennzahlen kann man nicht nur vernünftigerweise vorhersagen, ob jemand beispielsweise introvertiert oder extrovertiert ist, sondern auch, wie sich diese Faktoren auf die Lebenserwartung auswirken könnten. Wir sind hier noch nicht auf dem Niveau „vor der Kriminalität“, aber Sie können darauf wetten, dass die Versicherungsgesellschaften es kaum erwarten können, diese Arbeit zu lizenzieren.

Eine weitere große Behauptung wurde von CMU-Wissenschaftlern aufgestellt, die ein System namens Coscientist entwickelt haben, einen LLM-basierten Assistenten für Forscher, der viele Laboraufgaben autonom ausführen kann. Derzeit ist es auf bestimmte Bereiche der Chemie beschränkt, aber genau wie Wissenschaftler werden Modelle wie diese Experten sein.

Der leitende Forscher Gabe Gomes sagte gegenüber Nature: „Der Moment, als ich sah, wie eine nicht-organische Intelligenz eine von Menschen erfundene chemische Reaktion autonom planen, entwerfen und ausführen konnte, war unglaublich.“ Es war ein ‚heiliger Scheiß‘-Moment.“ Im Grunde wird ein in chemischen Dokumenten angepasstes LLM wie GPT-4 verwendet, um gängige Reaktionen, Reagenzien und Verfahren zu identifizieren und auszuführen. Sie müssen einem Labortechniker also nicht sagen, dass er vier Chargen eines Katalysators synthetisieren soll – die KI kann das tun, und Sie müssen ihn nicht einmal an der Hand halten.

Auch die KI-Forscher von Google hatten eine große Woche und tauchten in einige interessante Grenzgebiete ein. FunSearch mag wie Google für Kinder klingen, ist aber eigentlich die Abkürzung für Suchfunktion, die wie Coscientist in der Lage ist, mathematische Entdeckungen zu machen und dabei zu helfen. Um Halluzinationen zu vermeiden, verwendet dieser (wie andere in letzter Zeit) interessanterweise ein passendes Paar von KI-Modellen, die der „alten“ GAN-Architektur sehr ähnlich sind. Der eine theoretisiert, der andere bewertet.

Während FunSearch keine bahnbrechenden Entdeckungen macht, kann es das Verfügbare nutzen und es verbessern oder an neuen Stellen erneut anwenden. So kann eine Funktion, die eine Domain verwendet, eine andere jedoch nicht kennt, zur Verbesserung eines Industriestandardalgorithmus verwendet werden.

StyleDrop ist ein nützliches Tool für Leute, die bestimmte Stile durch generative Bilder reproduzieren möchten. Das Problem (nach Meinung des Forschers) besteht darin, dass, wenn Sie einen Stil im Kopf haben (z. B. „Pastellfarben“) und ihn beschreiben, das Modell viele Unterstile von „Pastellfarben“ extrahieren muss, sodass die Ergebnisse unvorhersehbar sind. Mit StyleDrop können Sie ein Beispiel für den Stil bereitstellen, über den Sie nachdenken, und die Vorlage basiert ihre Arbeit darauf – im Grunde handelt es sich um eine äußerst effiziente Feinabstimmung.

Bildnachweis: Google

Der Blog-Beitrag und der Artikel zeigen, dass es ziemlich robust ist und einen Stil von jedem Bild, sei es ein Foto, ein Gemälde, ein Stadtbild oder ein Katzenporträt, auf jede andere Art von Bild anwendet, sogar auf das Alphabet (was aus irgendeinem Grund notorisch schwierig ist).

Google macht mit VideoPoet auch Fortschritte im Bereich generativer Videospiele, das eine LLM-Basis verwendet (wie alles heutzutage … was soll man sonst noch verwenden?), um eine Reihe von Videoaufgaben auszuführen, Texte oder Bilder in Videos umzuwandeln und so zu erweitern oder das Stylen bestehender Videos und so weiter. Die Herausforderung besteht hier, wie jedes Projekt deutlich macht, nicht einfach darin, eine Reihe von Bildern zu erstellen, die sich aufeinander beziehen, sondern sie über längere Zeiträume (z. B. mehr als eine Sekunde) und mit großen Bewegungen und Veränderungen kohärent zu machen.

Bildnachweis: Google

Es scheint, dass VideoPoet den Ball nach vorne bewegt, aber wie Sie sehen, sind die Ergebnisse immer noch ziemlich seltsam. Aber so entwickeln sich diese Dinge: Zuerst sind sie unangemessen, dann sind sie seltsam, dann sind sie geheimnisvoll. Vermutlich kommen sie irgendwann seltsam rüber, aber noch ist niemand wirklich so weit gekommen.

Auf der praktischen Seite haben Schweizer Forscher KI-Modelle zur Schneemessung eingesetzt. Normalerweise würden wir Wetterstationen vertrauen, aber diese können weit entfernt sein und wir haben all diese wunderschönen Satellitendaten, oder? Rechts. Deshalb beschaffte das ETHZ-Team öffentliche Satellitenbilder der Sentinel-2-Konstellation, aber wie Leiter Konrad Schindler feststellt: „Allein der Blick auf die weißen Flecken in den Satellitenbildern sagt uns nicht sofort, wie tief der Schnee ist.“

Also gaben sie Geländedaten für das gesamte Land vom Federal Bureau of Surveying (wie unserem USGS) ein und trainierten das System, um Schätzungen nicht nur auf der Grundlage weißer Bildteile, sondern auch auf realen Daten und Trends, wie z. B. Wettermustern, vorzunehmen . Die daraus resultierende Technologie wird von ExoLabs kommerzialisiert, das ich gleich kontaktieren werde, um mehr zu erfahren.

Eine Warnung seitens Stanford: So leistungsfähig Anwendungen wie die oben genannten auch sind, beachten Sie, dass bei keiner von ihnen große menschliche Voreingenommenheit vorherrscht. Wenn es um das Gesundheitswesen geht, wird dies plötzlich zu einem großen Problem, und im Gesundheitswesen werden viele KI-Tools getestet. Stanford-Forscher haben gezeigt, dass KI-Modelle „alte medizinische Rassen-Tropen“ verbreiten. GPT-4 weiß nicht, ob etwas wahr ist oder nicht, daher kann und wird es alte und widerlegte Behauptungen über Gruppen wiederholen, wie zum Beispiel, dass Schwarze eine geringere Lungenkapazität hätten. NEIN! Seien Sie vorsichtig, wenn Sie im Gesundheitswesen und in der Medizin mit KI-Modellen jeglicher Art arbeiten.

Zum Schluss gibt es noch eine von Bard geschriebene Kurzgeschichte mit Drehbuch und Anweisungen, gerendert von VideoPoet. Achtung, Pixar!

Leave a Reply

Your email address will not be published. Required fields are marked *