Die fünf größten KI-Bedrohungen von Cybersicherheits-Guru Mikko Hyppönen für 2024

By | January 1, 2024

Mikko Hyppönen steht seit Jahrzehnten an vorderster Front im Kampf gegen Malware. Der 54-Jährige besiegte einige der zerstörerischsten Computerwürmer der Welt. www.youtube.com/watch?v=lnedOWfPKT0″ data-mce-href=“https://www.youtube.com/watch?v=lnedOWfPKT0″>< span=””>an style=“font-weight: 400;“ data-mce-style=“font-weight: 400;“>gefunden „font-weight: 400;“> war der Erfinder des ersten PC-Virus und verkaufte seit seiner Jugend in Helsinki seine eigene Software.p>

tyle=“Schriftstärke: 400;“ data-mce-style=“font-weight: 400;“>In den folgenden Jahren gewann er n>air.com/news/2004/01/virus-hunters-200401″ data-mce-href=“https:/ / www.vanityfair.com/news/2004/01/virus-hunters-200401″>-weight: 400;“ data-mce-style=“font-weight: 400;“>Vanity Fair-Profile=“Schriftstärke: 400;“ data-mce-style=“font-weight: 400;“>, Positionen in den Top 100 Global Foreign Policy Thinkers und die Rolle des Forschungsdirektors bei yle=“font-weight: 400;“ data-mce-style=“font-weight: 400;“>WithSecuren>< span=””> style=“Schriftstärke: 400;“ data-mce-style=“font-weight: 400;“> – größter Wert

Der Finne mit dem Pferdeschwanz ist auch Online-Kurator -mce-href=“https://archive.org/details/malwaremuseum&tab=collection“>Malware-Museum. Allerdings könnte die gesamte Geschichte in Ihren Archiven von der neuen Ära der Technologie überschattet werden: der Ära von „https://thenextweb.com/topic/artificial-intelligence“>xtaeindeutige Notation wl-thing“ itemid=“https://data.thenextweb.com/tnw/entity/artificial-intelligence“>künstliche Intelligenz.

„KI verändert alles“, sagte Hyppönen TNW in einem Videoanruf. „Die KI-Revolution wird größer sein als die Internet-Revolution.“

ata-mce-style=“font-weight: 400;“>Als selbsternannter Optimist hofft der Hackerjäger, dass die Revolution positive Auswirkungen hat. Er macht sich aber auch Sorgen über die damit verbundenen Cyber-Bedrohungen. Zu Beginn des Jahres 2024 verriet Hyppönen seine fünf dringendsten Anliegen für das kommende Jahr. Sie kommen in keiner bestimmten Reihenfolge vor – obwohl es eine gibt, die die schlaflosesten Nächte verursacht.

Forscher bezeichnen seit langem Deepfakes als die häufigsten „searchers-crime-avisam“ data-mce-href=“https://thenextweb.com/news/deepfakes-are-the-most-worrying-ai-crime-researchers-warn“>alarmierender Einsatz von KI für Straftaten, aber synthetische Medien haben ihre Vorhersagen noch nicht erfüllt. Jedenfalls noch nicht.

In den letzten Monaten begannen seine Befürchtungen jedoch Wirklichkeit zu werden. enextweb.com/topic/deepfake“>Demnach haben Deepfake-Betrugsversuche im Jahr 2023 um 3.000 % zugenommen Onfido-Forschungein in London ansässiges Einhorn zur Identitätsprüfung.

Auch im Bereich der Informationskriegsführung sind gefälschte Videos auf dem Vormarsch. Die groben Deepfakes von Der ukrainische Präsident Wolodymyr Selenskyj Seit den Anfängen der groß angelegten Invasion Russlands wurden sie kürzlich durch hochentwickelte ersetzt Medienmanipulationen.

Deepfakes tauchen mittlerweile auch in einfachen Nachteilen auf. Das bemerkenswerteste Beispiel wurde im Oktober entdeckt, als auf TikTok ein Video erschien, in dem angeblich gezeigt wurde, wie MrBeast neue iPhones für nur 2 US-Dollar anbot.

Dennoch sind Finanzbetrug mit überzeugenden Deepfakes nach wie vor selten. Hyppönen hat bisher nur drei gesehen – geht aber davon aus, dass sich diese Zahl schnell vermehren wird. Da Deepfakes immer raffinierter, zugänglicher und erschwinglicher werden, könnte ihr Ausmaß schnell zunehmen.

„Das passiert noch nicht im großen Stil, aber es wird in sehr kurzer Zeit ein Problem sein“, sagt Hyppönen.

Um das Risiko zu verringern, schlägt er eine altmodische Verteidigung vor: sichere Worte.

Stellen Sie sich einen Videoanruf mit Kollegen oder der Familie vor. Wenn jemand vertrauliche Informationen verlangt, beispielsweise eine Geldüberweisung oder ein vertrauliches Dokument, müssen Sie nach dem Sicherheitswort fragen, bevor Sie der Anfrage nachkommen.

„Im Moment scheint es ein bisschen lächerlich, aber wir sollten es trotzdem tun“, rät Hyppönen. „Jetzt ein sicheres Wort zu etablieren, ist eine sehr günstige Absicherung gegen den Fall, dass dies in großem Umfang geschieht. Das sollten wir jetzt für 2024 beseitigen.“

Obwohl der Name Deepfakes ähnelt, handelt es sich bei Deepfakes nicht unbedingt um manipulierte Medien. In ihrem Fall bezieht sich „tiefgreifend“ auf das enorme Ausmaß des Betrugs. Dies wird durch Automatisierung erreicht, die die Ziele von wenigen auf unendlich erweitern kann.

Techniken können alle Arten von Schlägen verstärken. Investitionsbetrug, Phishing-Betrug, Immobilienbetrug, Ticketbetrug, Romantikbetrug … Wo manuelle Arbeit anfällt, gibt es Raum für Automatisierung.

Denken Sie daran Tinder-Betrüger? Der Betrüger hat Frauen, die er online kennengelernt hatte, rund 10 Millionen Dollar gestohlen. Stellen Sie sich vor, er wäre mit großen Sprachmodellen (LLMs) ausgestattet, um seine Lügen zu verbreiten, mit Bildgeneratoren, um scheinbare fotografische Beweise hinzuzufügen, und mit Sprachkonvertern, um seine Botschaften zu übersetzen. Der Pool potenzieller Opfer wäre enorm.

„Man könnte 10.000 Opfer gleichzeitig täuschen statt drei oder vier“, sagt Hyppönen.

Auch Airbnb-Betrüger könnten davon profitieren. Heutzutage verwenden sie in der Regel Bilder, die aus echten Werbeanzeigen gestohlen wurden, um Touristen von einer Reservierung zu überzeugen. Es ist ein mühsamer Prozess, der mit einer umgekehrten Bildsuche vereitelt werden kann. Mit GenAI gibt es diese Barrieren nicht mehr.

„Mit Stable Diffusion, DALL-E und Midjourney können Sie unbegrenzt viele völlig plausible Airbnbs generieren, die niemand finden kann.“

KI schreibt bereits Malware. Hyppönens Team entdeckte drei Würmer, die LLMs starten, um Code neu zu schreiben, wann immer sich die Malware repliziert. In echten Netzwerken wurde bisher noch keins gefunden, aber es wurde auf GitHub veröffentlicht – und es funktioniert.

Mithilfe einer OpenAI-API nutzen Würmer GPT, um für jedes Ziel, das sie infizieren, unterschiedlichen Code zu generieren. Dadurch sind sie schwer zu erkennen. OpenAI kann jedoch das Verhalten von Malware auf die schwarze Liste setzen.

„Dies ist mit den leistungsstärksten generativen KI-Systemen zum Schreiben von Code möglich, da es sich um Closed-Source-Systeme handelt“, sagt Hyppönen.

„Wenn Sie das gesamte große Sprachmodell herunterladen könnten, könnten Sie es lokal oder auf Ihrem eigenen Server ausführen. Sie konnten Sie nicht länger auf die schwarze Liste setzen. Das ist der Vorteil generativer KI-Systeme mit geschlossener Quelle.“

Der Vorteil gilt auch für Bilderzeugungsalgorithmen. Bieten Sie offenen Zugang zum Kodex und sorgen Sie dafür, dass seine Beschränkungen in Bezug auf Gewalt, Pornografie und Täuschung aufgehoben werden.

Vor diesem Hintergrund überrascht es nicht, dass OpenAI geschlossener ist, als der Name vermuten lässt. Nun, das und natürlich all die Einnahmen, die sie durch Nachahmer-Entwickler verlieren würden.

Ein weiteres aufkommendes Problem betrifft Zero-Day-Exploits, die von Angreifern entdeckt werden, bevor Entwickler eine Lösung für das Problem finden. KI kann diese Bedrohungen erkennen – sie kann sie aber auch erzeugen.

„Es ist großartig, wenn Sie einen KI-Assistenten verwenden können, um Null-Tage in Ihrem Code zu finden und diese zu beheben“, sagt Hyppönen. „Und es ist schrecklich, wenn jemand KI verwendet, um Zero-Days in Ihrem Code zu finden, damit er Sie ausnutzen kann. Wir sind noch nicht ganz am Ziel, aber ich glaube, dass es Realität sein wird – und wahrscheinlich kurzfristig Realität.“

Ein Student, der bei F-Secure arbeitet, hat die Bedrohung bereits demonstriert. In einer Abschlussarbeit erhielten sie reguläre Benutzerrechte für den Zugriff auf die Befehlszeile auf einem Windows 11-Computer. Anschließend automatisierte der Student den Schwachstellen-Scan-Prozess vollständig und wurde zum lokalen Administrator. F-Secure hat beschlossen, die These zu klassifizieren.

„Wir waren nicht dafür verantwortlich veröffentlichen Forschung“, sagt Hyppönen. “Es war wirklich gut.”

F-Secure integriert seit Jahrzehnten Automatisierung in seine Abwehrmaßnahmen. Dies verschafft dem Unternehmen einen Vorteil gegenüber Angreifern, die immer noch weitgehend auf manuelle Vorgänge angewiesen sind. Für Kriminelle gibt es einen klaren Weg, die Lücke zu schließen: vollautomatische Malware-Kampagnen.

„Das wäre das Spiel um gute KI gegen schlechte KI“, sagt Hyppönen.

Dieses Spiel soll bald beginnen. Wenn dies geschieht, können die Ergebnisse alarmierend sein. So alarmierend, dass Hyppönen vollautomatische Malware als größte Sicherheitsbedrohung im Jahr 2024 einstuft. Allerdings lauert bereits eine noch größere Bedrohung.

Hyppönen hat eine bemerkenswerte Hypothese zur IoT-Sicherheit. Die als Hyppönens Gesetz bekannte Theorie besagt, dass jedes Gerät, das als „intelligent“ beschrieben wird, anfällig ist. Wenn dieses Gesetz auf superintelligente Maschinen anwendbar wäre, könnten wir ernsthafte Probleme haben.

Hyppönen hofft, die Auswirkungen miterleben zu können.

„Ich denke, wir werden in meinem Leben das zweitklügste Wesen auf dem Planeten sein“, sagt er. „Ich glaube nicht, dass es im Jahr 2024 passieren wird. Aber ich denke, es wird zu meinen Lebzeiten passieren.“

Dies würde die Dringlichkeit der Ängste erhöhen allgemeine künstliche Intelligenz. Um die menschliche Kontrolle über AGI aufrechtzuerhalten, setzt sich Hyppönen stark dafür ein Ausrichtung mit unseren Zielen und Bedürfnissen.

„Die Dinge, die wir bauen, müssen ein Verständnis für die Menschheit haben und ihre langfristigen Interessen mit den Menschen teilen … Der Vorteil ist riesig – größer als alles andere – aber auch die Kehrseite ist größer als alles andere.“

Leave a Reply

Your email address will not be published. Required fields are marked *