Starten Sie Ihre KI-Reise mit Deutschlands modernster KI-Beratung
Search
Close this search box.
Search
Close this search box.

Google enthüllt erstmals Zero-Day-Sicherheitslücke durch Künstliche Intelligenz

Von Oliver Welling
KINEWS24.de - Google enthüllt erstmals Zero-Day-Sicherheitslücke durch Künstliche Intelligenz

Google hat in Zusammenarbeit mit DeepMind durch sein Projekt „Big Sleep“ weltweit erstmals eine Zero-Day-Sicherheitslücke in einer verbreiteten Software mithilfe Künstlicher Intelligenz (KI) aufgespürt. Diese Entdeckung könnte die Art und Weise revolutionieren, wie Sicherheitsexperten kritische Schwachstellen in der Software entdecken und beheben. Die Entdeckung eines solchen „Zero-Day“ — einer bisher unbekannten Sicherheitslücke, die potenziell ausnutzbar ist — wurde durch das KI-Modell Big Sleep möglich gemacht, das eine gefährliche Schwachstelle in SQLite aufdeckte, einer häufig genutzten Open-Source-Datenbank-Engine.

Hintergrund zu Googles Project Zero und DeepMind

Project Zero ist Googles Elite-Team aus Hackern und Sicherheitsexperten, das seit Jahren aktiv Zero-Day-Schwachstellen identifiziert. In Zusammenarbeit mit DeepMind, der auf KI-Forschung spezialisierten Abteilung von Google, wurde „Big Sleep“ entwickelt — ein KI-basiertes Tool, das gezielt auf die Entdeckung neuer Sicherheitslücken ausgerichtet ist. Das Ziel: Durch den Einsatz von KI Schwachstellen zu finden, bevor böswillige Akteure die Chance haben, diese auszunutzen.

Die Weltneuheit: Zero-Day-Schwachstelle in SQLite entdeckt

In einer offiziellen Mitteilung vom 1. November 2024 gab Googles Project Zero bekannt, dass das „Big Sleep“-KI-System eine „exploitable stack buffer underflow“ Schwachstelle in SQLite entdeckt habe. Diese Sicherheitslücke, die im Oktober an das Entwicklerteam von SQLite gemeldet wurde, konnte noch vor der offiziellen Veröffentlichung des betroffenen Codes behoben werden. Dadurch konnten mögliche Schäden vermieden werden.

KI und die Zukunft der Fuzzing-Technologie

Traditionell verwenden Sicherheitsforscher sogenannte „Fuzzing“-Techniken, um Sicherheitslücken zu finden. Fuzzing bezieht sich dabei auf das zufällige Einspielen von Daten in eine Software, um Fehler oder Abstürze auszulösen, die auf Schwachstellen hinweisen können. Doch herkömmliches Fuzzing stößt an seine Grenzen und kann nicht alle Schwachstellen aufspüren. Laut dem Big Sleep-Team könnten KI-Systeme wie dieses eine vielversprechende Ergänzung darstellen, indem sie Fehler finden, die Fuzzing allein nicht identifizieren kann. KI könnte dazu beitragen, Schwachstellen frühzeitig zu entdecken — sogar bevor eine Software veröffentlicht wird.

Experimentelle Ergebnisse mit großer Zukunftsperspektive

Obwohl Big Sleep derzeit noch experimentell und nicht umfassender als traditionelle Fuzzing-Methoden ist, sieht Google großes Potenzial für die Zukunft. Durch die Integration der KI-Technologie könnte nicht nur das Auffinden von Sicherheitslücken beschleunigt werden, sondern auch deren Ursachenanalyse und Fehlerbehebung. Dies könnte den Aufwand und die Kosten für Unternehmen erheblich reduzieren und zugleich die Sicherheit verbessern.

Die Kehrseite der KI: Deepfake-Bedrohungen

Während die Entdeckung durch Big Sleep vielversprechend ist, verdeutlicht ein weiterer Bericht des Sicherheitsexperten Davey Winder, dass KI auch erhebliche Risiken birgt. Deepfakes, die mithilfe von KI erstellt werden, stellen eine wachsende Bedrohung für die digitale Sicherheit und das Vertrauen in Medien dar. In den letzten Jahren wurde die Manipulation von Videos und Bildern durch KI-Technologien massiv ausgebaut, und Berichte deuten darauf hin, dass Deepfakes die öffentliche Meinung beeinflussen könnten — insbesondere bei Wahlen und in sozialen Netzwerken.

Laut einer Umfrage von VPNRanks gaben 50 % der Befragten an, bereits mehrfach Deepfake-Videos online gesehen zu haben. 74,3 % äußerten starke Bedenken über die Manipulationsmöglichkeiten von Deepfakes in politischen und sozialen Kontexten. Prognosen für 2025 sagen voraus, dass es weltweit zu etwa 50.000 Deepfake-basierten Identitätsdiebstählen kommen könnte und mehr als 80 % der Wahlen weltweit von Deepfake-Interferenzen betroffen sein könnten, was die Integrität demokratischer Prozesse gefährdet.

Fazit: Chancen und Risiken von KI im Sicherheitsbereich

Googles Big Sleep demonstriert eindrucksvoll, wie KI den Schutz vor Sicherheitslücken verbessern kann und gibt Einblick in eine potenziell sicherere digitale Zukunft. Die Fähigkeit, Zero-Day-Schwachstellen in weit verbreiteter Software frühzeitig zu erkennen und zu beheben, könnte die Sicherheitsstandards von Grund auf neu definieren. Allerdings unterstreichen die Risiken, die durch Deepfakes und andere bösartige KI-Anwendungen entstehen, dass Vorsicht geboten ist. Die Balance zwischen Fortschritt und Sicherheitsbedenken bleibt eine Herausforderung.

Quellen und weiterführende Informationen

Mehr zu Googles bahnbrechendem Projekt und den potenziellen Auswirkungen auf die Cybersicherheit:

Ähnliche Beiträge

Business

Google Veo bald für Cloud-Kunden verfügbar

Google Veo bald für Cloud-Kunden verfügbar Kreativer Fokus: Veo kann 6-sekündige Clips in 1080p erstellen, mit Unterstützung für verschiedene Stile.

Business

AWS Graviton4 und Trainium2: Die Zukunft der Cloud-Chips bringt Power für Claude

AWS stellt Graviton4 und Trainium2 vor: Die Zukunft der Cloud-Chips bringt Power für Claude Graviton4-Prozessoren: Bieten 30 % mehr Rechenleistung,.

Folge uns

Beliebte Artikel

About Author

Maßgeschneiderte KI-Lösungen für Ihr Unternehmen

TechNow ist Ihr strategischer Partner für den erfolgreichen Einsatz von Künstlicher Intelligenz.

Beraten lassen

HOT CATEGORIES

de_DEGerman