Business

Apples WWDC 2025 Foundation Models: Neuer Turbo für On-Device KI-Apps – Das musst du wissen

Apples WWDC 2025 Foundation Models Neuer Turbo für On-Device KI-Apps

Apples WWDC 2025 Foundation Models Neuer Turbo für On-Device KI-Apps

Apples Vorstoß mit Apple Intelligence und den neuen Foundation Models, vorgestellt auf der WWDC 2025, ist weit mehr als ein simples Update. Es ist ein klares Signal: Apple meint es ernst mit KI, direkt auf deinen Geräten und mit einem starken Fokus auf deine Privatsphäre. Für dich als Entwickler eröffnen sich damit spannende Möglichkeiten, intelligente Funktionen nativ, offline-fähig und kosteneffizient in deine Apps zu integrieren. Wir zeigen dir, was die neuen Modelle können, wie du sie nutzt und warum das die Spielregeln für KI-Anwendungen verändern könnte.

Die Kernbotschaft von Apple auf der WWDC 2025 war unmissverständlich: Leistungsstarke KI gehört direkt aufs Gerät, um Nutzdaten optimal zu schützen und gleichzeitig intuitive, schnelle Erlebnisse zu schaffen. Die neuen Foundation Models sind das Herzstück dieser Strategie und stehen dir über ein neues Framework zur Verfügung. Sie ermöglichen Aufgaben wie Textgenerierung, -zusammenfassung und sogar Bildkreation, unterstützt durch optimierte Apple Silicon Chips und ein robustes Datenschutzkonzept namens Private Cloud Compute für komplexere Anfragen.

Das Wichtigste in Kürze – Apple Foundation Models für Entwickler

  • On-Device Power: Apple stellt ein ca. 3 Milliarden Parameter starkes Basismodell bereit, das direkt auf iPhones, iPads und Macs läuft und für Effizienz auf Apple Silicon optimiert ist.
  • Entwickler-Framework: Das neue „Foundation Models Framework“ ermöglicht dir den Zugriff auf diese Modelle, wahrscheinlich ohne direkte Kosten für die On-Device-Nutzung.
  • Privatsphäre im Fokus: Aufgaben werden primär lokal verarbeitet; für komplexere Anfragen kommt „Private Cloud Compute“ zum Einsatz, das Daten verschlüsselt und nicht für Apple einsehbar macht.
  • Vielseitige Funktionen: Die Modelle unterstützen Textverständnis, -generierung, Bildanalyse und -erstellung und sind initial in 15 Sprachen verfügbar.
  • Breite Geräteunterstützung: Benötigt werden aktuelle Geräte wie iPhone 16, iPhone 15 Pro, neuere iPads und Macs mit M1 oder neueren Chips unter iOS 18, iPadOS 18 und macOS Sequoia.

https://kinews24.de/wp-content/uploads/2025/06/Apples-WWDC-2025-Foundation-Models-Neuer-Turbo-fuer-On-Device-KI-Apps.mp4

Die Architektur hinter Apples KI-Offensive

Apples Ansatz für Apple Intelligence basiert auf einer hybriden Architektur. Das Fundament bilden die neuen Foundation Models, die in zwei Hauptvarianten kommen, um eine Balance zwischen On-Device-Effizienz und serverseitiger Power für komplexere Aufgaben zu gewährleisten.

Das On-Device-Modell: Intelligenz direkt auf deinem Chip

Das Herzstück für die meisten Alltagsanwendungen ist ein erstaunlich kompaktes Modell mit rund 3 Milliarden Parametern. Dieses Modell ist speziell für die Ausführung auf Apple Silicon (M-Serie Chips in Macs und iPads, A-Serie in iPhones) optimiert. Laut Apple [1] brilliert es bei Aufgaben wie:

  • Textzusammenfassungen (z.B. von langen E-Mails oder Webseiten)
  • Entitätsextraktion (Erkennen von Namen, Orten, Daten)
  • Textverständnis und -verfeinerung
  • Kurze Dialoge und kreative Textentwürfe
  • Analyse von visuellen Inhalten durch einen Vision Encoder (ViTDet-L mit ca. 300 Mio. Parametern)

Die Fähigkeit, bis zu 65.000 Tokens Kontext zu verarbeiten, macht es robust für längere Interaktionen. Apple betont, dass dieses Modell in Vergleichen, beispielsweise gegen Qwen-2.5-3B, bei englischen Aufgaben in 33,5 % der Fälle gewinnt und in 53,5 % gleichauf liegt [1]. Durch Kompressionstechniken wie 2-bit per weight (bpw) Quantisierung wird die Effizienz weiter gesteigert.

Private Cloud Compute (PCC): Skalierbare KI mit Datenschutzversprechen

Für Aufgaben, die die Kapazitäten des On-Device-Modells übersteigen, hat Apple Private Cloud Compute (PCC) entwickelt [5]. Hier kommt ein größeres Mixture-of-Experts (MoE) Server-Modell zum Einsatz, das ebenfalls einen potenten Vision Encoder (ViT-g mit 1 Milliarde Parametern) für fortgeschrittene Bildanalyse besitzt.

Das Besondere an PCC ist der extreme Fokus auf Datenschutz:

  • Dedizierte Apple Silicon Server: Die Berechnungen laufen auf Servern mit speziellen Apple Chips.
  • Kryptografische Sicherheit: Anfragen werden so verschlüsselt, dass Apple selbst keinen Zugriff auf deine Daten hat. Das System ist so konzipiert, dass nicht einmal geloggt wird, welche Daten verarbeitet werden.
  • Unabhängige Verifizierbarkeit: Apple plant, den Code der PCC-Umgebung für Sicherheitsforscher zugänglich zu machen, um die Datenschutzversprechen transparent zu untermauern.

PCC springt also dann ein, wenn eine Anfrage mehr Rechenleistung oder ein größeres Weltwissen erfordert, als das On-Device-Modell bieten kann. Die Entscheidung, welche Anfrage wohin geleitet wird, trifft das System intelligent im Hintergrund.

Das Foundation Models Framework: Deine Schnittstelle zur Apple KI

Für dich als Entwickler ist das neu eingeführte Foundation Models Framework der Schlüssel [10, 28]. Es abstrahiert die Komplexität der Modellinteraktion und ermöglicht es dir, die KI-Power mit erstaunlich wenig Code in deine Apps zu integrieren.

So einfach integrierst du KI: Swift und das Framework

Apple verspricht, dass du mit nur wenigen Zeilen Swift-Code auf die On-Device-Modelle zugreifen kannst [4]. Das Framework ist tief in Swift und die Apple-Betriebssysteme (iOS 18, iPadOS 18, macOS Sequoia) integriert.

Ein konzeptionelles How-To: Textzusammenfassung in deiner App (Beispiel)

  1. Framework importieren: Binde das FoundationModels Framework in dein Xcode-Projekt ein.// import FoundationModels // (Illustrativ)content_copydownloadUse code with caution.Swift
  2. Modellanfrage erstellen: Definiere den Eingabetext und die gewünschte Aktion (z.B. Zusammenfassung).// let textToSummarize = "Dein langer Artikeltext hier..." // let summarizationRequest = SummarizationTask(text: textToSummarize) // (Illustrativ)content_copydownloadUse code with caution.Swift
  3. Anfrage ausführen und Ergebnis verarbeiten: Sende die Anfrage an das Modell und erhalte das Ergebnis asynchron.// ModelExecutor.shared.perform(summarizationRequest) { result in // (Illustrativ) // switch result { // case .success(let summary): // // Zeige die Zusammenfassung in deiner UI an // print(summary.text) // case .failure(let error): // // Handle den Fehler // print("Fehler bei der Zusammenfassung: \(error)") // } // }content_copydownloadUse code with caution.SwiftHinweis: Die exakten API-Bezeichnungen können variieren, dies dient der Veranschaulichung des Prinzips.

Mehr als nur Text: Guided Generation und Tool Calling

Zwei besonders mächtige Werkzeuge im Framework sind „Guided Generation“ und „Tool Calling“ [11]:

  • Guided Generation: Du kannst dem Modell per Swift-Strukturen (struct oder enum mit dem @Generable Makro) vorgeben, in welchem Format es antworten soll. Das System stellt dann sicher, dass die Ausgabe diesem Schema entspricht. Das ist extrem nützlich, wenn du strukturierte Daten wie JSON oder spezifische Objektformate erwartest.
  • Tool Calling: Deine App kann dem Modell „Werkzeuge“ (eigene Swift-Funktionen oder APIs) zur Verfügung stellen. Das Modell kann dann intelligent entscheiden, wann es welches Werkzeug nutzen muss, um eine Aufgabe zu lösen (z.B. aktuelle Wetterdaten abrufen oder eine Kalenderbuchung vornehmen). Das Framework managt dabei auch komplexe, parallele oder serielle Aufrufe dieser Tools.

Feinabstimmung mit Adaptern

Für sehr spezifische Anwendungsfälle, bei denen das Basismodell an seine Grenzen stößt, bietet Apple die Möglichkeit, Adapter zu trainieren [11]. Mit einem Python-Toolkit kannst du LoRA-Adapter (Rank 32) erstellen, die dem Modell neue Fähigkeiten oder Domänenwissen beibringen. Diese Adapter sind dann mit dem Foundation Models Framework kompatibel. Beachte jedoch, dass Adapter mit jeder neuen Basismodell-Version neu trainiert werden müssen.

Laut Apple Research [11] ermöglichen diese Techniken eine tiefe Integration von KI, die weit über einfache Chatbot-Funktionalitäten hinausgeht und maßgeschneiderte, intelligente Lösungen für spezifische App-Anforderungen schafft.

Anwendungsfälle: Wie du und deine Nutzer profitieren

Die neuen Modelle und das Framework eröffnen eine Fülle von Anwendungsmöglichkeiten. Unternehmen wie Automattic (Day One Journaling-App) und AllTrails (Wander-App) nutzen das Framework bereits, um privatsphärefreundliche, intelligente Funktionen zu implementieren, die auch offline funktionieren [4].

Stell dir vor:

  • Eine Lern-App, die personalisierte Quizfragen aus den Notizen des Nutzers generiert – ohne Cloud-Verbindung [4, 17].
  • Eine Outdoor-Navigations-App, die auch ohne Netzempfang semantische Suchen nach Routen oder Sehenswürdigkeiten erlaubt [4].
  • Eine Produktivitäts-App, die E-Mail-Entwürfe basierend auf Stichpunkten vorschlägt oder Meetings intelligent zusammenfasst.

Leistungsfähigkeit und Sprachunterstützung im Überblick

Apple legt Wert darauf, dass seine Modelle nicht nur intelligent, sondern auch schnell und effizient sind. Die On-Device-Modelle sind für die Apple Silicon Architektur optimiert, was kurze Latenzzeiten verspricht. In Vergleichen mit anderen Modellen ähnlicher Größe zeigen Apples On-Device-Lösungen eine konkurrenzfähige Performance, insbesondere bei englischsprachigen Aufgaben und in der Bildverarbeitung [1]. Das Server-Modell für PCC zielt auf Aufgaben, bei denen Genauigkeit und Skalierbarkeit wichtiger sind als Millisekunden-Latenz und tritt hier gegen Modelle wie GPT-4o an, wobei es laut Apple bei englischen Aufgaben in 64 % der Fälle gleichauf liegt [1].

Initial unterstützen die Foundation Models 15 Sprachen, darunter Englisch, Deutsch, Französisch, Spanisch, Italienisch, Japanisch, Koreanisch und vereinfachtes Chinesisch. Bis Ende des Jahres 2025 sollen weitere Sprachen wie Dänisch, Niederländisch, Norwegisch, Schwedisch und Türkisch hinzukommen [4].

Kosten: Was kommt auf Entwickler zu?

Eine der spannendsten Nachrichten für Entwickler: Die Nutzung der On-Device Foundation Models über das Framework scheint kostenlos zu sein [4, 17]. Das eliminiert die oft hohen und unkalkulierbaren API-Kosten, die bei Cloud-basierten KI-Diensten anfallen. Dies könnte die Hemmschwelle für die Integration von KI-Funktionen drastisch senken.

Ob Apple in Zukunft für bestimmte Premium-Funktionen oder für die Nutzung von Private Cloud Compute (PCC) Gebühren erheben wird, ist noch unklar. Analysten spekulieren, dass erweiterte Apple Intelligence Features langfristig Teil eines Abonnements werden könnten, ähnlich wie bei ChatGPT Plus oder Microsoft Copilot, mit Preisen zwischen 10 und 20 US-Dollar pro Monat [6, 14]. Für den Moment bedeutet es jedoch: Du kannst mit On-Device KI experimentieren und sie in deine Apps bringen, ohne direkt dein Budget zu belasten.

Geräteanforderungen und Verfügbarkeit

Um Apple Intelligence und die Foundation Models nutzen zu können, benötigen Nutzer und Entwickler kompatible Hardware und Software:

  • Geräte: iPhone 16 Modelle, iPhone 15 Pro, iPhone 15 Pro Max. iPads und Macs mit M1 Chip oder neuer.
  • Software: iOS 18, iPadOS 18 oder macOS Sequoia.
  • Einstellungen: Apple Intelligence muss aktiviert und die Gerätesprache auf eine der unterstützten Sprachen eingestellt sein (z.B. Englisch (US) oder Deutsch).

Für Entwickler steht das Foundation Models Framework seit der WWDC 2025 über das Apple Developer Program zum Testen bereit (developer.apple.com). Eine öffentliche Beta für Nutzer ist für Juli 2025 geplant (beta.apple.com) [4].

Häufig gestellte Fragen – Apples Foundation Models

Was genau sind Apples Foundation Models?
Das sind neue Basis-KI-Modelle (Sprach- und Bildmodelle), die Apple im Rahmen von Apple Intelligence auf der WWDC 2025 vorgestellt hat. Sie ermöglichen eine Vielzahl von KI-Funktionen direkt auf dem Gerät oder über Private Cloud Compute und legen einen starken Fokus auf Datenschutz.

Wie können Entwickler diese Modelle nutzen?
Über das neue „Foundation Models Framework“ können Entwickler mit Swift auf die Modelle zugreifen, um intelligente Funktionen wie Texterstellung, -zusammenfassung und Bildanalyse in ihre Apps für iOS 18, iPadOS 18 und macOS Sequoia zu integrieren.

Sind Apples Foundation Models für Entwickler kostenlos?
Die Nutzung der On-Device-Modelle über das Framework ist nach derzeitigem Stand kostenlos für Entwickler. Ob für zukünftige Premium-Funktionen oder intensive PCC-Nutzung Kosten anfallen, ist noch nicht bekannt.

Welche Geräte und Betriebssysteme unterstützen Apple Intelligence?
Benötigt werden iPhone 16, iPhone 15 Pro/Pro Max, iPads und Macs mit M1-Chip oder neuer. Als Betriebssysteme sind iOS 18, iPadOS 18 und macOS Sequoia Voraussetzung, und die Gerätesprache muss eine der unterstützten sein.

Wie gewährleistet Apple den Datenschutz bei seinen KI-Modellen?
Der Großteil der Verarbeitung findet on-device statt. Für komplexere Anfragen kommt Private Cloud Compute (PCC) zum Einsatz, eine speziell abgesicherte Server-Infrastruktur mit Apple Silicon, die Daten so verarbeitet, dass Apple selbst keinen Zugriff darauf hat und keine Nutzerdaten gespeichert werden.

Fazit: Apples KI-Strategie – Eine neue Ära für Entwickler und Nutzer?

Apples Einführung der Foundation Models und des dazugehörigen Entwickler-Frameworks ist ein strategisch kluger Schachzug. Indem Apple leistungsstarke KI-Funktionen direkt auf die Geräte bringt und Entwicklern einen (scheinbar) kostenlosen Zugang ermöglicht, senkt es die Hürden für KI-Integration erheblich. Der Fokus auf Privatsphäre mit On-Device-Verarbeitung und dem innovativen Private Cloud Compute könnte zum entscheidenden Differenzierungsmerkmal gegenüber anderen KI-Anbietern werden.

Für dich als Entwickler bedeutet das eine enorme Chance: Du kannst anspruchsvolle, intelligente und gleichzeitig datenschutzfreundliche Anwendungen erstellen, die das Nutzererlebnis auf ein neues Level heben – ohne die Sorge vor explodierenden API-Kosten oder komplexer Cloud-Infrastruktur. Die tiefe Integration in Swift und die Apple-Betriebssysteme verspricht eine vergleichsweise einfache Implementierung.

Es bleibt abzuwarten, wie schnell sich die neuen Möglichkeiten in der Breite durchsetzen und welche innovativen Anwendungen daraus entstehen werden. Die Apples Foundation Models haben jedoch das Potenzial, die Art und Weise, wie wir mit unseren Geräten interagieren und wie Apps gestaltet werden, nachhaltig zu prägen. Die Zukunft der KI im Apple-Ökosystem hat gerade erst begonnen – und du kannst ein Teil davon sein.


www.KINEWS24-academy.de – KI. Direkt. Verständlich. Anwendbar.


Quellen

  1. Apple (2025). Introducing Apple Foundation Models (2025 Update). Apple Machine Learning Research. Verfügbar unter: https://machinelearning.apple.com/research/apple-foundation-models-2025-updates 
  2. Apple Newsroom (2025). Apple Intelligence gets even more powerful with new capabilities across Apple devices. Verfügbar unter: https://www.apple.com/newsroom/2025/06/apple-intelligence-gets-even-more-powerful-with-new-capabilities-across-apple-devices/ 
  3. Apple Security Blog (2024/2025). Private Cloud Compute: A new frontier for AI privacy in the cloud. Verfügbar unter: https://security.apple.com/blog/private-cloud-compute/ 
  4. Apple Developer (2025). Foundation Models Framework. Verfügbar unter: https://developer.apple.com/documentation/foundationmodels 
  5. TechCrunch (2025). Apple lets developers tap into its offline AI models. Verfügbar unter: https://techcrunch.com/2025/06/09/apple-lets-developers-tap-into-its-offline-ai-models/ 
  6. MacRumors (2025). Foundation Models Framework Lets Developers Tap Into Apple Intelligence With Just a Few Lines of Code. Verfügbar unter: https://www.macrumors.com/2025/06/09/foundation-models-framework/
  7. Mashable (2024). Apple Intelligence could cost you a monthly subscription, analysts predict. Verfügbar unter: https://mashable.com/article/apple-intelligence-paid-subscription-analysts-predict-cost 


#AppleIntelligence #FoundationModels #OnDeviceAI #WWDC2025 #SwiftDev #KI #AI #AppleKI

Exit mobile version