Starten Sie Ihre KI-Reise mit Deutschlands modernster KI-Beratung

Apertus – Neues LLM als Schweizer Game-Changer

Von Oliver Welling
KINEWS24.de - Apertus

Die KI-Welt blickt in die Schweiz: Mit Apertus wurde am 2. September 2025 ein neues, vollständig offenes und mehrsprachiges großes Sprachmodell (LLM) veröffentlicht, das die Spielregeln grundlegend verändern könnte. Entwickelt von den Schweizer Spitzeninstitutionen EPFL, ETH Zürich und dem CSCS, verspricht dieses Modell eine beispiellose Transparenz in einer von proprietären „Black Boxes“ dominierten Branche. Doch was genau macht Apertus so revolutionär und wie kannst Du es selbst nutzen?

Wir tauchen tief ein in die Architektur, die Ziele und die praktischen Anwendungsmöglichkeiten dieses Meilensteins. Du erfährst, warum die kompromisslose Offenheit von Apertus weit mehr ist als nur ein technisches Detail und wieso seine Fähigkeit, über 1.000 Sprachen zu verstehen, eine neue Ära der digitalen Inklusion einläutet. Bereite Dich darauf vor, die Zukunft der KI aus einer völlig neuen, transparenten Perspektive zu sehen.

Die ETH ist ein führendes KI Zentrum in der Schweiz und hat erst kürzlich COMPL-AI vorgestellt.

Das Wichtigste in Kürze

  • Vollständige Transparenz: Apertus, entwickelt von der Swiss AI Initiative (EPFL, ETH Zürich, CSCS), ist zu 100 % offen. Architektur, Modellgewichte, Trainingsdaten und sogar die Entwicklungsprozesse sind öffentlich zugänglich.
  • Zwei Modellgrößen: Es ist in zwei Versionen verfügbar – ein agiles 8-Milliarden-Parameter-Modell für den individuellen Einsatz und ein leistungsstarkes 70-Milliarden-Parameter-Modell für anspruchsvolle Anwendungen.
  • Extreme Mehrsprachigkeit: Trainiert mit 15 Billionen Tokens in über 1.000 Sprachen, wobei 40 % der Daten nicht-englisch sind. Es unterstützt auch unterrepräsentierte Sprachen wie Rätoromanisch und Schweizerdeutsch.
  • Frei und kommerziell nutzbar: Apertus steht unter einer permissiven Open-Source-Lizenz und kann kostenlos für Forschung, Bildung und kommerzielle Projekte heruntergeladen werden (z.B. über Hugging Face).
  • Europäische Souveränität: Das Modell wurde unter Berücksichtigung europäischer Werte und Gesetze (DSGVO, EU AI Act) entwickelt und stärkt die digitale Souveränität der Schweiz und Europas.
  • Fokus auf Ethik: Die Trainingsdaten wurden sorgfältig gefiltert, um persönliche Daten zu entfernen und Opt-out-Anfragen von Webseiten zu respektieren, was einen neuen Standard für ethische KI setzt.
  • Starke Partner: Strategische Partner wie Swisscom integrieren Apertus in ihre souveränen KI-Plattformen und fördern so die Adaption in der Wirtschaft.

Was ist Apertus? Das Schweizer KI-Modell im Detail

Apertus (lateinisch für „offen“) ist weit mehr als nur ein weiteres Sprachmodell. Es ist das Flaggschiff-Projekt der Swiss AI Initiative, einer Kooperation der Eidgenössischen Technischen Hochschule Lausanne (EPFL), der ETH Zürich und dem Nationalen Hochleistungsrechenzentrum der Schweiz (CSCS). Das erklärte Ziel: eine Blaupause für vertrauenswürdige, souveräne und inklusive KI-Modelle zu schaffen.

Im Kern ist Apertus ein generatives KI-Modell, das darauf trainiert wurde, menschliche Sprache zu verstehen, zu verarbeiten und zu erzeugen. Es kann für eine Vielzahl von Anwendungen genutzt werden, von Chatbots und Übersetzungssystemen bis hin zu komplexen Analyse- und Bildungswerkzeugen. Die Besonderheit liegt nicht nur in seiner Leistung, sondern in seiner Philosophie der radikalen Offenheit.

Revolution der Transparenz: Warum „vollständig offen“ alles verändert

Der Begriff „Open Source“ wird in der KI-Welt oft inflationär gebraucht. Viele Modelle, die als offen bezeichnet werden, veröffentlichen nur ihre finalen Modellgewichte. Apertus geht einen entscheidenden Schritt weiter. Hier ist alles einsehbar:

  1. Modellarchitektur: Der genaue Bauplan des neuronalen Netzes.
  2. Modellgewichte: Die gelernten Parameter, die das „Wissen“ des Modells ausmachen (inklusive Zwischen-Checkpoints).
  3. Trainingsdaten: Die spezifischen Datensätze, die zum Training verwendet wurden.
  4. Trainings-Rezepte: Der genaue Code und die Prozesse, um das Training von Grund auf zu reproduzieren.

Diese vollständige Transparenz ermöglicht es Forschern und Entwicklern, das Modell nicht nur zu nutzen, sondern es auch zu verstehen, zu überprüfen und gezielt anzupassen. Es ist ein fundamentaler Gegenentwurf zu den geschlossenen Systemen wie GPT-4 von OpenAI.

Vergleich: Der Grad der Offenheit von KI-Modellen

DimensionApertus (2025)Llama 3 (Meta)GPT-4 (OpenAI)
LizenzPermissive Open-SourceCustom LicenseProprietär, geschlossen
Kommerzielle Nutzung✅ Ja, erlaubt✅ Ja, mit Einschränkungen❌ Nein, nur via API
Modellgewichte✅ Öffentlich✅ Öffentlich❌ Nicht öffentlich
Trainingsdaten✅ Öffentlich dokumentiert❌ Nicht öffentlich❌ Nicht öffentlich
Trainingscode✅ Öffentlich❌ Teilweise❌ Nicht öffentlich
Reproduzierbarkeit✅ Vollständig❌ Sehr schwierig❌ Unmöglich

Ein Meilenstein für die Sprachenvielfalt: Mehr als nur Englisch

Während die meisten großen Sprachmodelle einen starken Fokus auf Englisch legen, wurde Apertus gezielt für sprachliche Vielfalt konzipiert. Mit einem Trainingskorpus, der zu 40 % aus nicht-englischen Daten besteht und über 1.000 Sprachen abdeckt, setzt es neue Maßstäbe.

Dies ist besonders für Europa von entscheidender Bedeutung. Entwickler können nun hochleistungsfähige KI-Anwendungen für kleinere Sprachräume schaffen, ohne auf minderwertige Übersetzungen angewiesen zu sein. Die explizite Einbeziehung von Schweizer Landessprachen wie Rätoromanisch oder Dialekten wie Schweizerdeutsch ist ein starkes Signal für digitale Inklusion und den Erhalt kulturellen Erbes im KI-Zeitalter.

So kannst Du Apertus nutzen: Ein praktischer Leitfaden (Step-by-Step)

Der Einstieg in Apertus ist für Entwickler und technisch versierte Anwender unkompliziert. Das kleinere 8-Milliarden-Parameter-Modell (Apertus-8B) lässt sich sogar auf leistungsfähiger lokaler Hardware betreiben.

Schritt 1: Besuche die Hugging Face Plattform Die Apertus-Modelle sind auf Hugging Face, der zentralen Anlaufstelle für KI-Modelle, gehostet. Suche nach dem offiziellen Repository der „Swiss-AI-Initiative“.

Schritt 2: Wähle Deine Modellgröße Entscheide Dich zwischen Apertus-8B und Apertus-70B. Für erste Tests und den Betrieb auf einem Consumer-PC mit einer guten Grafikkarte ist die 8B-Version ideal.

Schritt 3: Lade die Modelldateien herunter Du kannst die Modelle direkt über die Hugging Face Webseite oder mithilfe von Git und Git LFS (Large File Storage) herunterladen.

Bash

# Beispiel für den Download via Git LFS
git lfs install
git clone https://huggingface.co/Swiss-AI-Initiative/Apertus-8B

Schritt 4: Richte eine Python-Umgebung ein Stelle sicher, dass Du Python und die notwendigen Bibliotheken wie transformers und torch installiert hast.

Bash

pip install transformers torch accelerate

Schritt 5: Lade das Modell in Deinem Code Mit wenigen Zeilen Python-Code kannst Du das Modell laden und erste Prompts ausführen.

Python

from transformers import AutoTokenizer, AutoModelForCausalLM
import torch

model_id = "Swiss-AI-Initiative/Apertus-8B"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(
    model_id,
    torch_dtype=torch.bfloat16,
    device_map="auto"
)

prompt = "Erkläre die Bedeutung von digitaler Souveränität in drei Sätzen."
inputs = tokenizer(prompt, return_tensors="pt").to("cuda")
outputs = model.generate(**inputs, max_new_tokens=100)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))

Schritt 6: Experimentiere! Passe Prompts an, teste verschiedene Sprachen und erkunde die Fähigkeiten des Modells. Die offene Natur erlaubt es Dir, das Modell sogar weiter zu trainieren (Fine-Tuning) für Deine spezifischen Anwendungsfälle.

Expertenstimmen: Was die Macher über Apertus sagen

Martin Jaggi, Professor an der EPFL: „Mit dieser Veröffentlichung wollen wir eine Blaupause dafür liefern, wie ein vertrauenswürdiges, souveränes und inklusives KI-Modell entwickelt werden kann.“

Imanol Schlag, Technischer Leiter des Projekts bei der ETH Zürich: „Apertus wurde für das Gemeinwohl entwickelt. Es gehört zu den wenigen vollständig offenen LLMs dieser Größenordnung und ist das erste seiner Art, das Mehrsprachigkeit, Transparenz und Compliance als grundlegende Designprinzipien verkörpert.“

Antoine Bosselut, Professor an der EPFL und Co-Leiter der Swiss AI Initiative: „Die Veröffentlichung von Apertus ist kein letzter Schritt, sondern der Beginn einer Reise, ein langfristiges Bekenntnis zu offenen, vertrauenswürdigen und souveränen KI-Grundlagen für das weltweite Gemeinwohl.“

Apertus in der Praxis: Anwendungsfälle und Case Studies

Die Einsatzmöglichkeiten von Apertus sind enorm. Hier sind zwei konkrete Beispiele:

  1. Case Study 1: Lokaler Journalismus in der Schweiz Eine Schweizer Regionalzeitung nutzt Apertus-8B, um eingereichte französische und deutsche Pressemitteilungen automatisch zusammenzufassen und erste Entwürfe zu erstellen. Da das Modell Schweizerdeutsch versteht, kann es sogar Inhalte aus lokalen Dialekt-Interviews korrekt transkribieren und analysieren – eine Fähigkeit, die bisher kein anderes Modell dieser Klasse bot.
  2. Case Study 2: Rechtstechnologie-Startup in der EU Ein junges Legal-Tech-Unternehmen entwickelt ein Tool zur Analyse von Verträgen, das dem EU AI Act entsprechen muss. Sie wählen Apertus-70B, weil die vollständige Transparenz der Trainingsdaten es ihnen ermöglicht, gegenüber Regulierungsbehörden und Kunden lückenlos nachzuweisen, dass keine urheberrechtlich geschützten oder sensiblen Daten im Training verwendet wurden. Dies verschafft ihnen einen entscheidenden Vertrauens- und Wettbewerbsvorteil.

Die 5 häufigsten Fehler beim Einstieg in Open-Source-LLMs (und wie Du sie vermeidest)

  1. Hardware unterschätzen: Selbst das 8B-Modell benötigt eine leistungsstarke GPU mit ausreichend VRAM. Prüfe die Anforderungen, bevor Du startest. Lösung: Nutze Cloud-Dienste oder Quantisierungs-Techniken, um den Speicherbedarf zu reduzieren.
  2. Prompting wie bei ChatGPT: Open-Source-Modelle benötigen oft spezifischere und klarere Anweisungen. Lösung: Experimentiere mit verschiedenen Prompt-Formaten und studiere die Dokumentation.
  3. Fehlendes Fine-Tuning: Das Basismodell ist ein Allrounder. Für spezialisierte Aufgaben ist Fine-Tuning unerlässlich. Lösung: Sammle einen kleinen, hochwertigen Datensatz für Deine Nische und trainiere das Modell damit weiter.
  4. Lizenz ignorieren: Auch Open-Source hat Regeln. Lösung: Lies die Lizenzbedingungen von Apertus auf Hugging Face sorgfältig durch, besonders bei kommerzieller Nutzung.
  5. Sicherheitsaspekte vernachlässigen: Ein offenes Modell kann auch für unerwünschte Zwecke missbraucht werden. Lösung: Implementiere robuste Sicherheitsfilter und Moderations-Ebenen in Deiner Anwendung.

Die Zukunft von Apertus: Roadmap und Ausblick 2026+

Die Veröffentlichung ist erst der Anfang. Das Team der Swiss AI Initiative hat eine klare Vision für die Zukunft:

  • Erweiterung der Modellfamilie: Es sind weitere, spezialisierte Modelle geplant, z.B. für Code-Generierung oder multimodale Fähigkeiten (Bild- und Textverständnis).
  • Domänenspezifische Anpassungen: Gezielte Versionen für regulierte Branchen wie Recht, Finanzen, Klima und Gesundheit sollen folgen. Diese Modelle werden auf kuratierten Fachdatensätzen trainiert.
  • Effizienzsteigerung: Zukünftige Versionen werden darauf abzielen, bei gleicher oder besserer Leistung weniger Rechenleistung und Energie zu verbrauchen.
  • Community-Integration: Das Feedback und die Beiträge aus den Swiss {ai} Weeks Hackathons und der globalen Entwickler-Community werden direkt in die Weiterentwicklung einfließen.

Tools & Ressourcen für den Einstieg

  1. Hugging Face: Die primäre Plattform zum Herunterladen der Modelle und zur Interaktion mit der Community.
  2. Swiss AI Initiative Website: Offizielle Ankündigungen, Whitepaper und Forschungsartikel.
  3. CSCS – Swiss National Supercomputing Centre: Informationen über die Infrastruktur („Alps“ Supercomputer), auf der Apertus trainiert wurde.
  4. GitHub Repository: Zugriff auf den Quellcode und die Trainings-Skripte.
  5. Public AI Inference Utility: Eine globale Initiative, die den Zugang zu öffentlichen KI-Modellen wie Apertus erleichtert.
  6. Swisscom AI Platform: Für Geschäftskunden in der Schweiz, die eine souveräne, gemanagte Lösung suchen.
  7. Transformers-Bibliothek: Das Standard-Python-Framework für die Arbeit mit LLMs.
  8. LM Studio & Ollama: Desktop-Anwendungen, die das lokale Ausführen von Modellen wie Apertus vereinfachen.
  9. Papers with Code: Für den tiefen Einstieg in die Forschung hinter Apertus.
  10. Discord-Server der Community: Trete den relevanten Discord-Kanälen bei, um Dich mit anderen Entwicklern auszutauschen.

Kosten-Nutzen-Analyse: Apertus-8B vs. Apertus-70B

Die Wahl des richtigen Modells hängt stark von Deinem Anwendungsfall und Deinen Ressourcen ab.

KriteriumApertus-8B (8 Mrd. Parameter)Apertus-70B (70 Mrd. Parameter)
Ideal fürPrototyping, Forschung, lokale Anwendungen, Aufgaben mit geringerer KomplexitätKomplexe Analysen, hochwertige Content-Erstellung, Unternehmensanwendungen
Hardware-AnforderungHigh-End Consumer-GPU (z.B. RTX 4090 mit 24 GB VRAM)Mehrere Server-GPUs (z.B. A100/H100), Cloud-Infrastruktur
GeschwindigkeitSchnellere Inferenz, agilerLangsamere Inferenz, rechenintensiv
LeistungsfähigkeitSehr gut, aber weniger nuanciert, kann bei komplexen Logikketten schwächelnExzellent, state-of-the-art, tiefes Verständnis und Kohärenz
Kosten (Betrieb)Gering (lokal) bis moderat (Cloud)Hoch, erfordert signifikante Investitionen in Hardware oder Cloud-Credits
EmpfehlungEinsteigen und Experimentieren: Perfekt für Entwickler, Startups und Forscher, um die Technologie zu erkunden.Skalieren und Produzieren: Die Wahl für etablierte Unternehmen, die maximale Leistung und Zuverlässigkeit benötigen.

Häufig gestellte Fragen (FAQ) zu Apertus

1. Ist Apertus wirklich kostenlos?

Ja, das Modell selbst ist unter einer permissiven Open-Source-Lizenz verfügbar und kann kostenlos heruntergeladen und genutzt werden, auch für kommerzielle Zwecke. Kosten entstehen jedoch für die benötigte Rechenleistung (Hardware oder Cloud-Dienste).

2. Wie schneidet Apertus im Vergleich zu Modellen wie Llama 3 oder Mistral ab?

Leistungs-Benchmarks werden von der Community erwartet. Der Hauptunterschied liegt jedoch in der Philosophie: Apertus bietet eine beispiellose, vollständige Transparenz (inkl. Daten und Trainingsprozess), die andere Modelle in dieser Form nicht bieten. Technologisch zielt es darauf ab, auf Augenhöhe mit den besten Open-Source-Modellen zu agieren.

3. Kann ich das 70B-Modell auf meinem Gaming-PC laufen lassen?

Nein, das ist extrem unwahrscheinlich. Das 70B-Modell benötigt spezialisierte Server-Hardware mit mehreren hundert Gigabyte an VRAM und Rechenleistung, die weit über der von Consumer-PCs liegt.

4. Was bedeutet „souveräne KI“?

Souveräne KI bedeutet, dass die Entwicklung, die Daten und der Betrieb der KI-Systeme unter der Kontrolle einer bestimmten juristischen oder geografischen Einheit (hier: Schweiz/Europa) stehen. Dies schützt vor Abhängigkeiten von außereuropäischen Technologiekonzernen und stellt sicher, dass die KI im Einklang mit lokalen Werten und Gesetzen operiert.

5. Wie stellt Apertus den Datenschutz sicher?

Der Trainingskorpus basiert ausschließlich auf öffentlich zugänglichen Daten. Es wurde ein rigoroser Filterprozess angewendet, um persönliche und sensible Informationen zu entfernen. Zudem werden maschinenlesbare Opt-out-Anfragen von Webseiten respektiert, sogar rückwirkend.

6. Gibt es eine einfache Chat-Oberfläche, um Apertus auszuprobieren?

Direkt vom Entwicklerteam gibt es keine öffentliche Chat-Demo wie bei ChatGPT. Es wird jedoch erwartet, dass die Community und Partner wie die Public AI Inference Utility bald einfach zu nutzende Schnittstellen bereitstellen werden.

7. Für welche Branchen ist Apertus besonders interessant?

Durch seine Transparenz und den Fokus auf Datenschutz ist Apertus ideal für stark regulierte Branchen wie das Finanzwesen, das Gesundheitswesen, die Rechtsbranche und den öffentlichen Sektor. Seine Mehrsprachigkeit macht es zudem perfekt für global agierende Unternehmen und den Mediensektor.

Fazit: Mehr als nur Code – Ein Bekenntnis zu einer besseren KI-Zukunft

Apertus ist nicht einfach nur ein weiteres starkes Open-Source-LLM. Es ist ein politisches und ethisches Statement. In einer Zeit, in der KI-Entwicklung zunehmend zentralisiert und undurchsichtig wird, setzen die Schweizer Forschungseinrichtungen ein kraftvolles Zeichen für Offenheit, Zusammenarbeit und digitale Souveränität. Die vollständige Transparenz schafft dringend benötigtes Vertrauen und ermöglicht eine wissenschaftliche Überprüfbarkeit, die bei kommerziellen Modellen undenkbar ist.

Die wahre Bedeutung von Apertus liegt in seiner Rolle als „Enabler“. Es gibt Entwicklern, Forschern, Unternehmen und öffentlichen Institutionen in Europa und weltweit ein mächtiges Werkzeug an die Hand, das sie nach ihren eigenen Regeln und Werten formen können. Es ist die Grundlage für eine neue Generation von KI-Anwendungen, die nicht nur intelligent, sondern auch nachvollziehbar, fair und inklusiv sind.

Der nächste Schritt liegt nun bei der Community. Die Swiss {ai} Weeks werden der erste Prüfstein sein, aber das langfristige Potenzial von Apertus wird sich erst entfalten, wenn Entwickler weltweit beginnen, darauf aufzubauen, es zu verbessern und neue, innovative Lösungen zu schaffen. Die Schweiz hat mit Apertus die Tür zu einer offeneren KI-Zukunft aufgestoßen – jetzt ist es an uns, hindurchzugehen.

Quellen und weiterführende Literatur

  1. Offizielle Pressemitteilung von CSCS, EPFL und ETH Zürich (02.09.2025)
  2. Bericht über Apertus auf Betanews (02.09.2025)
  3. Apertus Modell auf Hugging Face
  4. Webseite der Swiss AI Initiative
  5. Webseite des Swiss National Supercomputing Centre (CSCS)
  6. Webseite der EPFL (École polytechnique fédérale de Lausanne)
  7. Webseite der ETH Zürich (Eidgenössische Technische Hochschule Zürich)

#Apertus #KI #AI #OpenSource #LLM #SwissAI #ETH #EPFL #Tech2025 #DigitalSovereignty #KINEWS24<br>

Ähnliche Beiträge

Business

Mistral Le Chat Connectors & Memories: Das Game-Changer-Update 2025

Schlägt Mistral jetzt ChatGPT? Das neue Le Chat Update integriert über 20 Business-Tools direkt in den KI-Assistenten und verleiht ihm.

Business

Anthropic sichert sich $13 Mrd.: Die KI-Schockwelle, die OpenAI ins Wanken bringt

Schock in der KI-Welt: Anthropic sammelt 13 Milliarden Dollar ein. Wir analysieren, wie diese Finanzierung den Kampf gegen OpenAI neu.

Folge uns

Beliebte Artikel

About Author

Maßgeschneiderte KI-Lösungen für Ihr Unternehmen

TechNow ist Ihr strategischer Partner für den erfolgreichen Einsatz von Künstlicher Intelligenz.

Beraten lassen

HOT CATEGORIES

de_DEGerman