Starten Sie Ihre KI-Reise mit Deutschlands modernster KI-Beratung

JetBrains Mellum 2025: Das neue KI Code Tool Focal Model erklärt – Was Du wissen musst!

BY Oliver Welling
KINEWS24.de - JetBrains Mellum 2025

JetBrains, ein Name, der in der Welt der Softwareentwicklung für leistungsstarke IDEs und Entwicklerwerkzeuge steht, hat mit JetBrains Mellum einen spannenden Schritt in die Arena der KI-gestützten Code-Assistenten gemacht. Dieses KI-Modell ist mehr als nur ein weiteres Tool; es repräsentiert eine strategische Entscheidung, sich bei Kernfunktionen wie der Code-Vervollständigung auf spezialisierte, hauseigene Technologie zu verlassen, anstatt ausschließlich auf allgemeine Large Language Models (LLMs) von Drittanbietern zu setzen. Mellum wurde von Grund auf entwickelt, um Entwickler*innen präzise, schnelle und kontextbezogene Code-Vorschläge direkt in ihrer vertrauten JetBrains-Umgebung zu liefern.

Die Einführung von Mellum, zunächst im Oktober 2024 als Teil des kostenpflichtigen AI Assistant Pro und später im April 2025 als Open-Source-Basismodell, signalisiert JetBrains‘ Engagement für Innovation im Bereich der KI für Softwareentwicklung. Es positioniert sich als sogenanntes „Focal Model“ – eine KI, die auf eine spezifische Aufgabe, hier die Code-Vervollständigung, hochoptimiert ist, statt ein breites Spektrum an Fähigkeiten abzudecken. Dieser Ansatz verspricht deutliche Vorteile in Bezug auf Geschwindigkeit, Relevanz und Effizienz.

Doch was genau steckt hinter Mellum? Wie funktioniert es, welche Versionen gibt es, und was bedeutet das für dich als Entwickler*in? Dieser Artikel analysiert die Welt von JetBrains Mellum, erkundet die Technologie, beleuchtet die verschiedenen Einsatzmöglichkeiten – von der Open-Source-Forschung über die Cloud-Integration bis hin zur On-Premise-Lösung für Unternehmen – und gibt dir einen umfassenden Überblick über Leistung, Kosten und die aktuelle Diskussion in der Community. Bereite dich darauf vor, alles Wichtige über dieses spezialisierte KI-Werkzeug zu erfahren.

Das musst Du wissen – JetBrains Mellum auf den Punkt gebracht

  • Focal Model Philosophie: Mellum ist kein Alleskönner-LLM, sondern eine spezialisierte KI („Focal Model“), die für die KI Code-Vervollständigung optimiert ist, um höhere Geschwindigkeit und Präzision zu erreichen.
  • Drei Varianten: Es existiert als Open-Source-Basismodell (Mellum-4b-base) für Forscher, als Cloud-Integration im kostenpflichtigen JetBrains AI Assistant Pro und als On-Premise-Lösung für Unternehmen über IDE Services.
  • Leistung & Effizienz: Die Cloud-Version zeigt deutliche Verbesserungen bei Latenz, Akzeptanzrate und Abbruchrate von Code-Vorschlägen; die Open-Source-Version benötigt Feinabstimmung für optimale Ergebnisse.
  • Technische Basis: Das Open-Source-Modell hat 4 Milliarden Parameter, eine LLaMA-ähnliche Architektur, wurde auf ~4,2 Billionen Tokens trainiert und hat ein 8.192-Token-Kontextfenster.
  • Strategische Bedeutung: Mellum ist der erste Baustein einer geplanten Familie von spezialisierten KI-Modellen von JetBrains für verschiedene Entwicklungsaufgaben.

Was ist JetBrains Mellum? Die Philosophie des „Focal Model“

JetBrains positioniert Mellum bewusst nicht als weiteres generisches Large Language Model (LLM), sondern als „Focal Model“. Diese Philosophie betont Tiefe statt Breite – eine tiefe Expertise in einem spezifischen Bereich gegenüber einem breiten Wissen über viele Themen. Stell dir das Konzept der „T-förmigen Fähigkeiten“ vor: eine tiefe Spezialisierung in einem Kernbereich, ergänzt durch ein breiteres Grundverständnis. Für Mellum liegt dieser tiefe Fokus initial klar auf der KI Code-Vervollständigung.

Die Idee dahinter ist einfach, aber wirkungsvoll: Spezialisierte Aufgaben wie die Code-Vervollständigung profitieren enorm von einem Modell, das exakt für diesen Zweck entwickelt und optimiert wurde. Generalistische Modelle können zwar viele Aufgaben bewältigen, ihnen fehlt aber oft die spezifische Feinabstimmung für die Geschwindigkeit, Genauigkeit und kontextuelle Nuancierung, die für eine nahtlose Integration in den täglichen Workflow eines Entwicklers unerlässlich sind. JetBrains argumentiert, dass Focal Models hier klare Vorteile bieten:

  1. Zweckgerichtete Präzision: Das Modell ist genau auf die Anforderungen der Code-Vervollständigung zugeschnitten.
  2. Kosteneffizienz: Spezialisierte Modelle können in Betrieb und Bereitstellung günstiger sein als riesige Allzweck-LLMs.
  3. Geringere Anforderungen: Sie benötigen oft weniger Rechenleistung, was auch den ökologischen Fußabdruck reduziert.
  4. Zugänglichkeit: Forscher und kleinere Teams können leichter mit fokussierten Modellen arbeiten und experimentieren.

Insbesondere das Latenzproblem, das bei der Nutzung großer Drittanbieter-LLMs für Echtzeit-Code-Vorschläge oft auftritt, soll durch diesen gezielten Ansatz überwunden werden. Das Ziel ist eine KI, die sich anfühlt, als wäre sie ein integraler Bestandteil der IDE, nicht nur ein aufgesetztes Plugin.

Mellum in Aktion: Open Source, Cloud und On-Premise

Um unterschiedlichen Bedürfnissen gerecht zu werden, hat JetBrains Mellum über drei verschiedene Kanäle verfügbar gemacht:

Open Source: Mellum-4b-base für die Community

Das Herzstück, das Mellum-4b-base-Modell, steht auf der Plattform Hugging Face unter der freizügigen Apache 2.0-Lizenz öffentlich zur Verfügung. Dies ist quasi der „Rohdiamant“ – das Ergebnis des initialen Trainingsprozesses.

JetBrains betont klar, dass dieses Basismodell keine „Plug-and-Play“-Lösung für Endanwender*innen ist. Es erfordert weitere Anpassungen wie Supervised Fine-Tuning (SFT) oder Reinforcement Learning (RL), um es effektiv für spezifische Aufgaben nutzbar zu machen. Die primäre Zielgruppe sind hier:

  • KI/ML-Forscher*innen: Die die Rolle von KI in der Softwareentwicklung untersuchen.
  • KI/ML-Ingenieur*innen: Die eine Basis für eigene, domänenspezifische Modelle suchen.
  • Lehrende: Die LLM-Architekturen und Spezialisierung unterrichten.

Das Ziel dieser Veröffentlichung ist es, Transparenz zu schaffen, Kollaboration zu fördern und Experimente durch die Community anzustoßen.

Cloud-Integration: Power für den JetBrains AI Assistant Pro

Für die meisten Entwickler*innen ist dies der Weg, wie sie mit Mellums Fähigkeiten in Berührung kommen. Mellum ist die treibende Kraft hinter der Cloud-basierten KI Code-Vervollständigung im JetBrains AI Assistant.

Der Zugriff auf diese Funktion erfordert ein kostenpflichtiges JetBrains AI Pro-Abonnement (z. B. ca. 100 USD/Jahr oder über Partner wie ComponentSource für ca. 196 EUR/Jahr netto). Diese Version profitiert massiv von der tiefen Integration in die JetBrains IDEs. Sie kann den reichen Kontext der Entwicklungsumgebung nutzen, um die Qualität der Vorschläge signifikant zu verbessern. Dies stellt ein Premium-Angebot innerhalb der JetBrains-Produktpalette dar.

On-Premise Enterprise Lösung: Kontrolle für Unternehmen

Für Organisationen mit strengen Sicherheits-, Datenschutz- oder regulatorischen Anforderungen, einschließlich solcher, die in abgeschotteten („air-gapped“) Umgebungen arbeiten, bietet JetBrains Mellum als Teil seiner IDE Services-Plattform an.

Dies ermöglicht es Unternehmen, spezifische Mellum-Modelle (wie jet-all-medium, jet-py-medium, jet-kt-medium) innerhalb ihrer eigenen Infrastruktur zu betreiben. Die Anforderungen sind jedoch hoch:

  • Hardware: Spezifische High-End NVIDIA GPUs (L40, A100, H100, H200) sind zwingend erforderlich.
  • Infrastruktur: Ein Kubernetes-Cluster wird für die Bereitstellung und Verwaltung benötigt.
  • Lizenz: Eine kommerzielle Lizenz und ein Zugriffstoken müssen direkt über den JetBrains-Vertrieb bezogen werden.

Diese Option zielt klar auf große Organisationen mit entsprechender IT-Infrastruktur und Know-how ab.

Diese dreigleisige Strategie ermöglicht es JetBrains, die Forschungscommunity einzubinden, die Technologie über Abonnements zu monetarisieren und gleichzeitig die Bedürfnisse sicherheitsbewusster Unternehmenskunden zu adressieren.

Kernfunktionalität: KI Code-Vervollständigung & IDE-Synergie

Das primäre Designziel von Mellum ist Exzellenz in der KI Code-Vervollständigung. Es soll Entwickler*innen helfen, Routineaufgaben beim Codieren schneller zu erledigen, indem es intelligente, kontextsensitive Vorschläge macht.

Sprachvielfalt

Mellum ist von Haus aus mehrsprachig konzipiert. Sowohl das Open-Source-Modell als auch die integrierten Versionen unterstützen eine breite Palette gängiger Programmiersprachen, darunter:

  • Java, Kotlin
  • Python, Go, PHP
  • C, C++, C#
  • JavaScript, TypeScript
  • CSS, HTML
  • Rust, Ruby

Die Einführung im AI Assistant erfolgte schrittweise, beginnend mit Schlüsselsprachen wie Java, Python und Kotlin, bevor die Unterstützung breiter ausgerollt wurde.

Die Macht der Integration: Synergie mit JetBrains IDEs

Ein entscheidender Punkt, den JetBrains immer wieder hervorhebt, ist die tiefe Integration von Mellum in die eigene Suite von IDEs (wie IntelliJ IDEA, PyCharm, etc.). Diese Synergie wird als wesentliches Unterscheidungsmerkmal präsentiert.

Die IDE liefert Mellum reichhaltigen Echtzeit-Kontext über das Projekt: Code-Struktur, Syntax, Typinformationen, Abhängigkeiten und sogar die Absicht des Entwicklers, abgeleitet aus kürzlichen Aktionen. Da Mellum intern entwickelt wird, kann es diese detaillierten Informationen wesentlich effektiver nutzen als ein generisches Drittanbieter-Modell, das nur als einfaches Plugin agiert.

Diese enge Kopplung zwischen der Client-seitigen IDE (Kontextlieferant) und der Server-seitigen KI-Logik (Mellum-Modell) ist der Schlüssel für schnelle, präzise und hoch relevante Code-Vorschläge, die sich nahtlos in das spezifische Projekt und den dortigen Codierstil einfügen. Die Kontrolle über beide Enden – Entwicklungsumgebung und KI-Modell – ermöglicht Optimierungen und Feature-Entwicklungen, die mit externen KI-Diensten nur schwer realisierbar wären.

Technischer Deep Dive: Unter der Haube von JetBrains Mellum

Die technischen Details von Mellum unterscheiden sich je nach Version.

Mellum-4b-base: Das Open-Source-Fundament

  • Architektur & Parameter: Das Open-Source-Modell Mellum-4b-base nutzt eine Transformer-Architektur im Stil von LLaMA und umfasst 4 Milliarden Parameter. Diese Größe macht es relativ leichtgewichtig im Vergleich zu größeren Generalisten-Modellen, was potenziell lokale Experimente und effiziente Cloud-Inferenz erleichtert.
  • Trainingsdaten & Prozess: Wichtig: Mellum wurde von JetBrains von Grund auf neu trainiert, nicht nur auf einem bestehenden Modell feinabgestimmt. Der Trainingsdatensatz umfasste beeindruckende ~4,2 Billionen Tokens. Diese stammen aus permissiv lizenzierten Code-Repositories (wie The Stack, StarCoder Training Dataset, The Stack v2, CommitPack – wahrscheinlich stark von Plattformen wie GitHub beeinflusst) und englischsprachigen Texten von Wikipedia (um Kommentare und Dokumentation besser zu verstehen). Das Training selbst lief auf einem Cluster von 256 NVIDIA H200 GPUs, die über Infiniband verbunden waren, und dauerte etwa 20 Tage.
  • Kontextfenster & Präzision: Das Modell arbeitet mit einem Kontextfenster von 8.192 Tokens. Es wurde mit automatischer gemischter Präzision (AMP) im bf16-Format (16-bit brain floating-point) trainiert und ist in diesem Format auf Hugging Face verfügbar. Zusätzlich wird ein quantisiertes GGUF-Format angeboten, das die lokale Ausführung mit Tools wie llama.cpp vereinfachen könnte.

Tabelle 1: Eckdaten JetBrains Mellum-4b-base (Open Source)

SpezifikationDetailQuelle(n)
Parameter4 Milliarden1, 4
ArchitekturLLaMA-Stil4
Trainings-Tokens~4,2 Billionen1, 4
Kontextfenster8.192 Tokens4
Trainings-Hardware256 x NVIDIA H200 GPUs4
Trainingsdauer~20 Tage4
Trainings-PräzisionAutomatic Mixed Precision (bf16)4
LizenzApache 2.01
Haupt-TrainingsdatenThe Stack, StarCoder Dataset, The Stack v2, CommitPack, Engl. Wikipedia4

  • Benchmark-Analyse: JetBrains liefert auf der Hugging Face Model Card Benchmark-Ergebnisse für Mellum-4b-base sowie eine auf Python feinabgestimmte Version (Mellum-4b-sft-python), um die Fähigkeiten abzuschätzen. Wichtige Benchmarks zeigen:
    • RepoBench 1.1: Misst die Genauigkeit der einzeiligen Code-Vervollständigung (Exact Match – EM) für Python und Java bei unterschiedlichen Kontextlängen. Die Ergebnisse sind innerhalb des 8k-Fensters solide, fallen aber erwartungsgemäß dahinter ab. Das SFT-Python-Modell schneidet bei Python-Aufgaben besser ab.
    • Syntax-Aware Fill-in-the-Middle (SAFIM): Bewertet das Einfüllen von Code-Lücken über mehrere Sprachen hinweg. Das Basismodell zeigt Kompetenz, die SFT-Version verbessert sich.
    • HumanEval Infilling: Testet die Python-Code-Generierung für das Füllen einzelner oder mehrerer Zeilen. Auch hier zeigt das SFT-Modell deutlich bessere Ergebnisse. Diese Benchmarks bestätigen die Code-zentrierten Fähigkeiten und unterstreichen die Notwendigkeit des Fine-Tunings für optimale Leistung bei spezifischen Aufgaben oder Sprachen, wie von JetBrains kommuniziert. Obwohl JetBrains von wettbewerbsfähigen Ergebnissen für die Modellgröße spricht, äußerten einige Community-Mitglieder anfänglich Bedenken, dass die Benchmarks des Basismodells eher zurückhaltend wirkten.

Tabelle 2: Ausgewählte Benchmark-Ergebnisse für Mellum-4b

BenchmarkModellMetrikErgebnis (≤ 8k Avg / Overall)Quelle(n)
RepoBench 1.1 (Python)Mellum-4b-baseEM % (Avg ≤ 8k)27.97%4
RepoBench 1.1 (Python)Mellum-4b-sft-pyEM % (Avg ≤ 8k)29.87%4
RepoBench 1.1 (Java)Mellum-4b-baseEM % (Avg ≤ 8k)31.08%4
SAFIM (Multi-language)Mellum-4b-basepass@1 % (Average)38.11%4
SAFIM (Multi-language)Mellum-4b-sft-pypass@1 % (Average)42.12%4
HumanEval Infilling (Python)Mellum-4b-basepass@1 %~29.7% – 66.2% (Task dep.)4
HumanEval Infilling (Python)Mellum-4b-sft-pypass@1 %~37.7% – 80.5% (Task dep.)4

  • Anwendungsbeispiele: Auf Hugging Face finden sich Python-Codebeispiele, die zeigen, wie man mit dem Modell über die transformers-Bibliothek interagiert. Dazu gehören einfache Textgenerierung basierend auf einem Code-Prompt und komplexere „Fill-in-the-Middle“-Aufgaben mit speziellen Tokens (<fim_prefix>, <fim_suffix>, <fim_middle>) und Kontext aus mehreren Dateien (<filename>). Diese dienen als Starthilfe für Experimente.

Mellum für Unternehmen (On-Premise)

  • Verfügbare Modelle: Die On-Premise-Lösung bietet eigene Modelle: jet-all-medium, jet-py-medium und jet-kt-medium. Die Bezeichnung „medium“ (im Gegensatz zu „4b-base“) könnte auf andere Konfigurationen, Feinabstimmungen oder Optimierungen für Enterprise-Umgebungen hindeuten.
  • Hardware- & Infrastrukturanforderungen: Die Bereitstellung von Mellum On-Premise stellt hohe Anforderungen:
    • GPU: Spezifische NVIDIA GPUs sind zwingend erforderlich (L40, A100, H100, H200), bedingt durch CUDA und Lizenzvereinbarungen.
    • CPU: Mindestens 2 CPU-Kerne pro Instanz.
    • RAM: Mindestens 16 GB RAM pro Instanz.
    • Umgebung: Ein Kubernetes-Cluster ist für die Orchestrierung notwendig. JetBrains gibt Leistungsschätzungen basierend auf Nutzerzahlen an (z.B. 0.2 Anfragen/Sek. für 50 Nutzer), was die benötigte Anzahl an GPU-Instanzen beeinflusst.

Tabelle 3: Hardware-Anforderungen für On-Premise Mellum (pro Instanz)

KomponenteAnforderungQuelle(n)
GPUNVIDIA L40, A100, H100, oder H200 (Pflicht)8
CPU2 Kerne (Minimum)8
RAM16 GB (Minimum)8


  • Deployment & Konfiguration: Die Installation erfolgt über Helm-Charts im Kubernetes-Cluster. Administratoren konfigurieren über eine values.yaml-Datei, aktivieren Mellum, wählen Modelle aus, definieren Repository-Details, liefern Secrets für Image Pulls (mit Token vom Vertrieb), legen GPU-Node-Selektoren fest und konfigurieren JWT-Keys für die sichere Kommunikation. Nach dem Deployment muss Mellum als benutzerdefinierter KI-Anbieter in der IDE Services Web UI eingerichtet werden.
  • Diese Anforderungen machen deutlich: Die On-Premise-Lösung ist für Unternehmen mit reifer IT-Infrastruktur und spezialisiertem Personal gedacht, nicht für kleine Teams.

Performance in der Praxis: Benchmarks vs. Realität

Die Bewertung von Mellums Leistung stützt sich sowohl auf standardisierte Benchmarks als auch auf berichtete Ergebnisse aus der Praxisintegration.

  • Benchmark-Erkenntnisse (Zusammenfassung): Wie zuvor detailliert, zeigen die Benchmarks für Mellum-4b-base grundlegende Fähigkeiten in der Code-Vervollständigung und beim Einfüllen von Code, besonders innerhalb des 8k-Token-Fensters. Die deutliche Leistungssteigerung der feinabgestimmten Python-Version (Mellum-4b-sft-python) unterstreicht die Bedeutung der Spezialisierung. Mellum zielt eher auf Effizienz und Relevanz im definierten Bereich ab, als unbedingt größere Generalisten-Modelle zu übertreffen.
  • Berichtete Verbesserungen im AI Assistant (Cloud-Version): JetBrains meldet überzeugende Leistungssteigerungen seit der Integration von Mellum für die Cloud-Code-Vervollständigung im AI Assistant. Diese Zahlen geben Einblick in die praktische Wirksamkeit:
    • Latenz: Die Zeit bis zum Erscheinen eines Vorschlags soll auf ein Drittel reduziert worden sein, was eine spürbar reaktionsschnellere Nutzererfahrung bedeutet.
    • Akzeptanzrate: Die Rate, mit der Entwickler*innen Mellums Vorschläge annehmen, erreichte etwa 40%. JetBrains bezeichnet dies als „soliden Benchmark“, der auf hohe Relevanz und Nützlichkeit hindeutet.
    • Abbruchrate: Nutzer*innen brachen Mellums Vorschläge drei- bis viermal seltener ab als bei der vorherigen AI Assistant-Version, was ebenfalls für eine verbesserte Vorschlagsqualität spricht.
    • Vorschlagsvolumen: Die Gesamtzahl der den Nutzer*innen angezeigten Code-Vervollständigungen hat sich mehr als verdoppelt, was auf mehr Gelegenheiten zur Unterstützung hindeutet. Zusätzlich erwähnt JetBrains positives Nutzerfeedback seit der Umstellung.

Diese von JetBrains berichteten Zahlen legen nahe, dass die „Focal Model“-Strategie in Kombination mit der tiefen IDE-Integration tatsächlich spürbare Vorteile für die Cloud-basierte KI Code-Vervollständigung bringt. Die reduzierte Latenz adressiert einen häufigen Kritikpunkt bei KI-Assistenten, während die hohe Akzeptanz und niedrige Abbruchrate darauf hindeuten, dass das spezialisierte Modell, gestützt durch den IDE-Kontext, wirklich hilfreiche und passende Vorschläge im Entwicklerworkflow generiert.

Lizenzierung, Preise & Verfügbarkeit: Was kostet Mellum?

Die Verfügbarkeit und Kostenstruktur von Mellum unterscheiden sich stark je nach Version:

  • Open Source (Mellum-4b-base):
    • Lizenz: Apache 2.0 (freie Nutzung, Modifikation, Verteilung).
    • Verfügbarkeit: Kostenlos auf Hugging Face herunterladbar.
    • Status: Basismodell verfügbar, benötigt aber Fine-Tuning für den produktiven Einsatz. JetBrains stellt Beispiele (z.B. für Python) für Forschungszwecke bereit.
  • Cloud-Integration (AI Assistant):
    • Preis: Gekoppelt an das JetBrains AI Pro-Abonnement. Die Preise liegen bei ca. $100 pro Nutzer/Jahr (direkt bei JetBrains) oder €196 pro Nutzer/Jahr (netto) über Partner wie ComponentSource. Es gibt auch eine kostenlose 7-Tage-Testversion mit limitiertem Volumen.
    • Status: Aktiv integriert und funktionsfähig im JetBrains AI Assistant für unterstützte Sprachen in aktuellen IDE-Versionen.
  • On-Premise (Enterprise via IDE Services):
    • Lizenz: Erfordert eine kommerzielle Vereinbarung mit JetBrains. Unternehmen müssen sich an den IDE Services-Vertrieb wenden, um ein Zugriffstoken und eine Lizenz zu erhalten. Der Preis ist nicht öffentlich gelistet und wahrscheinlich angebotsbasiert. Es gibt auch einen „AI Enterprise“-Plan für ca. $360 pro Nutzer/Jahr.
    • Status: Verfügbar für die Bereitstellung in geeigneten Kubernetes-Umgebungen.

Dieser gestaffelte Ansatz ist strategisch: Die Open-Source-Version fördert Engagement und Sichtbarkeit im KI-Bereich. Die Cloud-Integration generiert direkten Umsatz über Premium-Abos. Die On-Premise-Version bedient das hochwertige Enterprise-Segment mit spezifischen Sicherheitsanforderungen.

Tabelle 4: JetBrains AI-Pläne und Preise

PlanPreisLaufzeitEnthaltene Funktionen
Pro$100/Jahr (≈8,33€/Monat)JährlichKI-Chat, Code-Vervollständigung, Kontextsensitive Vorschläge, Dokumentationsgenerierung, Code-Erklärung, Fehleranalyse, Refactoring-Vorschläge, Namensgenerierung, Prompt-Bibliothek, Code-Konvertierung1
TrialKostenlos7 TageAlle Pro-Funktionen (begrenztes Volumen)1
AI Enterprise$360/Jahr pro Nutzer (≈30€/Monat)JährlichAlle Pro-Funktionen + Benutzerverwaltung, On-Premises-Installation, Anpassbare KI-Modelle, IP-Haftungsschutz, Zero Data Retention1
AI Pro (via Partner)$196/Jahr (≈196€/Jahr netto)JährlichKI-Funktionen in JetBrains-IDEs (Code-Vervollständigung, Kontextanalyse, KI-Chat)689

Hinweise:

  • Preisgestaltung:
    • Enterprise-Preise gelten pro Nutzer/Jahr (Staffelpreise bei Volumenlizenzen möglich).
    • AI Pro wird von Partnern wie ComponentSource und Software-Express vertrieben (Nettopreis: 198€/Jahr zzgl. MwSt.).
  • Lizenzbedingungen:
    • Fallback-Lizenz: Bei Subscriptions erhalten Nutzer dauerhafte Lizenzen für die Version vor 12 Monaten.
    • Academic: Kostenlose/reduzierte Lizenzen für Bildungseinrichtungen (direkt bei JetBrains beantragbar).
    • Verlängerungen: Keine Rabatte für Neulizenzen ab 2025, bestehende Lizenzen behalten Continuity Discounts.

Mellum ist das zugrundeliegende KI-Modell für Code-Vervollständigung, separat auf Hugging Face verfügbar (kostenlos, Apache 2.0-Lizenz).

Nutzerperspektiven & Community-Dialog: Was sagen die Entwickler*innen?

Die Veröffentlichung von Mellum, insbesondere der Open-Source-Version, hat für Gesprächsstoff gesorgt. Eine Analyse von Foren (hauptsächlich Reddit) zeigt wiederkehrende Themen:

  • Lob für Open Source: Die Entscheidung, Mellum-4b-base zu veröffentlichen, wird generell positiv aufgenommen.
  • Wunsch nach lokaler Nutzung: Es gibt einen starken Wunsch, leistungsfähige KI-Code-Vervollständigung lokal auf dem eigenen Rechner laufen zu lassen (aus Datenschutzgründen, für Offline-Zugriff oder wegen Firmenrichtlinien). Nutzer*innen diskutieren die Machbarkeit, Mellum lokal, eventuell auf Consumer-GPUs, zu betreiben und Integrationshürden. Einige weisen darauf hin, dass JetBrains IDEs bereits kleinere, lokale Modelle enthalten.
  • Gemischte Performance-Wahrnehmung: Einige frühe Tester*innen berichten von positiven Eindrücken bezüglich Geschwindigkeit und Genauigkeit. Andere äußern Bedenken, dass die veröffentlichten Benchmarks des Basismodells im Vergleich zu anderen Modellen oder Erwartungen eher schwach erscheinen. Vergleiche zu Konkurrenten wie GitHub Copilot und Cursor werden häufig gezogen.
  • Fine-Tuning als Notwendigkeit: Die Notwendigkeit, das Basismodell anzupassen, wird erkannt. Es besteht großes Interesse daran, Mellum auf eigenen oder projektspezifischen Codebases zu trainieren, um die Relevanz und Einhaltung spezifischer Codierstile zu verbessern.
  • „Focal Model“-Debatte: Das Konzept des spezialisierten „Focal Model“ wird diskutiert. Einige sind skeptisch, ob ein Modell, das eng auf Vervollständigung fokussiert ist, den breiteren architektonischen Kontext für wirklich intelligente Vorschläge erfassen kann.
  • Integrationsklarheit: Es gibt teilweise Verwirrung darüber, wie Mellum standardmäßig in die IDEs integriert ist – insbesondere die Beziehung zwischen dem Open-Source-Modell, den eingebauten lokalen Modellen und der Cloud-Vervollständigung, die das AI Pro-Abo erfordert.

Das Feedback zeigt einen Markt, der nach leistungsfähigen, offenen und lokalen KI-Lösungen dürstet. Mellums Open-Sourcing ist ein Schritt in diese Richtung, aber es bleiben Herausforderungen, seine Leistungsfähigkeit zugänglich zu machen, insbesondere bezüglich der Performance-Erwartungen an das Basismodell und der Komplexität von lokalem Deployment und Fine-Tuning.

Limitationen & Sicherheit: Was Du wissen musst

JetBrains kommuniziert die inhärenten Grenzen und potenziellen Risiken von Mellum bemerkenswert offen:

  • Anerkannte Biases: Da Mellum hauptsächlich auf öffentlich verfügbaren Code-Datenbanken trainiert wurde, spiegelt es wahrscheinlich die darin enthaltenen Biases wider. Das kann dazu führen, dass generierter Code gängigen Stilen aus populären Open-Source-Projekten folgt, die möglicherweise nicht zu den Konventionen eines bestimmten Teams passen.
  • Sicherheitsrisiken durch KI-Code: Eine entscheidende Warnung: Code-Vorschläge von Mellum sollten niemals automatisch als sicher oder frei von Schwachstellen angenommen werden. Dies spiegelt eine branchenweite Sorge wider (z. B. fand eine Snyk-Umfrage 2023, dass die Mehrheit der Organisationen Sicherheitsprobleme mit KI-generiertem Code feststellt). Menschliche Überprüfung, Code-Reviews und Sicherheitsscans bleiben unerlässlich, wenn KI-Vorschläge in Produktionssysteme übernommen werden.
  • Basismodell erfordert Anpassung: JetBrains betont durchgehend, dass das Open-Source-Modell Mellum-4b-base eine Grundlage ist und nicht für spezifische Aufgaben voroptimiert wurde. Effektive Nutzung erfordert Fine-Tuning oder andere Anpassungsmethoden.

Diese proaktive Kommunikation über Limitationen ist wichtig, um realistische Erwartungen zu setzen und eine verantwortungsvolle Nutzung zu fördern. Sie schafft Vertrauen, besonders in der Open-Source-Community.

Die Zukunft: Eine Familie von Focal Models

Mellum ist laut JetBrains nicht als isoliertes Produkt gedacht, sondern als das erste Mitglied einer geplanten „Familie von Focal Models“.

  • JetBrains‘ Vision: Das Unternehmen plant explizit die Entwicklung weiterer spezialisierter Modelle, die jeweils auf unterschiedliche Aspekte des Softwareentwicklungszyklus abzielen. Beispiele für zukünftige Fokusbereiche könnten Aufgaben wie Diff Prediction (Vorschlagen von Änderungen zwischen Code-Versionen) oder verbesserte Code-Suchfunktionen sein.
  • Förderung eines Ökosystems: Diese Langzeitvision passt zum Ziel, ein kollaboratives Ökosystem zu pflegen. Durch die potenzielle Veröffentlichung weiterer spezialisierter Basismodelle oder Werkzeuge möchte JetBrains Forscher*innen und fortgeschrittene Engineering-Teams befähigen, auf diesen Grundlagen aufzubauen, mit neuen KI-gesteuerten Entwicklerwerkzeugen zu experimentieren und zur Community beizutragen.

Diese Strategie zeigt, dass Mellum der Grundstein für eine breitere, nachhaltige Investition von JetBrains in KI ist. Der Fokus liegt auf der Schaffung einer Suite eng integrierter, spezialisierter KI-Funktionen, die die Produktivität von Entwickler*innen innerhalb ihrer Kernprodukte steigern. Der Erfolg von Mellum bei der Code-Vervollständigung könnte diesen „Focal Model“-Ansatz bestätigen und den Weg für weitere Innovationen ebnen.

Fazit: JetBrains Mellum – Spezialisierte KI für Deinen Code

JetBrains Mellum markiert eine bemerkenswerte strategische Entwicklung: den Schritt hin zu hauseigenen, hochspezialisierten KI-Modellen zur Verbesserung der eigenen Entwicklerwerkzeuge. Die Philosophie des „Focal Model“, die Tiefe bei der KI Code-Vervollständigung über generalistische Breite stellt, ist das Kernprinzip hinter Mellum. Mit seinen drei Erscheinungsformen – dem Open-Source-Basismodell Mellum-4b-base für Forschung und Experimente, der nahtlos integrierten Cloud-Version im AI Assistant Pro für Endanwender*innen und der sicheren On-Premise-Lösung für Enterprise-Kunden – verfolgt JetBrains eine vielschichtige Strategie, um verschiedene Marktsegmente zu erreichen.

Technisch gesehen ist Mellum-4b-base ein moderat großes Modell (4 Mrd. Parameter, LLaMA-Stil), das intensiv auf Code und Text trainiert wurde. Benchmarks zeigen solide Grundfähigkeiten, betonen aber die Notwendigkeit des Fine-Tunings für optimale Ergebnisse in spezifischen Anwendungsfällen. Die entscheidende Stärke scheint in der Cloud-Version zu liegen: Hier sorgen die tiefe IDE-Integration und der reiche Kontext für signifikante, messbare Verbesserungen bei Latenz, Akzeptanzrate und Nutzerzufriedenheit – ein starkes Argument für die Synergie zwischen spezialisiertem Modell und Entwicklungsumgebung.

Die Community begrüßt die Open-Source-Initiative, hebt aber auch Herausforderungen hervor: der Wunsch nach einfacher lokaler Nutzung, die Performance-Erwartungen an das Basismodell und die Notwendigkeit von Anpassungen. JetBrains‘ Transparenz bezüglich der Limitationen und Sicherheitsrisiken ist dabei ein Pluspunkt. Die Vision einer zukünftigen „Familie von Focal Models“ signalisiert ein langfristiges Engagement für integrierte KI-Funktionen, die über die reine Code-Vervollständigung hinausgehen könnten.

Mellum ist somit mehr als nur ein neues Feature; es ist ein Statement für spezialisierte KI im Softwareentwicklungsprozess. Es bietet Potenzial für Effizienzsteigerungen, stellt Entwicklerinnen aber auch vor die Aufgabe, die Technologie – sei es als Cloud-Dienst, On-Premise-Lösung oder Open-Source-Baustein – bewusst und kritisch in ihre Arbeitsabläufe zu integrieren. Die Zukunft wird zeigen, wie sich Mellum und die darauf aufbauenden Modelle im Wettbewerb behaupten und wie die Community die offenen Bausteine für eigene Innovationen nutzen wird. Für dich als Entwicklerin bedeutet es eine weitere Option im wachsenden Feld der KI-Werkzeuge, die es wert ist, beobachtet und potenziell ausprobiert zu werden.


www.KINEWS24-academy.de – KI. Direkt. Verständlich. Anwendbar.

Quellen

  1. JetBrains Developers Unleash Mellum: A 4-Billion Parameter Powerhouse AI Model!, Zugriff am Mai 1, 2025, https://opentools.ai/news/jetbrains-developers-unleash-mellum-a-4-billion-parameter-powerhouse-ai-model
  2. JetBrains Mellum AI Model Released for Code Completion – C# Corner, Zugriff am Mai 1, 2025, https://www.c-sharpcorner.com/news/jetbrains-mellum-ai-model-released-for-code-completion
  3. JetBrains open sources its code completion LLM, Mellum – SD Times, Zugriff am Mai 1, 2025, https://sdtimes.com/ai/jetbrains-open-sources-its-code-completion-llm-mellum/
  4. JetBrains/Mellum-4b-base – Hugging Face, Zugriff am Mai 1, 2025, https://huggingface.co/JetBrains/Mellum-4b-base
  5. Mellum Goes Open Source: A Purpose-Built LLM for Developers …, Zugriff am Mai 1, 2025, https://blog.jetbrains.com/ai/2025/04/mellum-goes-open-source-a-purpose-built-llm-for-developers-now-on-hugging-face/
  6. Introducing Mellum: JetBrains‘ New LLM Built for Developers | The …, Zugriff am Mai 1, 2025, https://blog.jetbrains.com/blog/2024/10/22/introducing-mellum-jetbrains-new-llm-built-for-developers/

#KI #AI #ArtificialIntelligence #KuenstlicheIntelligenz #JetBrainsMellum #CodeCompletion #FocalModel #DeveloperTools, JetBrains Mellum

KINEWS24.de - JetBrains Mellum 2025
KINEWS24.de – JetBrains Mellum 2025

Ähnliche Beiträge

Business

Ideogram 3.0 Analyse 2025: Top KI Bildgenerator für Text & Stil

Ideogram 3.0 KI Bildgenerator für Top Text in Bildern & Stilkontrolle. Alle Infos zu Features wie Style Reference, Canvas &.

Business

JetBrains Mellum 2025: Das neue KI Code Tool Focal Model erklärt – Was Du wissen

JetBrains Mellum KI Code-Vervollständigung & Focal Model erklärt. Erfahre, wie die spezialisierte KI Deine Code-Qualität verbessert. Der Guide für Entwickler*innen.

Folge uns

Beliebte Artikel

About Author

Maßgeschneiderte KI-Lösungen für Ihr Unternehmen

TechNow ist Ihr strategischer Partner für den erfolgreichen Einsatz von Künstlicher Intelligenz.

Beraten lassen

HOT CATEGORIES

en_GBEnglish