Ob beim Schreiben von Texten, beim Programmieren oder in der Forschung – Large Language Models (LLMs) haben längst mehr zu bieten, als nur Worte aneinanderzureihen. Sie verstehen komplexe Zusammenhänge, schlagen kreative Lösungen vor und analysieren riesige Datenmengen in Sekunden. Doch was steckt hinter ihrer Leistungsfähigkeit? Warum sind sie so gut darin, nicht nur unsere Fragen zu beantworten, sondern sogar weiterzudenken?
In diesem Artikel werfen wir einen Blick hinter die Kulissen dieser beeindruckenden Technologie. Wir klären, wie LLMs wie GPT oder BERT trainiert werden, welche Aufgaben sie bereits übernehmen und wo ihre Grenzen liegen. Dabei geht es nicht nur um Technik, sondern um die Frage, wie diese Modelle unsere Welt verändern – und welche Verantwortung damit einhergeht.
Inzwischen übertreffen Große Sprachmodelle menschliche Experten bei der Vorhersage neurowissenschaftlicher Ergebnisse: Der wissenschaftliche Fortschritt hängt oft davon ab, jahrzehntelange Forschung zu synthetisieren – eine Herausforderung, die die menschliche Informationsverarbeitungskapazität übersteigen kann. Große Sprachmodelle (LLMs) wie BrainGPT zeigen beeindruckendes Potenzial, um die Vorhersage von Forschungsergebnissen zu verbessern. Eine aktuelle Studie im Nature Human Behaviour demonstriert, dass LLMs in der Lage sind, Experten in der Neurowissenschaft zu übertreffen, wenn es darum geht, experimentelle Ergebnisse vorherzusagen.
Und wenn wir heute mit Sprachmodellen arbeiten, dann muss uns klar sein: Wir sind nicht am Ende der Entwicklung – wir stehen erst ganz am Anfang. Täglich gibt es neue Forschung und neue Ergebnisse – besonders vielversprechend ist der Meta AI Ansatz: Large Concept Models (LCMs). Mit den Large Concept Models (LCMs) präsentiert Meta AI eine völlig neue Architektur, die die Token-basierte Verarbeitung hinter sich lässt. Stattdessen agieren LCMs in einem semantischen Raum, der Ideen und Konzepte auf Satzebene repräsentiert. Dies eröffnet neue Möglichkeiten für natürliche Sprachverarbeitung, Multilingualität und Effizienz in der KI.
Das musst Du wissen: Die wichtigsten Fakten zu Large Language Models und Überblick über die behandelten Themen im Artikel
- Definition: Large Language Models (LLMs) sind KI-Systeme, die Sprache verstehen, generieren und kontextbezogen analysieren können.
- Technologie: Sie basieren auf der Transformer-Architektur, die parallele Verarbeitung, Self-Attention und Skalierbarkeit vereint.
- Anwendungen: Von kreativer Textgenerierung über maschinelle Übersetzungen bis hin zur medizinischen Forschung bieten LLMs unzählige Einsatzmöglichkeiten.
- Ethische Herausforderungen: Bias, Missbrauchsgefahr, Datenschutzprobleme, Intransparenz und Umweltbelastung sind zentrale Themen.
- Technische Grenzen: Probleme wie Overfitting, hohe Skalierungskosten und wachsende Anforderungen an Daten und Rechenleistung bremsen das Potenzial.
- Zukunftsperspektiven: Fortschritte wie die Large Concept Models (LCMs) zeigen neue Wege für effizientere und vielfältigere KI-Lösungen auf.
- Chancen: Die Revolution von Kreativität, Produktivität und datenbasierter Innovation in nahezu allen Branchen.
- Verantwortung: Der Erfolg von LLMs hängt vom bewussten Umgang mit ethischen, technischen und ökologischen Herausforderungen ab.
Was sind Large Language Models (LLMs)?
Large Language Models (LLMs) sind fortschrittliche KI-Modelle, die auf der Transformer-Architektur basieren. Sie sind darauf spezialisiert, natürliche Sprache zu verstehen, zu generieren und kontextbezogene Aufgaben auszuführen. Im Kern bestehen sie aus tiefen neuronalen Netzwerken, die mithilfe von riesigen Text-Datensätzen trainiert werden. Beispiele hierfür sind GPT von OpenAI, BERT von Google oder T5 von Google.
Sprachmodelle sind bahnbrechend und umstritten zugleich.
Einerseits revolutionieren sie kreative Prozesse und datenbasierte Entscheidungen, andererseits werfen sie ethische und technische Fragen auf. Die folgende Übersicht zeigt, wo LLMs glänzen und wo sie an ihre Grenzen stoßen.
Vorteile | Nachteile |
---|---|
Kreativität fördern: Unterstützung bei der Texterstellung, von Artikeln bis hin zu Gedichten. | Hohe Kosten: Entwicklung und Betrieb sind extrem ressourcenintensiv. |
Produktivität steigern: Automatisierung von Aufgaben wie Übersetzungen, Analyse oder Code-Generierung. | Bias in den Daten: Vorurteile aus Trainingsdaten spiegeln sich in den Ergebnissen wider. |
Skalierbarkeit: Ein Modell kann für eine Vielzahl von Aufgaben eingesetzt werden. | Energieverbrauch: Training großer Modelle verursacht erhebliche Umweltbelastungen. |
Schnelligkeit: Verarbeitung riesiger Datenmengen in Bruchteilen von Sekunden. | Missbrauchsgefahr: Gefahr durch Desinformation, Fake News und ethisch fragwürdige Anwendungen. |
Personalisierung: Anpassung an spezifische Branchen oder individuelle Bedürfnisse möglich. | Mangelnde Transparenz: Entscheidungen der Modelle sind oft schwer nachvollziehbar. |
Transformer-Architektur erklärt: Die Grundlage moderner KI
Die Transformer-Architektur hat die Welt der künstlichen Intelligenz revolutioniert und bildet die Basis für leistungsstarke Modelle wie GPT und BERT. Ihr innovatives Design ermöglicht eine effiziente Verarbeitung und Analyse von Sprache, indem sie Kontext, Reihenfolge und Bedeutung gleichzeitig berücksichtigt. Dank dieser Technologie können Large Language Models riesige Textmengen verstehen, relevante Inhalte hervorheben und präzise Antworten generieren.
Warum ist die Transformer-Architektur so wichtig?
- Self-Attention: Die Fähigkeit, in einem Text die wichtigsten Informationen zu identifizieren, macht die Ergebnisse relevanter und kontextbezogener.
- Parallele Verarbeitung: Modelle können ganze Textabschnitte gleichzeitig analysieren, was die Verarbeitungsgeschwindigkeit massiv erhöht.
- Skalierbarkeit: Durch das Stapeln mehrerer Schichten können Transformer-Modelle komplexe Muster und Beziehungen erkennen.
- Positional Encoding: Sorgt dafür, dass die Reihenfolge der Wörter in einem Satz korrekt verstanden wird, was essenziell für Bedeutung und Grammatik ist.
- Flexibilität: Sie lassen sich für zahlreiche Aufgaben anpassen, von Textgenerierung bis hin zu maschinellen Übersetzungen.
Relevante Folgefragen (FAQs) zu Large Language Models
Wie funktionieren Transformer-Architekturen in LLMs?
- Was sind die verschiedenen Typen von Large Language Models?
- Welche Anwendungsfälle gibt es für LLMs?
- Welche Herausforderungen und Kosten entstehen bei der Entwicklung von LLMs?
- Wie unterscheiden sich autoregressive Modelle wie GPT von autoencoding Modellen wie BERT?
- Welche ethischen Überlegungen spielen bei der Nutzung von LLMs eine Rolle?
- Welche Tools erleichtern die Entwicklung von LLMs?
- Wie profitieren Unternehmen von der Integration von LLMs?
Antworten auf die wichtigsten Fragen
1. Wie funktionieren Transformer-Architekturen in LLMs?
Transformer-Modelle revolutionierten die KI, indem sie die Verarbeitung von Sequenzen ermöglichten. Wichtige Elemente sind:
- Self-Attention: Dieses Konzept ermöglicht es dem Modell, sich auf die relevantesten Teile eines Textes zu konzentrieren, anstatt alle Wörter gleich zu behandeln. Zum Beispiel könnte ein Modell in einem Satz wie „Der Hund, der in den Garten rannte, bellte laut“ verstehen, dass sich „bellte laut“ auf „Hund“ bezieht und nicht auf „Garten“. Durch die Berechnung von Gewichtungen für jedes Wort im Kontext anderer Wörter analysiert Self-Attention den Text effizient und präzise.
- Positional Encoding: Während Self-Attention den Inhalt eines Satzes betrachtet, sorgt Positional Encoding dafür, dass das Modell die Reihenfolge der Wörter versteht. Es fügt den Daten zusätzliche Informationen hinzu, die signalisieren, wo ein Wort in einem Satz steht. Das ist wichtig, um zu erkennen, dass „Die Katze jagte die Maus“ eine andere Bedeutung hat als „Die Maus jagte die Katze“.
- Parallele Verarbeitung: Im Gegensatz zu älteren Modellen, die Texte Wort für Wort analysieren, verarbeitet ein Transformer komplette Textabschnitte gleichzeitig. Das ermöglicht nicht nur schnellere Analysen, sondern auch ein besseres Verständnis von Zusammenhängen über längere Textstrecken hinweg.
2. Was sind die verschiedenen Typen von Large Language Models?
LLMs lassen sich in folgende Kategorien einteilen:
- Autoregressive Modelle: Diese Modelle, wie GPT, sagen das nächste Wort basierend auf den vorherigen Wörtern vorher. Das macht sie ideal für die Textgenerierung, da sie in der Lage sind, flüssige und kreative Inhalte zu schreiben, die sich wie menschliche Sprache anfühlen.
- Autoencoding Modelle: Im Gegensatz zu autoregressiven Modellen konzentrieren sich autoencoding Modelle wie BERT auf das Verständnis von Text. Sie maskieren bestimmte Wörter in einem Satz und trainieren das Modell darauf, diese anhand des Kontexts zu rekonstruieren. Dadurch werden sie besonders gut in Aufgaben wie Sentiment-Analyse oder Textklassifikation.
- Encoder-Decoder Modelle: Diese Kombination aus beiden Ansätzen wird oft in Übersetzungsanwendungen verwendet. Der Encoder versteht den ursprünglichen Text, während der Decoder ihn in eine andere Sprache oder ein anderes Format überträgt, wie es etwa T5 tut.
- Multimodale Modelle: Modelle wie DALL-E oder CLIP verbinden Text mit anderen Datentypen, etwa Bildern. Sie können beispielsweise ein Bild basierend auf einer Textbeschreibung generieren oder ein Bild in Worte fassen.
- Domänenspezifische Modelle: Diese Modelle sind speziell auf bestimmte Bereiche zugeschnitten. BioBERT beispielsweise wurde auf biomedizinischen Texten trainiert und ist besonders hilfreich für die Analyse wissenschaftlicher Publikationen oder medizinischer Daten.
3. Welche Anwendungsfälle gibt es für LLMs?
LLMs werden in verschiedenen Bereichen genutzt:
- Content-Erstellung: Ob Blogartikel, Social-Media-Posts oder Produktbeschreibungen – LLMs können kreative Texte erstellen, die individuell angepasst werden können. Dadurch sparen Unternehmen Zeit und Kosten bei der Content-Produktion.
- Übersetzungen: Tools wie Google Translate haben dank LLMs einen enormen Qualitätssprung gemacht. Sie bieten nicht nur wörtliche, sondern kontextbezogene Übersetzungen, die natürlicher wirken.
- Medizinische Anwendungen: In der Gesundheitsbranche helfen LLMs bei der Analyse von Forschungsergebnissen, bei der Diagnoseunterstützung und sogar bei der Entwicklung neuer Medikamente durch die Analyse von Proteinstrukturen.
- Kundensupport: Chatbots, die auf LLMs basieren, können Kundenanfragen rund um die Uhr beantworten und dabei den Eindruck vermitteln, mit einem Menschen zu sprechen.
- Entwicklung: Programmierer profitieren von LLMs wie GitHub Copilot, die auf Basis natürlicher Sprache Code generieren oder Bugs identifizieren können.
4. Welche Herausforderungen und Kosten entstehen bei der Entwicklung von LLMs?
- Rechenkosten: Die Entwicklung eines Modells wie GPT-3 erfordert Milliarden von Parametern und Wochen an Trainingszeit auf Tausenden GPUs. Dies macht die Entwicklung extrem teuer – oft im zweistelligen Millionenbereich.
- Datenbedarf: LLMs benötigen riesige, diversifizierte Datensätze, die oft schwer zugänglich sind. Insbesondere für spezialisierte Anwendungen, wie in der Medizin, existieren solche Datensätze nicht immer in ausreichendem Umfang.
- Technische Expertise: Die Erstellung und der Betrieb solcher Modelle erfordern hochspezialisierte Kenntnisse in den Bereichen Deep Learning, Hardware-Management und verteilter Softwareentwicklung.
- Energieverbrauch: Das Training eines einzigen LLMs kann mehr Energie verbrauchen als ein Mensch in seinem ganzen Leben. Der damit verbundene CO₂-Ausstoß ist eine ernstzunehmende Herausforderung für die Nachhaltigkeit.
- Technische Grenzen von LLMs: Overfitting und Skalierung: Trotz ihrer beeindruckenden Fähigkeiten stoßen Large Language Models auf technische Herausforderungen, die ihre Entwicklung und Nutzung erschweren.
Overfitting: Wenn Modelle zu viel lernen: Ein häufiges Problem bei der Entwicklung von LLMs ist Overfitting. Dabei „lernt“ ein Modell die Trainingsdaten so gut, dass es auf neuen, unbekannten Daten schlechter abschneidet. Das bedeutet, dass es zwar perfekte Ergebnisse für bekannte Muster liefert, aber bei neuen Aufgaben an Flexibilität verliert. Gegenmaßnahmen wie Regularisierung, Dropout-Strategien oder das Training auf breiteren und diversifizierten Datensätzen helfen, dieses Problem zu minimieren.
Skalierungsprobleme: Grenzen des Wachstums: Größere Modelle mit mehr Parametern und Daten zeigen oft bessere Leistungen, doch diese Skalierung hat ihre Grenzen. Mit zunehmender Modellgröße steigen die Rechenkosten und der Energieverbrauch exponentiell. Außerdem können die Ergebnisse ab einer gewissen Größe stagnieren – ein Phänomen, das als „Diminishing Returns“ bekannt ist. Forscher arbeiten daher an Alternativen wie effizienteren Algorithmen oder spezialisierteren, kleineren Modellen, die für spezifische Aufgaben optimiert sind. Diese technischen Grenzen verdeutlichen, dass selbst modernste LLMs noch weit davon entfernt sind, perfekt zu sein – und dass Optimierung und Innovation unverzichtbar bleiben.
5. Wie unterscheiden sich autoregressive Modelle wie GPT von autoencoding Modellen wie BERT?
- GPT (Autoregressiv): GPT ist darauf ausgelegt, Text flüssig fortzusetzen, indem es Wort für Wort vorhergesagt. Diese Modelle sind ideal für kreative Anwendungen wie das Schreiben von Geschichten oder das Generieren von Dialogen.
- BERT (Autoencoding): BERT hingegen analysiert Text, indem es sich auf den gesamten Kontext eines Satzes konzentriert. Das macht es perfekt für Aufgaben wie die Beantwortung von Fragen oder die Sentiment-Analyse, da es Wörter im Kontext ihrer Nachbarn versteht.
6. Welche ethischen Überlegungen spielen bei der Nutzung von LLMs eine Rolle?
- Bias: Weil LLMs auf bestehenden Daten trainiert werden, können sie die in diesen Daten enthaltenen Vorurteile übernehmen und verstärken. Das führt zu potenziell diskriminierenden oder unethischen Ergebnissen.
- Missbrauch: Die Fähigkeit, realistische Inhalte zu generieren, birgt Risiken. LLMs könnten verwendet werden, um Fake News, Phishing-E-Mails oder Desinformationen zu erstellen.
- Datenschutz: Beim Training mit sensiblen Informationen – etwa aus der Gesundheits- oder Finanzbranche – ist es essenziell, strenge Datenschutzrichtlinien einzuhalten, um Missbrauch und Leaks zu vermeiden.
7. Welche Tools erleichtern die Entwicklung von LLMs?
- NVIDIA NeMo: Eine Plattform, die Unternehmen dabei unterstützt, ihre eigenen LLMs zu erstellen und anzupassen, ohne bei null beginnen zu müssen.
- Hugging Face: Eine Open-Source-Plattform mit einer breiten Community, die vortrainierte Modelle und Werkzeuge für die Arbeit mit LLMs bereitstellt.
- OpenAI API: Bietet direkten Zugang zu Modellen wie GPT-4, sodass Unternehmen diese sofort in ihre Anwendungen integrieren können.
Konkrete Tipps und Anleitungen
- Schrittweises Fine-Tuning: Unternehmen sollten LLMs zunächst auf spezifische Datensätze zuschneiden, um relevante Ergebnisse zu erzielen.
- Prompt Engineering: Die Erstellung effektiver Eingabeaufforderungen verbessert die Genauigkeit von Ausgaben.
- Regelmäßige Updates: LLMs benötigen kontinuierliches Training, um aktuell zu bleiben.
- Einsatz von Cloud-Diensten: Anbieter wie NVIDIA oder OpenAI bieten skalierbare Lösungen für Unternehmen.
- Datenethik: Sensible Daten sollten durch Anonymisierung geschützt werden.
Ethische Herausforderungen in der KI: Chancen und Risiken abwägen
Mit der zunehmenden Verbreitung von Künstlicher Intelligenz und Large Language Models (LLMs) werden auch die ethischen Herausforderungen immer präsenter. Obwohl diese Technologien viele Vorteile bringen, werfen sie Fragen zu Fairness, Verantwortung und Transparenz auf. Die Balance zwischen Innovation und ethischer Verantwortung ist entscheidend, um langfristig Vertrauen in diese Systeme aufzubauen.
Wichtige ethische Aspekte bei der Nutzung von KI
- Bias und Diskriminierung: KI-Modelle spiegeln die Daten wider, mit denen sie trainiert wurden. Wenn diese Daten Vorurteile oder Diskriminierungen enthalten, übernehmen die Modelle diese und verstärken sie in ihren Ergebnissen. Dies kann sich in subtilen Formen zeigen, wie der Bevorzugung bestimmter Gruppen in Bewerbungsprozessen, oder in offensichtlicher Diskriminierung, wie rassistisch gefärbten Textvorschlägen. Es erfordert gezielte Maßnahmen wie Bias-Tests und diverse Datensätze, um diese Risiken zu minimieren.
- Missbrauchsgefahr: Die Fähigkeit von LLMs, realistische Texte und Inhalte zu generieren, birgt erhebliche Risiken. Täuschend echte Fake News können soziale Spaltungen verstärken, während automatisierte Phishing-E-Mails schwerer zu erkennen sind und Verbraucher gefährden. Unternehmen und Regierungen müssen daher Strategien entwickeln, um solche Technologien verantwortungsvoll zu regulieren und Missbrauch vorzubeugen, beispielsweise durch Wasserzeichen in generierten Inhalten.
- Datenschutzprobleme: Beim Training auf riesigen Datensätzen besteht die Gefahr, dass sensible oder persönliche Informationen unabsichtlich im Modell „gespeichert“ werden und später abrufbar sind. Ein bekanntes Beispiel ist, dass KI-Modelle vertrauliche Informationen wie Kreditkartendaten wiedergeben konnten. Hier sind strenge Datenschutzrichtlinien und Verfahren wie Datenanonymisierung und die Einhaltung von Standards wie GDPR von entscheidender Bedeutung.
- Intransparenz: Viele Large Language Models sind „Blackbox-Systeme“, bei denen es schwierig ist, nachzuvollziehen, wie sie zu einer bestimmten Entscheidung oder Antwort gelangt sind. Diese Intransparenz erschwert es, Verantwortlichkeit zu übernehmen und Vertrauen aufzubauen. Forschung im Bereich Explainable AI (XAI) zielt darauf ab, diese Modelle verständlicher zu machen, indem sie Einblicke in die zugrunde liegenden Prozesse bieten.
- Umweltbelastung: Das Training eines einzigen großen Sprachmodells kann Hunderte von Tonnen CO₂ emittieren, vergleichbar mit dem jährlichen Verbrauch von Dutzenden Haushalten. Dieser Energieverbrauch ergibt sich aus der intensiven Nutzung von GPUs und Rechenzentren. KI-Unternehmen arbeiten zunehmend daran, diese Belastung durch energieeffizientere Hardware, optimierte Algorithmen und die Nutzung erneuerbarer Energien zu reduzieren.
Mit einer bewussten Auseinandersetzung und klaren Strategien können diese Herausforderungen angegangen und die Potenziale der KI verantwortungsvoll genutzt werden. Diese ethischen Herausforderungen zeigen, dass Fortschritt in der KI nicht nur eine technische, sondern auch eine moralische Verantwortung mit sich bringt.
Schlussfolgerung zu Large Language Models
Large Language Models (LLMs) markieren einen Meilenstein in der Entwicklung künstlicher Intelligenz und eröffnen ein enormes Potenzial für nahezu jede Branche. Ihre Fähigkeit, Sprache zu verstehen, zu generieren und in kontextuellen Zusammenhängen zu analysieren, macht sie zu einem vielseitigen Werkzeug. Ob bei der Automatisierung von Prozessen, der Verbesserung von Kundenerfahrungen oder der Unterstützung wissenschaftlicher Entdeckungen – die Einsatzmöglichkeiten sind nahezu grenzenlos.
Die Chancen: Revolution in vielen Bereichen
LLMs haben das Potenzial, menschliche Kreativität und Produktivität zu transformieren. Sie können mühsame Aufgaben wie die Texterstellung, Übersetzung oder Datenanalyse automatisieren und gleichzeitig neue Perspektiven eröffnen. In der Medizin helfen sie beispielsweise bei der Entwicklung neuer Medikamente, indem sie Proteinstrukturen analysieren, oder unterstützen Ärzte durch die Verarbeitung riesiger medizinischer Datenmengen.
Auch in der Wirtschaft bieten LLMs immense Vorteile: Marketingteams nutzen sie, um personalisierte Inhalte zu erstellen, Softwareentwickler profitieren von Code-Vorschlägen, und Unternehmen verbessern ihren Kundensupport durch intelligente Chatbots. Die Geschwindigkeit und Skalierbarkeit, mit der LLMs große Datenmengen verarbeiten können, macht sie unverzichtbar in einer datengetriebenen Welt.
Ethische Herausforderungen: Die Verantwortung wächst
So beeindruckend die Möglichkeiten auch sind, sie kommen nicht ohne ethische und gesellschaftliche Herausforderungen. Modelle, die auf voreingenommenen Daten trainiert werden, können Vorurteile verstärken und diskriminierende Ergebnisse liefern. Darüber hinaus birgt die Fähigkeit, täuschend echte Inhalte zu generieren, das Risiko von Missbrauch, etwa durch Fake News oder Desinformation.
Ein weiteres Problem ist die Intransparenz vieler Modelle: Entscheidungen und Ergebnisse sind oft schwer nachvollziehbar, was Vertrauen und Verantwortlichkeit erschwert. Der enorme Energieverbrauch, der mit der Entwicklung und dem Betrieb von LLMs einhergeht, stellt zudem eine ökologische Herausforderung dar, die nicht ignoriert werden darf.
Technische Grenzen und Ausblick
Trotz ihrer Fortschritte stehen LLMs vor technischen Grenzen. Overfitting, hohe Skalierungskosten und der Bedarf an riesigen, diversifizierten Datensätzen zeigen, dass diese Technologie noch nicht perfekt ist. Gleichzeitig arbeiten Forscher an Lösungen, wie effizienteren Modellen oder neuen Ansätzen wie den Large Concept Models (LCMs), die semantische Beziehungen auf Satzebene nutzen.
Fazit: Der verantwortungsvolle Umgang ist entscheidend
Die Entwicklung von LLMs hat uns an einen Punkt gebracht, an dem Technologie Aufgaben übernimmt, die zuvor nur Menschen vorbehalten waren. Doch ihr Erfolg hängt davon ab, wie wir mit den ethischen, technischen und ökologischen Herausforderungen umgehen. Unternehmen sollten in personalisierte, auf ihre Bedürfnisse zugeschnittene Modelle investieren und gleichzeitig auf Nachhaltigkeit und Fairness achten.
Die Zukunft der LLMs ist vielversprechend – doch sie erfordert Innovationsgeist und Verantwortungsbewusstsein. Möchtest Du wissen, wie diese Technologie auch Deine Branche revolutionieren kann? Kontaktiere uns für eine individuelle Beratung und entdecke die Chancen, die LLMs bieten.
Quellen und Referenzen zu Large Language Models
- NVIDIA: Large Language Models Explained
- Marktechpost: What are Large Language Models (LLMs)?