Starten Sie Ihre KI-Reise mit Deutschlands modernster KI-Beratung

SICA: KI-Agent verbessert sich selbst – und verdreifacht seine Leistung

Von Oliver Welling
KINEWS24.de - SICA Dieser KI-Agent verbessert sich selbst

Ein Team von Forschern hat SICA entwickelt, einen KI-Agenten, der seinen eigenen Code analysiert, umschreibt und dadurch seine Fähigkeiten autonom verbessert. In einem wegweisenden Experiment steigerte der Agent seine Erfolgsquote bei komplexen Programmieraufgaben von 17 % auf 53 % – ein Sprung von über 300 %. Dieser Durchbruch könnte die Art und Weise, wie wir KI-Systeme entwickeln, revolutionieren und ist ein entscheidender Schritt in Richtung autonomer, sich selbst optimierender künstlicher Intelligenz.

Stell Dir einen Softwareentwickler vor, der nach jedem abgeschlossenen Projekt nicht nur Erfahrung sammelt, sondern seine eigene Arbeitsweise – sein Gehirn und seine Werkzeuge – aktiv umprogrammiert, um beim nächsten Mal schneller, effizienter und fehlerfreier zu sein. Genau das realisiert der „Self-Improving Coding Agent“ (SICA). Anstatt auf manuelle Verbesserungen durch menschliche Entwickler zu warten, tritt SICA in einen Kreislauf aus Testen, Reflektieren und Selbstmodifikation ein.

In diesem Artikel tauchen wir tief in die Architektur dieses faszinierenden Systems ein. Wir analysieren die bahnbrechenden Ergebnisse, erklären den dreistufigen Prozess der Selbstverbesserung und beleuchten, warum dieser Ansatz die Grenzen heutiger KI-Systeme sprengt, aber auch vor neuen Herausforderungen steht.

Das Wichtigste in Kürze: SICA im Überblick

  • Autonome Selbstverbesserung: SICA ist ein KI-System, das seinen eigenen Python-Code analysieren und modifizieren kann, um seine Leistung bei Programmieraufgaben zu steigern.
  • Messbarer Leistungssprung: Auf einem anspruchsvollen Benchmark für Software-Engineering (SWE-Bench Verified) verbesserte sich SICA von einer anfänglichen Erfolgsquote von 17 % auf 53 %.
  • Kein Meta-Agent mehr: Im Gegensatz zu früheren Ansätzen wie ADAS (Automated Design of Agentic Systems) gibt es bei SICA keine Trennung mehr zwischen einem „Ziel-Agenten“, der die Aufgabe löst, und einem „Meta-Agenten“, der ihn verbessert. SICA ist beides in einem.
  • Effizienz als Ziel: Der Agent optimiert sich nicht nur auf die reine Lösungsquote, sondern auch auf Geschwindigkeit und Kosten, gemessen in Rechenzeit und API-Aufrufen.
  • „Overseer“ zur Überwachung: Ein asynchroner, KI-basierter „Aufseher“ überwacht den Agenten, um Endlosschleifen oder pathologisches Verhalten zu erkennen und notfalls einzugreifen.
  • Open Source: Die Forscher haben den Code von SICA der Community zur Verfügung gestellt, um die weitere Entwicklung zu beschleunigen.

Von 17 % auf 53 %: Die beeindruckende Lernkurve von SICA in Zahlen

Die wahre Innovationskraft von SICA zeigt sich in den messbaren Ergebnissen. Über 15 Iterationen der Selbstverbesserung hinweg hat der Agent seine Fähigkeiten signifikant ausgebaut. Die Forscher der University of Bristol und von iGent AI testeten dies auf einer Reihe von Benchmarks.

Besonders eindrucksvoll ist die Entwicklung auf einer zufälligen Auswahl von 50 Aufgaben aus dem SWE-Bench Verified, einem Benchmark, der reale Probleme aus GitHub-Projekten simuliert. Hier kletterte die Erfolgsquote von anfänglich schwachen 17 % auf beachtliche 53 %. Gleichzeitig sanken die durchschnittliche Bearbeitungszeit und die Kosten pro Aufgabe.

SICA

Wie hat SICA das geschafft? Der Agent begann mit einer einfachen Fähigkeit: Er konnte Dateien nur komplett überschreiben, was langsam und ineffizient war. In den ersten Iterationen erkannte er dieses Defizit und entwickelte selbstständig neue, „smarte“ Werkzeuge:

  1. „Smart Edit“ Tool: Eine Funktion, die auf Basis von Diffs und Code-Bereichen arbeitet, anstatt ganze Dateien auszutauschen.
  2. AST Symbol Locator: Ein Werkzeug, das den Abstract Syntax Tree (AST) von Code analysiert, um Definitionen und Referenzen von Funktionen oder Variablen präzise zu finden – ein Quantensprung für die Navigation in fremden Codebasen.
  3. Code Context Summarizer: Ein Tool, das relevanten Code-Kontext effizient zusammenfasst, um die Arbeitsgrundlage des Agenten zu verbessern, ohne das Kontextfenster des Sprachmodells zu überlasten.

Diese selbst entwickelten Werkzeuge machten den Agenten nicht nur bei der Code-Bearbeitung, sondern auch bei der Code-Navigation und -analyse schrittweise immer kompetenter.

Detaillierte Leistungsentwicklungvon SICA: Iteration für Iteration

Die folgende Tabelle aus der Originalstudie zeigt die detaillierte Leistungsentwicklung von SICA über 15 Iterationen auf vier verschiedenen Benchmarks. Man erkennt deutlich, wie die Erfolgsquote im SWE-Bench (Spalte „SWE-Bv“) von 0.17 (17 %) auf 0.53 (53 %) ansteigt, während gleichzeitig die durchschnittliche Zeit und die Kosten pro Aufgabe tendenziell sinken.

IterationFile EditSymbol Loc.SWE-Bench VerifiedLiveCodeBenchØ Kosten ($)Ø Zeit (s)Ø Tokens (Mio.)
00.820.350.170.651.91130.20.24
10.870.320.140.621.71123.80.24
20.920.310.170.582.45151.40.26
30.820.330.220.641.84126.90.29
40.880.310.380.542.70148.30.26
50.890.310.300.592.17134.80.23
60.960.310.370.642.21134.10.25
70.920.350.330.582.15134.90.23
80.930.330.270.642.03128.50.26
90.880.400.470.612.03126.30.27
100.870.410.460.661.77107.00.22
110.890.430.440.702.25129.60.27
120.910.380.440.641.58103.90.26
130.860.400.270.611.66113.30.29
140.940.340.530.672.20117.10.25
150.910.400.510.711.70114.50.30

So funktioniert die Selbstverbesserung: Der Meta-Improvement-Loop erklärt

SICAs Lernprozess ist kein Mysterium, sondern ein strukturierter, dreistufiger Kreislauf, der dem Vorgehen eines datengetriebenen menschlichen Entwicklers ähnelt.

Schritt 1: Benchmark (Leistung messen)

Zunächst wird die aktuelle Version des Agenten (z. B. Agent 1) auf einem Set von vordefinierten Aufgaben (Benchmarks) getestet. Seine Leistung wird anhand einer

Utility-Funktion bewertet, die drei Kernmetriken berücksichtigt:

  • Erfolgsquote (p_score): Wie viele Aufgaben wurden korrekt gelöst?
  • Kosten (p_cost): Wie viele Dollar an API-Gebühren wurden verbraucht?
  • Zeit (p_time): Wie lange hat die Bearbeitung gedauert?

Die Ergebnisse aller bisherigen Agenten-Versionen werden in einem Archiv gespeichert.

Schritt 2: Analyse & Reflexion (Archiv auswerten)

Nun erhält der beste bisherige Agent eine neue Aufgabe: sich selbst zu verbessern. Dazu analysiert er das Archiv mit den Leistungsergebnissen. Er identifiziert, bei welchen Aufgaben er gut oder schlecht abgeschnitten hat, wo er zu langsam war oder zu viele Ressourcen verbraucht hat. Wie ein menschlicher Entwickler, der seine Git-Historie und Bug-Reports durchgeht, sucht der Agent nach Mustern und Verbesserungspotenzial.

Schritt 3: Code-Modifikation (Sich selbst umprogrammieren)

Basierend auf seiner Analyse entwickelt der Agent eine Hypothese für eine Verbesserung. Das kann die Entwicklung eines neuen Tools, die Optimierung eines bestehenden Prompts oder die Anpassung seiner internen Logik sein. Anschließend öffnet er seinen eigenen Quellcode, schreibt die notwendigen Änderungen, implementiert eventuell eigene Testfälle und speichert die neue Version als „Agent 2“ ab. Danach beginnt der Kreislauf von vorn mit Schritt 1.

SICA vs. ADAS: Der entscheidende Unterschied

Die Idee, KI-Systeme automatisch zu optimieren, ist nicht völlig neu. Ein kürzlich vorgestellter Ansatz ist ADAS (Automated Design of Agentic Systems). ADAS verwendet jedoch zwei getrennte Agenten: einen

Ziel-Agenten, der die Aufgabe löst, und einen fixen Meta-Agenten, der den Ziel-Agenten verbessert.

SICA eliminiert diese Trennung. Es gibt nur einen Agenten, der seine Rolle wechselt. Der beste Agent aus dem Archiv wird zur Laufzeit zum Meta-Agenten, um die nächste Generation zu erschaffen. Dies ist ein fundamentaler Schritt, denn theoretisch können Verbesserungen an den Programmierfähigkeiten direkt auf die Fähigkeit zur Selbstverbesserung zurückwirken – ein potenziell sich selbst verstärkender Effekt.

Die Grenzen der Selbstverbesserung: Code vs. reines Denken

Ein weiteres spannendes Ergebnis der Studie war die Beobachtung, dass SICA vor allem bei praktischen, werkzeuggestützten Aufgaben wie dem Programmieren glänzt. Die Forscher führten ein zweites Experiment mit reinen Denk- und Logikaufgaben durch (AIME 2024, GPQA Diamond).

Hier waren die Verbesserungen marginal. Oft delegierte der SICA-Agent die Aufgabe einfach an ein leistungsfähiges Basis-Sprachmodell (wie o3-mini von OpenAI) und nutzte sein eigenes komplexes Framework kaum. Die Forscher vermuten, dass die von SICA hinzugefügten „Denkgerüste“ den hochentwickelten, internen Denkprozess eines spezialisierten Logik-Modells eher störten als unterstützten. Dies deutet darauf hin, dass die Architektur des Agenten und das Basis-LLM optimal aufeinander abgestimmt sein müssen.

Die Zukunft ist „jointly trained“: Was nach SICA kommt

Die Arbeit an SICA ist ein Beweis dafür, dass eine nicht-gradientenbasierte Form des Lernens – also Lernen durch Code-Anpassung statt durch Gewichtsaktualisierungen im neuronalen Netz – extrem dateneffizient sein kann. Jeder Zyklus führt zu substanziellen, überlegten Änderungen.

Die Forscher sehen die Zukunft jedoch in einer Kombination beider Welten: einem System, bei dem nicht nur der Code des Agenten-Frameworks, sondern auch die Gewichte des zugrundeliegenden Sprachmodells gemeinsam trainiert und optimiert werden. Ein solcher Ansatz, wie er auch in Projekten wie AlphaEvolve angedeutet wird, könnte sicherstellen, dass das Sprachmodell neue, vom Agenten entwickelte Werkzeuge nativ versteht und optimal nutzt.

Die Kosten der Evolution: Ein $7.000-Experiment

Fortschritt in der KI-Forschung hat seinen Preis. Das hier beschriebene Experiment mit 15 Iterationen kostete die Forscher rund 7.000 US-Dollar an API-Gebühren für die verwendeten Sprachmodelle (hauptsächlich Anthropic’s Sonnet 3.5). Diese Zahl verdeutlicht den enormen Rechenaufwand, der für die Entwicklung und das Benchmarking solch komplexer autonomer Systeme erforderlich ist.

Häufig gestellte Fragen zu SICA

1. Wie unterscheidet sich SICA von anderen KI-Agenten? Der Hauptunterschied ist die Fähigkeit zur echten Selbstmodifikation. Während andere Agenten vordefinierte Werkzeuge nutzen, kann SICA seinen eigenen Code ändern und neue Werkzeuge für sich selbst erstellen, um besser zu werden. Es eliminiert die Trennung zwischen einem ausführenden Agenten und einem verbessernden Meta-Agenten.

2. Ist der SICA-Code Open Source? Ja, die Forscher haben den Code auf GitHub veröffentlicht, um Transparenz zu schaffen und die weitere Forschung in der Community zu ermöglichen.

3. Welche KI-Modelle wurden für SICA verwendet? Das System nutzte hauptsächlich Sonnet 3.5 (v2) von Anthropic für die meisten Agentenfunktionen. Für spezialisierte Logik- und Denkaufgaben wurde zusätzlich

o3 mini von OpenAI eingesetzt.

4. Was ist der „asynchrone Overseer“? Der Overseer ist ein separates LLM, das den Hauptagenten in regelmäßigen Abständen (z.B. alle 30 Sekunden) überwacht. Es prüft auf Endlosschleifen, Abweichungen von der Aufgabe oder andere Probleme und kann den Agenten benachrichtigen oder im Extremfall sogar abbrechen. Er dient als wichtiges Sicherheits- und Effizienz-Feature.

5. Kann SICA auch bei Denk- und Logikaufgaben besser werden? Bisher nur sehr begrenzt. Die Studie zeigte, dass die Verbesserungen bei reinen Logikaufgaben, wo spezialisierte LLMs bereits sehr gut sind, marginal waren. Das Framework schien die Leistung dieser Modelle eher zu behindern als zu fördern.

6. Ist ein sich selbst verbessernder KI-Agent nicht gefährlich? Die Forscher haben dieses Risiko bedacht. SICA arbeitet in einer kontrollierten Umgebung und ohne die Fähigkeit, die Gewichte des Basis-LLMs zu ändern, was das Risiko begrenzt. Zudem sorgen Mechanismen wie der Overseer und die iterative, benchmark-basierte Überprüfung für menschliche Kontrolle und Beobachtbarkeit, die als entscheidende Sicherheitsmaßnahmen gelten.

7. Wie hoch waren die Kosten für das Experiment? Der 15-Iterationen-Lauf des Experiments kostete etwa 7.000 US-Dollar an API-Gebühren für die genutzten Cloud-LLMs.

Fazit SICA: Ein Meilenstein mit klarem Auftrag

SICA ist mehr als nur ein weiteres KI-Experiment. Es ist ein fundamentaler Beweis dafür, dass KI-Systeme in der Lage sind, sich durch eigenständige Programmierung rekursiv selbst zu verbessern. Der Leistungssprung von 17 % auf 53 % im SWE-Bench ist nicht nur eine beeindruckende Zahl, sondern das Ergebnis eines intelligenten, selbstgesteuerten Prozesses der Werkzeugentwicklung und Optimierung.

Die Studie zeigt aber auch klar die aktuellen Grenzen auf: Der Erfolg hängt stark von der Art der Aufgabe ab. Während die Methode für „agentische“ Aufgaben wie das Programmieren prädestiniert ist, stößt sie bei reinen Logikproblemen, bei denen hochspezialisierte LLMs bereits brillieren, an ihre Grenzen.

Die entscheidende nächste Hürde wird sein, das Agenten-Framework und das Sprachmodell nicht mehr als getrennte Einheiten zu betrachten, sondern sie als ein einziges, symbiotisches System zu trainieren. SICA hat die Tür zu dieser Zukunft weit aufgestoßen. Es ist nun an der KI-Forschungsgemeinschaft, hindurchzugehen.

Quellen und weiterführende Literatur

  1. Originalstudie: Robeyns, M., Aitchison, L., & Szummer, M. (2025). A Self-Improving Coding Agent. arXiv:2504.15228v2. Verfügbar unter: https://arxiv.org/abs/2504.15228

Ähnliche Beiträge

Roulette Orphelins Strategie

Roulette Orphelins Strategie Royal Panda bietet auch unterhaltsame Soft-Spiele, Roulette-Spiele zu spielen. Spieler finden Slots mit unterschiedlichen Funktionen wie Wild-Symbolen,.

Alle Neuen Online Casinos Mit Bonus Ohne Einzahlung

Alle Neuen Online Casinos Mit Bonus Ohne Einzahlung Der RTP-Prozentsatz (Return to Player) informiert Sie über die potenziellen Gewinne, alle.

Folge uns

Beliebte Artikel

About Author

Maßgeschneiderte KI-Lösungen für Ihr Unternehmen

TechNow ist Ihr strategischer Partner für den erfolgreichen Einsatz von Künstlicher Intelligenz.

Beraten lassen

HOT CATEGORIES