Eine unglaubliche Entdeckung, eine beeindruckende Innovation und ein dramatischer Rückzug. Als ein Nutzer herausfand, dass das KI-Tool „Make Designs“ von Figma ein Wetter-App-Design erzeugte, das dem von Apple erstaunlich ähnlich sah, sorgte das für Aufsehen. Figmas CEO Dylan Field versicherte zwar, dass keine Figma- oder App-Designs zur Schulung des Tools genutzt wurden, dennoch wurde das Feature sofort aus dem Verkehr gezogen. Was steckt wirklich dahinter? Das musst Du wissen – Skandal um Figma: Wie ein KI-Tool von Apple’s Design kopierte Ungeprüfte Komponenten: Figma fügte kurz vor dem Config-Event neue Komponenten hinzu, ohne sie ausreichend zu prüfen. Ähnlichkeiten entdeckt: Diese ungenügend geprüften Komponenten führten dazu, dass die KI Designs erzeugte, die realen Apps ähnelten. Sofortige Reaktion: Nach Bekanntwerden der Ähnlichkeiten entfernte Figma die problematischen Komponenten und deaktivierte das Tool. Verbesserte Prozesse: Figma arbeitet nun an verbesserten QA-Prozessen, um solche Vorfälle in Zukunft zu vermeiden. Wiederbelebung geplant: Das Unternehmen plant, das Tool nach Implementierung der neuen Prozesse wieder zu aktivieren. Figmas „Make Designs“ generatives KI-Tool, ursprünglich als bahnbrechende Innovation präsentiert, geriet schnell ins Kreuzfeuer der Kritik. Nutzer bemerkten, dass das Tool beim Erstellen einer Wetter-App-Designs hervorbrachte, die verdächtig nach Apple aussahen. Figma’s VP of Product Design, Noah Levin, erklärte, dass dies auf kürzlich hinzugefügte, ungeprüfte Komponenten zurückzuführen sei. Diese sollten ursprünglich die kreativen Möglichkeiten erweitern, führten aber zu unerwarteten Problemen. Nachdem das Problem identifiziert wurde, entfernte Figma die problematischen Elemente aus ihrem Design-System und deaktivierte die Funktion. Levin betonte, dass Figma nun an einem verbesserten QA-Prozess arbeitet, um sicherzustellen, dass solche Vorfälle nicht wieder vorkommen. CTO Kris Rasmussen fügte hinzu, dass Figma keine Modelle auf Basis von Figma- oder anderen App-Designs trainiert habe. Die verwendeten Modelle, darunter OpenAI’s GPT-4o und Amazons Titan Image Generator G1, erhielten ihre Anweisungen durch speziell entwickelte Design-Systeme, die aus Hunderten von Komponenten bestehen. Diese Systeme, aufgeteilt in mobile und Desktop-Designs, wurden mit umfangreichen Metadaten versehen. Diese Metadaten zusammen mit den Benutzereingaben gaben dem Modell die Freiheit, aus einer Vielzahl von Design-Bausteinen kreative Vorschläge zu generieren. Amazon Titan erzeugte dann die benötigten Bilder, basierend auf diesen parametrisierten Designs. Zusätzlich zum „Make Designs“-Tool stellte Figma auf der Config-Konferenz weitere KI-Werkzeuge vor, darunter ein Tool zur Textgenerierung für Designs, das weiterhin verfügbar ist. Die Nutzer haben die Möglichkeit, bis zum 15. August zu entscheiden, ob ihre Daten zur Schulung zukünftiger Modelle verwendet werden dürfen. Für Starter- und Professional-Pläne ist die Zustimmung standardmäßig aktiviert, während sie für Organisations- und Enterprise-Pläne deaktiviert ist. Fazit: Skandal um Figma: Wie ein KI-Tool von Apple’s Design kopierte Die Ereignisse rund um Figma’s „Make Designs“ Tool werfen ein Licht auf die Herausforderungen, denen Unternehmen bei der Implementierung von KI gegenüberstehen. Der Vorfall zeigt, wie wichtig gründliche Prüfprozesse und die Transparenz in der Nutzung von Daten sind. Figma’s schnelle Reaktion und die geplanten Verbesserungen in den QA-Prozessen sind ein Schritt in die richtige Richtung, um das Vertrauen der Nutzer zurückzugewinnen und die Integrität ihrer Tools sicherzustellen. Im digitalen Zeitalter, in dem KI immer mehr an Bedeutung gewinnt, bleibt es entscheidend, dass Unternehmen ethische Standards einhalten und mögliche rechtliche Konflikte vermeiden. Figma #AI #Design #Technology #Innovation The Verge: Figma’s New ‚Make‘ Feature Revolutio