Starten Sie Ihre KI-Reise mit Deutschlands modernster KI-Beratung

Was KI mit uns macht – Empirische Studie beleuchtet die psychischen und sozialen Effekte

Von Oliver Welling
KINEWS24.de - Was KI mit uns macht – Empirische Studie beleuchtet die psychischen und sozialen Effekte

Künstliche Intelligenz (KI) spielt zunehmend eine bedeutende Rolle im Alltag vieler Menschen. Doch welche Auswirkungen hat der Dialog mit KI auf unsere sozialen, kognitiven und psychischen Strukturen? Eine umfangreiche empirische Studie des Instituts für Demoskopie Allensbach im Auftrag der Deutschen Telekom liefert erstmals repräsentative Daten zur Nutzung und zu den gesellschaftlichen Effekten generativer KI in Deutschland​.

10 zentrale Fakten der Studie:

1. Hohe Bekanntheit, moderate Nutzung
  • 91 Prozent der deutschen Bevölkerung ab 16 Jahren haben von KI gehört, wobei etwa 25 Prozent die Technologie aktiv nutzen​.
2. Faszination für KI-Fähigkeiten
  • 63 Prozent der Nutzer sind beeindruckt von den Fähigkeiten der KI, was die hohe Nutzungsabsicht in der Zukunft erklärt. Nutzer sind von der Präzision und Bequemlichkeit begeistert​.
3. KI als „Fast-Food-Wissen“
  • KI-Programme wie ChatGPT bieten schnellen Wissenszugang, was die Neigung zur Nutzung als primäre Informationsquelle fördert. Experten warnen jedoch, dass dies die Recherchefähigkeiten der Nutzer beeinträchtigen könnte​.
4. Einschätzung als Chance oder Risiko
  • Während Nutzer die Technologie mehrheitlich als Chance sehen, betrachten Nichtnutzer sie eher als Risiko. Dies zeigt, dass die persönliche Erfahrung eine große Rolle in der Bewertung spielt​.
5. Gesellschaftliche Sorge um Datenschutz
  • Datenschutz ist ein zentrales Anliegen: 55 Prozent der Nutzer sorgen sich, dass ihre Daten nicht anonym bleiben könnten, und 91 Prozent befürchten eine mögliche Unbeherrschbarkeit der KI in der Zukunft​.
6. Persönlicher Austausch und soziale Isolation
  • 22 Prozent der regelmäßigen KI-Nutzer vergessen gelegentlich, dass sie mit einer Maschine kommunizieren. Dennoch ersetzen KI-Chatbots echte soziale Interaktionen nicht und könnten langfristig die sozialen Fähigkeiten beeinträchtigen​.
7. Keine Rolle als Psychotherapeut
  • Ein Großteil der Befragten lehnt den Einsatz von KI in psychologischen oder therapeutischen Rollen ab. KI wird zwar als unterstützendes Tool für Wartelisten in der Therapie gesehen, aber nicht als eigenständiger Ersatz​.
8. Potenzial für neue Anwendungsfelder
  • Nutzer wünschen sich erweiterte Anwendungsgebiete wie Ernährungspläne, maßgeschneiderte Tagesgestaltung und personalisierte Newsfeeds. Solche Funktionen könnten das Nutzerpotenzial und die Nutzungsvielfalt weiter erhöhen​.
9. Steigende Nachfrage nach Medienkompetenz
  • Die Studie zeigt einen Bedarf an Medienkompetenz, um kritisches Denken gegenüber KI-generierten Inhalten zu fördern. Nutzer sollten lernen, KI-Ausgaben zu hinterfragen, um die Demokratie zu schützen​.
10. Abwägung von Chancen und Risiken im sozialen Miteinander
  • Zwei Drittel der Befragten befürchten, dass der zunehmende Austausch mit KI-Programmen das persönliche Miteinander verändern könnte, insbesondere die Fähigkeiten zur Konfliktbewältigung und Empathie​.

Diese Erkenntnisse bieten einen umfassenden Überblick über den derzeitigen Stand und die Wahrnehmung von KI in Deutschland und verdeutlichen die komplexen Chancen und Herausforderungen, die mit der Verbreitung von KI-Technologie einhergehen.

KI im Alltag: Wie häufig nutzen Menschen digitale Assistenten?

Ein zentraler Befund der Allensbach-Studie zeigt, dass etwa ein Viertel der deutschen Bevölkerung generative KI-Programme wie Chatbots aktiv nutzt. Weitere 24 Prozent der Befragten können sich vorstellen, solche Programme zukünftig einzusetzen. Besonders in der jüngeren Altersgruppe (30- bis 44-Jährige) steigt die Akzeptanz: Hier nutzt bereits jeder Zehnte regelmäßig einen KI-Chatbot​​.

Vertrauen und Bequemlichkeit vs. Skepsis: Das Verhältnis der Nutzer zur KI

Viele Nutzer sind von den Fähigkeiten der generativen KI fasziniert. Knapp 63 Prozent der Befragten schätzen die Präzision und Schnelligkeit der Technologie. Doch mit dieser Begeisterung geht auch ein Spannungsfeld einher: Obwohl mehr als die Hälfte der Nutzer (55 Prozent) den Output von KI-Assistenten als vertrauenswürdig ansieht, prüfen nur etwa 48 Prozent regelmäßig die gelieferten Antworten​.

KI und Freundschaften – Kann ein Chatbot ein echter Gesprächspartner sein?

Ein weiteres spannendes Ergebnis der Studie ist die Tendenz, KI-Gespräche teilweise wie menschliche Dialoge wahrzunehmen. Mehr als 22 Prozent der regelmäßigen Nutzer gaben an, dass sie manchmal vergessen, mit einer Maschine zu kommunizieren. Dennoch bleibt KI aktuell weit davon entfernt, menschliche Freunde zu ersetzen. Emotionales Verständnis, gemeinsame Erfahrungen und Empathie fehlen nach wie vor. Experten warnen zudem, dass KI-Nutzer durch die fehlende Fähigkeit der KI zur echten Interaktion und zum Widerspruch die eigene Konfliktfähigkeit verlieren könnten​​.

KI als Ratgeber für sensible Themen?

Die Studie untersuchte auch, ob KI-Chatbots eine Rolle als Beichtvater oder gar als psychologische Hilfe übernehmen könnten. Während eine solche Vorstellung aktuell noch auf Skepsis stößt, könnten KI-Assistenten künftig als begleitendes Diagnose- oder Wartetool bei Therapieengpässen dienen. Jedoch sind sich sowohl Nutzer als auch Experten einig, dass die KI menschliche Therapeuten keinesfalls ersetzen sollte. Nur 0,6 Prozent der Befragten haben KI-Chatbots jemals für persönliche Probleme konsultiert. Die Idee einer KI-gestützten „Beichte“ bleibt also für viele noch eine Zukunftsvision​​.

KI als Wissensträger – Gefahr einer „Fast-Food“-Gesellschaft?

Generative KI bietet Nutzern schnellen Zugang zu Informationen, und die sprachlich präzisen Antworten erwecken häufig den Anschein von Vollständigkeit und Korrektheit. Diese Komfortlösung kann jedoch dazu führen, dass Nutzer sich zunehmend auf die „erste Antwort“ verlassen und weniger Zeit in tiefgehende Recherchen investieren. Experten sehen hier die Gefahr einer Gesellschaft, die „Fast-Food-Wissen“ konsumiert, ohne Antworten kritisch zu hinterfragen. Um diesem Trend entgegenzuwirken, ist Medienkompetenz entscheidend: Antworten sollten stets überprüft und eigenständiges Denken gefördert werden​​.

Risiken und Herausforderungen: Manipulationsgefahr und Diskriminierung

KI-Systeme, die sich auf Daten aus dem Internet stützen, können fehlerhafte oder voreingenommene Informationen liefern. Fast zwei Drittel der Nutzer äußern Bedenken, dass KI ihre Meinungen manipulieren könnte. Durch personalisierte Informationen besteht das Risiko, dass KI-Modelle bestehende Vorurteile und Stereotype verstärken. Eine zunehmende „Blasenbildung“ könnte gesellschaftliche Spaltungen vertiefen, warnen die Studienautoren​.

Zusammenfassung und Zukunftsausblick

Die Studie des Instituts Allensbach zeigt: KI-Chatbots und andere digitale Assistenten sind bereits ein fester Bestandteil des Alltags vieler Deutscher. Die Erkenntnisse unterstreichen jedoch auch die Notwendigkeit eines kritischen Umgangs mit den neuen Technologien. Eigenes Wissen und analytisches Denken bleiben unverzichtbar, um Antworten richtig einordnen zu können. Die zunehmende Popularität der KI birgt das Potenzial, neue Kommunikationswege zu schaffen, doch sollte diese Entwicklung stets verantwortungsvoll und kritisch hinterfragt werden.

Die Telekom begleitet die Studie im Rahmen ihrer Initiative für digitale Verantwortung und arbeitet daran, Hemmschwellen abzubauen und die Bevölkerung über Chancen und Risiken der KI-Technologie aufzuklären. Diese Balance zwischen Faszination und Vorsicht wird entscheidend sein, um eine technologiegestützte, aber dennoch sozial und kognitiv fundierte Gesellschaft zu erhalten​.


Quellen:

  • Institut für Demoskopie Allensbach im Auftrag der Deutschen Telekom: Studie zur Nutzung und gesellschaftlichen Auswirkung generativer KI in Deutschland.
  • Pressemitteilung Telekom
  • Studien-Download

    Ähnliche Beiträge

    Business

    Reduzierte Halluzinationen bei KI-Modellen: Ein agentenbasierter Ansatz mit LangGraph

    Reduzierte Halluzinationen bei KI-Modellen: Ein agentenbasierter Ansatz mit LangGraph Halluzinationstypen: Intrinsische Halluzinationen: Widersprüche zwischen der Modellantwort und dem bereitgestellten Kontext..

    Business

    Windows 11 nativer Copilot braucht mehr RAM

    Windows 11 nativer Copilot braucht mehr RAM Verfügbarkeit: Der native Copilot ist ab sofort für alle Windows-11-Nutzer über den Microsoft.

    Folge uns

    Beliebte Artikel

    About Author

    Maßgeschneiderte KI-Lösungen für Ihr Unternehmen

    TechNow ist Ihr strategischer Partner für den erfolgreichen Einsatz von Künstlicher Intelligenz.

    Beraten lassen

    HOT CATEGORIES

    de_DEGerman