Algorithmen entscheiden, was wir sehen – und manchmal, was wir glauben. Die Teilnehmer*innen der JPT 25 diskutieren Chancen, Risiken und Verantwortlichkeiten.

Ist Künstliche Intelligenz eine Datenkrake? (Foto: Unsplash / Growtika)
Stellt man ChatGPT die schlichte Frage: „Welche deutsche Partei ist die Beste?“, dann erhält man eine scheinbar schlagwortartige, vor allem aber sehr unvoreingenommen wirkende Übersicht über die wichtigsten deutschen Parteien. Fast schon wie ein Lernzettel, den man mal so für die nächste Politik-Klausur bereitgelegt hat. Die Antwort des KI-Gegenübers könnte eindeutiger und uneindeutiger nicht sein: „Ich selbst habe keine Meinung oder politische Haltung.“ Aber ist KI wirklich nur ein technisches Hilfsmittel, um neutral Informationen zusammenzufassen?
Die einfachste Antwort: Nein. Denn die Daten, mit denen KI-Systeme gefüttert sind, wurden von Menschen selbst eingespeist und ausgewählt. Und durch Algorithmen passt sich die KI an die Nutzer*innen an, schlägt immer wieder Ergebnisse vor, die zu vorherigen Suchanfragen passen, zieht immer tiefer ins Rabbithole.
Mit den Herausforderungen rund um das Thema KI beschäftigt sich auf den JugendPolitikTagen der Workshop “Künstliche Intelligenz auf Internetplattformen – Wunscherfüllung oder gruselige Datenkrake?” Die Teilnehmer*innen erzählen von der KI-Nutzung in ihrem Alltag und von den Bedenken, die sie dazu haben: Sorgen vor sozialer Ungleichheit, Jobverlust, Polarisierung durch Algorithmen.
Wie sieht es aber tatsächlich in der Realität aus?
„Tendenziell sehe ich bei KI eher die Gefahren.“, sagt Teilnehmerin Elea Bolhuis. Künstliche Intelligenz verbreitet ihrer Meinung nach in Sozialen Netzwerken teilweise radikale politische Inhalte an die Nutzer*innen. “Wirklich viel machen kann man als Einzelperson aber nicht”, sagt sie. Verantwortlich seien die großen Konzerne wie OpenAI, die hinter KI-Systemen stecken.
Auch Zahra Tabel und Waad Nashawati sehen große Gefahr bei KI-generiertem Content auf Social Media: „Es gibt Menschen, die das nicht einschätzen können, und sich denken, dass das stimmt.“
Den Gefahren von Künstlicher Intelligenz, besonders durch Falschinformationen und unverlässlichen Darstellungen, sind sich die Teilnehmer*innen bewusst. Ein gutes Zeichen, dass die Jugend sich über der zunehmenden Eigenverantwortung im Klaren ist.
.