Der KI-Chatbot Youna soll Menschen, die von Rassismus betroffen sind, eine mentale Erstversorgung verschaffen. Wir haben uns das mal genauer angeschaut…
Am Anfang sei es eine fixe Idee gewesen, sagt Said Haider. Nach eigenen rassistischen Erfahrungen und mehreren vergeblichen Versuchen, sofort Hilfe zu finden, beschließt der Jurist, selbst ein Konzept für ein solches Angebot zu schreiben. Mit Experten und Expertinnen aus den Bereichen Tech, Diversity, Psychologie und Kommunikation gründet Haider eine gemeinnützige Unternehmergesellschaft. Das Team entwickelt einen KI-Chatbot für von Rassismus betroffene Menschen und alle, die Betroffene unterstützen möchten. „Richtig eingesetzt kann Künstliche Intelligenz zu gesellschaftlichen und institutionellen Verbesserungen beitragen, hin zu mehr Gleichberechtigung und Chancengleichheit. Unser Start-Up ist dafür ein exemplarisches Beispiel“, so der Gründer.
Inzwischen trägt der Chatbot den Namen Youna, eine Kurzform der englischen Version von „du bist nicht allein“(you are not alone). Die Non-Profit-Organisation wird vom Bundesministerium für Wirtschaft und Klimaschutz sowie der Robert Bosch Stiftung unterstützt. Weitere Förderpartnerin ist die Crespo Foundation:
Die Frankfurter Verbrauchsstiftung setzt sich in ihrer Förderung gegen Diskriminierung und für die mentale Gesundheit junger Menschen ein. „Ein für uns wichtiger Fördergrund war, dass mit der Unterstützung von Menschen, die von Rassismus betroffen sind, in unserem Fokusthema ‚Mentale Gesundheit junger Menschen‘ eine wichtige Zielgruppe unterstützt wird. Damit kann Youna eine Lücke im Beratungs- und Hilfsangebot füllen“, begründet Vorständin Prof. Christiane Riedel die Förderpartnerschaft.
Von Betroffenen entwickelt und getestet
Youna basiert auf dem Dienst ChatGPT des US-Anbieters OpenAI sowie dem von Anthropic entwickelten Sprachmodell Claude. „Das Datenschutzniveau in den USA ist nach einem Angemessenheitsbeschluss der EU-Kommission vergleichbar mit dem in der Europäischen Union. OpenAI wird die von den Betroffenen angegebenen Daten nicht für eigene Zwecke verwenden“, erläutert Haider.
„Daten nicht für eigene Zwecke verwenden“
Während Diskriminierung durch künstliche Intelligenz häufig kritisiert wird, legt das Youna-Team bei der Programmierung besonderen Wert auf eine rassismussensible Sprache. „Wir vereinen sowohl fachliche Expertise als auch die Perspektive Betroffener. Diese doppelte Stärke bildet das Fundament für ein Produkt, das die Bedürfnisse der Zielgruppe wirklich kennt und versteht“, erläutert Nasanin Montazeri, Leiterin der Kommunikation.
Die Bibliothek des Bots wird ständig erweitert, dabei helfen User, die ihre emotionale Reise nach einer rassistischen Diskriminierungserfahrung möglichst exakt wiedergeben. Fachleute optimieren und aktualisieren alle Prozesse kontinuierlich: Computerlinguisten haben Gesprächsformeln erarbeitet, Psychotherapeuten prüfen die Dialogführung der KI und Mental-Health-Coaches geben mit Achtsamkeitsübungen Tipps zur Ersthilfe.
Betroffene erreichen den Chatbot rund um die Uhr, anonym und kostenlos über die Homepage youarenotalone.ai und können im Gesprächsverlauf angeben, ob sie den Vorfall juristisch melden wollen, eine allgemeine Beratungsstelle finden oder den Kontakt zu einer aktivistischen Community suchen. Anschließend zeigt Youna Handlungsmöglichkeiten auf, angepasst auf die Bedürfnisse der User. „Youna ist kein therapeutischer Ersatz und soll weder Menschen noch eine Beratungsstelle ersetzen“, betont Montazeri. Vielmehr soll die KI-gestützte Anwendung niederschwellig dabei helfen, sich unmittelbar nach einer rassistischen Diskriminierungserfahrung zu sortieren. Der Chatbot nimmt dabei eine Lotsenfunktion ein und kann Menschen, die erst einmal nicht weiterwissen, mehr Klarheit verschaffen und ihnen das Gefühl von Handlungsfähigkeit geben. Bei acht von zehn Betroffenen gelingt das bereits, laut internen Auswertungen des Unternehmens. Wie groß der Bedarf an Unterstützung ist, zeigen die Zugriffszahlen: Monatlich nutzen derzeit rund 3000 Betroffene das kostenlose Beratungsangebot.