Zamina Ahmad berät Organisationen im Umgang mit Künstlicher Intelligenz (KI). Bei dem Branchenevent „Austausch mit Abendbrot“ des Sozialkontors sprach sie über KI und Ethik in der Praxis. Im Interview erklärt sie, worauf soziale Träger achten sollten – und wie sie Künstliche Intelligenz sinnvoll einsetzen können, ohne Teilhabe zu gefährden.
Zamina, du arbeitest seit vielen Jahren mit KI‑Systemen. Wann hast du erkannt: Diese Technologie braucht klare Regeln?
Früher arbeitete ich als Datenanalystin, da wurde mir schnell klar: Kein Datensatz ist perfekt. Daten zeigen nie die ganze Wirklichkeit. Später, in der Entwicklung von KI‑Systemen, habe ich gesehen: Solche Systeme können ungerechte Entscheidungen treffen – und im schlimmsten Fall Diskriminierung verstärken. Deshalb brauchen wir ethische Leitplanken. Wir müssen uns fragen: Was ist fair? Was ist erklärbar? Wie schützen wir Daten?
Du sagst: KI ist nicht neutral. Was heißt das für soziale Organisationen wie das Sozialkontor?
Künstliche Intelligenz ist auf Durchschnitt ausgelegt. Das heißt, wenn ich einen Prompt abschicke (Anmerkung der Redaktion: Prompts sind Texteingaben, mit denen Nutzer*innen ein KI‑System steuern), bekomme ich eine Antwort, die stark an typischen Mustern orientiert ist. Aber soziale Organisationen arbeiten oft mit Menschen, die nicht dem Durchschnitt entsprechen. Wenn wir diese Gruppen nicht gezielt mitdenken, geraten sie in der KI aus dem Blick.
Und wie kann eine Organisation das verhindern – auch wenn sie selbst keine KI programmiert?
Wichtig ist, die Ergebnisse kritisch zu hinterfragen: Passt das zu unserer Zielgruppe? Spiegelt das die Lebensrealitäten der Menschen, mit denen wir arbeiten? Würde ich als Fachkraft genauso entscheiden? Oft hilft schon gesunder Menschenverstand, um Schwächen in der Technik zu erkennen.
Bei der Netzwerkveranstaltung Austausch mit Abendbrot des Sozialkontors hast du von einem „ethischen Kompass“ gesprochen. Was meinst du damit konkret?
Ich meine damit eine Art Haltung oder Orientierungshilfe. Es geht um Fairness, Datenschutz, Transparenz – aber auch um Nachhaltigkeit. Etwa: Wie viel Energie verbraucht ein KI-System? Und um Partizipation: Wer wird bei Entscheidungen einbezogen? Organisationen sollten überlegen: Was ist uns besonders wichtig? Daraus entsteht ein bewusster Umgang mit KI.
Welche Einsatzmöglichkeiten für KI gibt es in der Sozialwirtschaft?
Ein Beispiel: Ich arbeite gerade an einem Chatbot (Anmerkung der Redaktion: Ein Chatbot ist ein textbasiertes Dialogsystem, das automatisiert auf Fragen oder Eingaben von Nutzer*innen antwortet – zum Beispiel auf Webseiten) für Menschen, die Rassismus erlebt haben. Dieser Bot soll Sozialarbeiter*innen entlasten – nicht ersetzen. Er kann bei rechtlichen Fragen erste Orientierung geben, zum Beispiel: Was ist Diskriminierung? Wie kann ich mich wehren? An wen kann ich mich wenden, um eine Beratung zu bekommen? Das zeigt: KI kann sinnvoll unterstützen, wenn sie gut gemacht ist – immer als Ergänzung, nie als Ersatz für persönliche Beratung.
Mit KI lässt sich auch Verwaltungsaufwand reduzieren – wie groß ist hier das Einsparpotenzial für soziale Unternehmen?
Das Potenzial ist groß. Gerade bei Anträgen, Berichten oder anderen Routineaufgaben kann KI helfen. Ich denke, 15 bis 30 Prozent des Verwaltungsaufwands lassen sich damit entlasten. Und das ist wichtig – denn der eigentliche Zweck sozialer Arbeit ist der Mensch, nicht das Papier.
Was wünschst du dir von der Politik – und von der Sozialwirtschaft?
Von der Politik wünsche ich mir klare Regeln. Ein guter Schritt ist der „EU AI Act“ (Anmerkung der Redaktion: Der EU AI Act ist ein europäisches Gesetz zur Regulierung von Künstlicher Intelligenz. Er unterscheidet zum Beispiel zwischen risikoreichen und weniger risikoreichen KI‑Anwendungen). Und von sozialen Trägern wünsche ich mir: keine Angst vor Technik – aber auch kein naives Vertrauen. KI ist kein Wundermittel. Wichtig ist ein kluger, bewusster Umgang: Wo hilft sie wirklich – und wo muss der Mensch im Mittelpunkt bleiben?
Fotos: shades&contrast / Sapna Richter

