Weit verbreitet, wenig qualifiziert: Ein Gespräch mit ZiviZ über KI-Nutzung im gemeinnützigen Sektor
Eine neue Studie von ZiviZ belegt: Im gemeinnützigen Sektor wird viel KI genutzt, tatsächliches Know-How zum KI-Einsatz fehlt aber. Wir haben bei den Autor*innen nachgefrag.
Mal eben schnell die KI fragen – das ist bereits gelebter Alltag für einen Großteil der Engagierten und Beschäftigten im gemeinnützigen Sektor. Doch Richtlinien zur Nutzung oder Aufbau von Kompetenzen fehlt in den meisten Organisationen. Diese Erkenntnis lieferte im Dezember 2025 eine Studie, die in Kooperation von Zivilgesellschaft in Zahlen (ZiviZ im Stifterverband), der WHU – Otto Beisheim School of Management und dem Institut für Verbands-, Stiftungs- und Genossenschaftsmanagement (VMI) und durch Förderung der Deutschen Stiftung für Engagement und Ehrenamt entstand. >> Download
Wir haben mit David Kuhn, wissenschaftlicher Referent bei ZiviZ, darüber gesprochen, wie KI-Nutzung die Organisationsentwicklung beeinflusst, welche tatsächlichen Mehrwerte sie aktuell für das Gemeinwohl bringt und wieso sich Einsteiger*innen vor KI-Halluzinationen schützen sollten.
Herr Kuhn, welche zentralen Ergebnisse zeigt Ihre Studie? Wo steht der gemeinnützige Sektor beim KI-Einsatz aktuell?
Unsere Studie zeigt, dass die Nutzung von KI im gemeinnützigen Sektor weit verbreitet ist. Fast drei Viertel der Engagierten und Beschäftigten nutzen KI-Tools im Rahmen ihrer gemeinnützigen Tätigkeit. Gleichzeitig stellen wir fest, dass der Einsatz von KI-Tools meist den Einzelnen überlassen bleibt. Nur 12 Prozent der Organisationen haben zentrale Initiativen zum Einsatz von KI entwickelt und nur 9 Prozent verfügen über verbindliche Richtlinien. Die Technologie ist also in der Breite der Zivilgesellschaft angekommen, es fehlt aber oft noch an einer strategischen Steuerung und klaren Leitplanken. Hier ist die Führungsebene gefragt, mehr Initiative zu zeigen. Denn KI ist keine rein operative Frage der Nutzung einzelner Tools, sondern berührt Grundfragen der Organisationsentwicklung sowie der Organisationskultur.
In welchen Bereichen stiftet KI Ihrer Meinung nach tatsächlich messbaren Mehrwert für gemeinnützige Ziele?
Die Engagierten und Beschäftigten nutzen KI vor allem in der Kommunikation und Öffentlichkeitsarbeit, etwa für die Erstellung und Bearbeitung von Texten oder die Informationssuche. Sie können dadurch viel Zeit sparen, zum Beispiel, weil sie Informationen schneller finden oder repetitive Aufgaben mithilfe der KI erledigen können. Die dadurch gewonnene Zeit fließt direkt zurück in die eigentliche Engagementtätigkeit und kann so konkret zur Umsetzung gemeinnütziger Ziele beitragen.
Welche Kompetenzlücken zeigen sich laut Ihrer Studie im gemeinnützigen Sektor besonders deutlich?
Die meisten Engagierten und Beschäftigten haben sich ihr Wissen zu KI eigenständig angeeignet, zum Beispiel durch das Ausprobieren von Tools oder im Selbststudium auf Plattformen wie YouTube. Formelle Schulungen oder Workshops wurde bislang deutlich seltener besucht. Es überrascht daher nicht, dass 42 % ihren Wissensstand zur KI als gering oder sehr gering einschätzen. Konkret fehlt es an technischem Know-how sowie am Wissen darüber, wofür KI sinnvoll angewendet werden kann – besonders wenn es um die Einführung von KI in der Organisation geht. Fehlendes technisches Wissen und mangelnde Kenntnis über konkrete Anwendungsfälle sind zudem die Hauptgründe dafür, warum manche Personen KI-Tools noch überhaupt nicht verwenden.
Welche Risiken treten im NGO-Kontext hervor und welche Schutzmechanismen empfehlen Sie als pragmatischen „Minimum Standard“?
Viele Organisationen sehen Risiken bezüglich des Datenschutzes, da oft unklar ist, was genau mit den Daten passiert. Darüber hinaus gibt es Bedenken hinsichtlich der Qualität und Verlässlichkeit der generierten Inhalte, denn es kann vorkommen, dass die KI Fakten erfindet (das sogenannte „Halluzinieren“) oder gesellschaftliche Vorurteile reproduziert. Um Risiken beim Datenschutz entgegenzuwirken, können Organisationen bei der Tool-Auswahl auf datenschutzkonforme Anbieter achten. Auch die Nutzung lokaler KI-Bots, die Daten nicht auf fremden Servern speichern, wäre denkbar, wenngleich diese nicht so leistungsstark sind wie gängige KI-Modelle.
Bedenken hinsichtlich der Qualität gilt es zu begegnen, indem die Ergebnisse der KI stets mit Vorsicht genutzt werden. Wie genau mit KI umgegangen werden soll, könnte beispielsweise in einer internen Richtlinie der Organisation festgelegt werden. Der Einsatz sogenannter „Retrieval-Augmented Generation“ (RAG)-Systeme, bei welchen die KI gezielt mit dem eigenen, überprüften Wissen der Organisation verknüpft wird, kann zudem dabei helfen, Fehler zu minimieren.
Welche Wünsche hat die Zivilgesellschaft in Bezug auf KI-Lösungen für ihre Arbeit?
Die Zivilgesellschaft wünscht sich vor allem Lösungen, die zu ihren Werten und begrenzten Budgets passen. Dazu gehört die Verbesserung der Qualität und Verlässlichkeit der generierten Inhalte und mehr Datenschutz sowie mehr kostenlose oder gemeinnützige KI-Tools, die besser auf die Bedarfe zivilgesellschaftlicher Organisationen zugeschnitten sind. Die Organisationen wollen handlungsfähig gemacht werden, zum Beispiel durch praxisnahe Workshops zur Anwendung von KI und Best-Practice-Beispiele aus anderen Organisationen.
Wenn zivilgesellschaftliche Organisationen morgen starten wollen: Welche Bausteine sollten in einer pragmatischen KI-Richtlinie bzw. einem Fahrplan unbedingt enthalten sein, damit die KI-Nutzung verantwortungsvoll und alltagstauglich gelingt?
Wichtige Bausteine einer solchen Richtlinie sind die Festlegung klarer Anwendungsbereiche sowie Klarheit darüber, welche Daten in die Systeme eingegeben werden dürfen. Zudem sollte geregelt sein, wer die Verantwortung für die einzelnen Tools trägt und wie die Engagierten gezielt für eine sichere Nutzung befähigt werden können. Das D64 – Zentrum für digitalen Fortschritt hat gemeinsam mit 50 anderen zivilgesellschaftlichen Organisationen einen „Code of Conduct Demokratische KI“ für einen verantwortungsvollen Umgang mit KI entwickelt. Bei der konkreten Ausgestaltung einer eigenen KI-Richtlinie können hieraus sicherlich Punkte aufgegriffen werden. Zudem bietet es sich an, sich an bereits bestehenden Leitlinien zu orientieren, wie beispielsweise denen der Diakonie oder den Grundsätzen zum Einsatz von KI beim Arbeiter-Samariter-Bund.
Welche Unterstützungsstrukturen sind aus Ihrer Sicht entscheidend, damit gemeinnützige Organisationen die notwendigen Kompetenzen für einen verantwortungsvollen KI-Einsatz aufbauen können?
Ich denke es braucht vor allem mehr Erfahrungsaustausch. Wir brauchen Plattformen oder Netzwerke, in denen gemeinnützige Organisationen, die KI bereits erfolgreich nutzen, ihre Best-Practices ganz konkret mit anderen teilen können. Zudem gibt es bereits viele kostenlose oder günstige Lernangebote für den Sektor, diese müssen aber noch viel besser in die Breite getragen werden. Schlussendlich sind es die Führungskräfte, die diese Unterstützungsstrukturen wirksam machen müssen, indem sie die Engagierten aktiv auf diese Angebote hinweisen, Lernzeiten einräumen und mögliche Kosten übernehmen.
Die Studie "Individuell genutzt, aber strategisch vernachlässigt" steht hier zum Download: ziviz.de/publikationen/ki_im_gemeinnuetzigen_sektor
Weiterlesen
Weitere Infos zu unseren Aktivitäten rund um KI und Nachhaltigkeit finden Sie auf unserer Themenseite.
Eine Wissensgrundlage zu KI-Systemen, von der Technik über aktuelle politische Rahmen bis zu Nachhaltigkeitsfragen, bietet unser Dossier "Künstliche Intelligenz & Nachhaltigkeit". Zum Dossier.
