KI als Hebel für gemeinnützige Arbeit

KI ist eines der Megathemen der Gegenwart. Technische Hoffnungen und Science-Fiction-Fantasien gehen dabei Hand in Hand mit Ängsten, dass KI-gestützte Maschinen über kurz oder lang zu einer Gefahr für den Menschen werden können. Dies wurde nicht zuletzt deutlich, als im vergangenen Sommer eine Vielzahl an Expert*innen in einem offenen Brief ein Memorandum zum Umgang mit Künstlicher Intelligenz forderten. Darin heißt es: „AI systems with human-competitive intelligence can pose profound risks to society and humanity, as shown by extensive research […] Advanced AI could represent a profound change in the history of life on Earth, and should be planned for and managed with commensurate care and resources”. Viele von ihnen wie bspw. Apple-Mitgründer Steve Wozniak, Tech-Milliardär Elon Musk und Pioniere der KI-Entwicklung wie Stuart Russel und Yoshua Bengio sind bekannte Befürworter technischen Fortschritts und laufen folglich nicht Gefahr, als „hysterische Maschinenstürmer*innen” des 21. Jahrhunderts zu gelten.

Vor diesem Hintergrund lud die Deutsche Umweltstiftung am 08. November 2023 zu einem digitalen Austausch ein. Konkret ging es um die Frage, in welcher Weise diese disruptiven Veränderungen die Arbeit von NGOs gegenwärtig bzw. absehbar beeinflussen. Dabei zeigte sich schnell, dass die wahrgenommenen Chancen und bestehenden Sorgen bei der Nutzung von Künstlicher Intelligenz der Teilnehmenden sehr konkret und alltagsnah waren. Man könnte auch sagen: „Statt um Robocop ging es vielmehr um Robo-Advisor und Datenschutz”. 

Von den ersten Schritten bis heute

Einen kursorischen Überblick zur Entwicklung von Künstlicher Intelligenz anhand ausgewählter Meilensteine gab zum Einstieg der Projektleiter Michael Golze von der Deutschen Umweltstiftung. Der studierte Informatiker und Philosoph schlug dazu einen großen Bogen von der Entwicklung des Turing-Tests über die Dartmouth Konferenz bis hin zu den ersten Computern DeepBlue bzw. AlphaGo, die in der Lage waren, die Elite der Strategiespiele Schach und Go zu schlagen. 

KI im Alltag von NGOs

Unmittelbar praxisnah wurde es im zweiten Teil seines Vortrags. Anhand einer Miro-Präsentation stellte der Referent eine Auswahl möglicher KI-basierter Tools zur Bewältigung der alltäglichen Arbeitsherausforderungen in einer NGO dar. Seine Ausführungen und die Wortbeiträge der Teilnehmenden in der abschließenden Diskussion verdeutlichten die eingangs skizzierte Ambivalenz im Umgang mit KI auch im alltäglichen Arbeiten von NGOs.

Auf der einen Seite erleichtern KI-unterstützte Schreibassistenten, Textextraktoren oder Lektoratsprogramme bereits heute die Arbeit. Gleiches gilt für Anwendungen im Bereich der Konvertierung von Text zu Sprache oder Sprache zu Text, Chatbots zur automatischen Abwicklung von Anfragen oder Tools im Projektmanagement, der Wissensverarbeitung oder des Social Media Marketings. 

Auf der anderen Seite bestehen berechtigte Ängste im Bereich des Datenschutzes und der Datensicherheit. Dies resultiert zum einen aus dem Umstand, dass die überwiegende Mehrheit der führenden Technologiekonzerne ihren Sitz nicht in Deutschland, sondern u. a. in den USA und China hat und eine Verarbeitung personenbezogener Daten daher auch außerhalb der DSGVO bzw. der europäischen Datenschutz Grundverordnung erfolgt. Hinzukommt, dass wissenschaftliche Erhebungen gezeigt haben, dass KI-Algorithmen Stereotype im Netz verfestigen können. Infolgedessen besteht die Gefahr, dass ethnische, kulturelle oder geschlechtsspezifische Ungleichheiten zementiert und verstärkt anstatt abgebaut werden. 

Ganz allgemein wird es zudem in Zeiten zunehmender Deepfakes immer schwieriger, sachliche Informationen von Falschdarstellungen zu unterscheiden. Das stellt die Gesellschaft insgesamt vor immense Herausforderungen, bspw. wenn es um den politischen Dialog und die kollektive Willensbildung in einem demokratischen System geht. Es braucht daher wirksame Maßnahmen, um KI-basierte Falschinformation besser und schneller zu identifizieren und ihrer Verbreitung frühzeitig entgegenzuwirken? Vorsichtige Hoffnungen liegen hier auf den jüngsten Anstrengungen, wie bspw. dem in Arbeit befindlichen „AI Act“ der EU, der u. a. eine Kennzeichnungspflicht von Deepfakes vorsieht. Insgesamt steht an dieser Stelle die Frage im Raum, ob und in welcher Weise der Dritte Sektor eine noch aktivere Rolle bei der digitalen Bildung und der stärkeren Bekämpfung negativer digitaler Phänomene wie bspw. Hate Speech spielen kann und sollte.