Nach ausführlicher Abwägung haben wir als Digitale Gesellschaft uns entschieden, den „Code of Conduct Demokratische KI“ mitzuzeichnen, welcher vom Verein D64 initiiert wurde. Bereits im Frühjahr haben wir uns an einem Workshop zu dem Projekt beteiligt und unsere Perspektive eingebracht.

In diesem Blogartikel wollen wir erklären, worum es in dem Code of Conduct geht, was dort drin steht und wie wir das für unsere Arbeit verstehen und umsetzen wollen. Damit möchten wir auch erklären, warum wir für unsere Texte und Bilder keine generative „KI“ nutzen.

Worum geht es?

Heute ist es kaum möglich, an dem Wirbel um sogenannte „Künstliche Intelligenz“ vorbeizukommen. Wenn heute die Rede von „KI“ ist, dann geht es meistens um generative KI, also zum Beispiel Sprachmodelle, welche basierend auf einer Eingabe einen Text ausgeben oder mit der automatisiert Bilder erzeugt werden. Auch wenn das Wort ‘Intelligenz’ und der mediale Hype gerne etwas anderes suggeriert: im Grunde geht es dabei meist um stumpfe statistische Modelle. Verwende ich zum Beispiel einen entsprechenden Chatbot und stelle eine Frage, dann sollte ich wissen: das „KI“-Modell hat weder ein eigenes Bewusstsein, noch ein Verständnis von der Frage oder der Antwort, die es dann ausgibt. Stattdessen wird von so einem „KI“-Modell, basierend auf den verarbeiteten Trainingsdaten und der Eingabe, der statistisch gesehen wahrscheinlichste nächste Teil einer Antwort generiert und so Stück für Stück ein Text zusammengebaut. Was dabei herauskommt klingt auf den ersten Blick häufig plausibel – ob es auch stimmt ist eine andere Frage. Die renommierten Expertinnen bei der Forschung zu „KI“, die Linguistin Emily Bender und die Informatikerin Timnit Gebru haben darum für derartige Sprachmodelle den Ausdruck „stochastische Papageien“ geprägt: „KI“ ist in hier also das reine Nachplappern abstrakter Daten ohne Sinn und Verstand.

Trotzdem erhalten „KI“ Modelle Einzug in alle Lebensbereiche, werden ungefragt in Produkte integriert, und sogar staatliche Stellen setzen zunehmend auf deren Einsatz. Parteien verwenden „KI“ generierte Inhalte im Wahlkampf, obwohl Expert*innen schon lange davor warnen, dass damit diskriminierende Stereotype reproduziert und verstärkt werden können. Menschen nutzen „KI“-Chatbots um sich zu informieren, obwohl die dort als Fakten präsentierten Antworten häufig frei erfunden sind. „KI“-Modelle werden von Unternehmen und Organisationen bei der Öffentlichkeitsarbeit genutzt, obwohl dabei teilweise verleumderische Falschbehauptungen über Menschen herbeihalluziniert werden können. Manche Menschen verwenden „KI“-Chatbots sogar um über ihre psychischen Probleme zu sprechen, obwohl die Modelle weder dafür qualifiziert sind, noch die sensiblen Inhalte sicher und vertraulich behandeln würden. Der Hype um „KI“ ist sogar so groß, dass der Stempel nun überall drauf gedrückt wird, auch wenn manchmal gar keine „KI“ drin ist.

Das Thema hat also eine gesellschaftliche Relevanz erreicht und wir müssen uns damit auseinandersetzen – ob wir wollen oder nicht. Für viele zivilgesellschaftliche Organisationen stellt sich nun die Frage, wie sie mit dem Einsatz von „KI“ umgehen sollen. Der Code of Conduct kann hier eine Hilfestellung sein, um in der eigenen Organisation über einen verantwortungsvollen Umgang mit „KI“ zu reflektieren – und eventuell auch zu entscheiden, auf die Verwendung von entsprechenden Tools sogar ganz zu verzichten .

Was seht im Code of Conduct Demokratische KI?

Der Code of Conduct ist eine Selbstverpflichtung zum bewussten und kritischen Umgang mit dem Thema „KI“ und basiert auf dem Wissen, dass Technik immer auch in einem direkten Verhältnis mit Gesellschaft steht. Der Code of Conduct legt acht Grundprinzipien fest, welche Organisationen dabei unterstützen sollen, die eigene Nutzung und Perspektive zu reflektieren. Im Folgenden gehen wir auf diese Prinzipien einzeln ein. Dafür fassen wir sie jeweils erst zusammen und erläutern dann, wie wir auf sie blicken. Der ausformulierte Text des Code of Conducts steht auf der entsprechenden Projektseite von D64.

Abwägung der Nutzung

Die Entwicklung und Nutzung von vielen „KI“-Systemen ist mit einem relativ hohen Ressourcenaufwand verbunden. Außerdem bestärken Technologien – auch „KI“ – manche Interessen stärker als andere, zum Beispiel durch die implizite Wiederholung und Verfestigung bestimmter kultureller Vorstellungen oder durch das Bestärken der Abhängigkeiten von großen Technologieunternehmen wie jetzt den KI-Unternehmen, Produzent*innen entsprechender Chips oder den Betreiber*innen von Rechenzentren. Als Digitale Gesellschaft wägen wir darum individuell ab, ob der Einsatz einer „KI“-Anwendung sinnvoll ist, welche negativen Konsequenzen für Menschen und Umwelt damit möglicherweise verbunden sind und ob uns dann der Einsatz in der Abwägung als vertretbar erscheint.

Menschenzentrierung

Wir stellen die Erfahrungen, Bedürfnisse und Interessen von Menschen in den Vordergrund und wie sich die Entwicklung und der Einsatz von „KI“ auf diese auswirkt. Dabei berücksichtigen wir Ressourcen, Arbeitsbedingungen und Energieverbrauch entlang der gesamten Lieferkette. „KI“-Systeme basieren auf menschlicher Arbeit, insbesondere der beteiligten “Data Workers”. Diese Arbeit bleibt oft unsichtbar und wird häufig unter hochgradig ausbeuterischen Bedingungen im Globalen Süden geleistet. Als Digitale Gesellschaft wirken wir bewusst darauf hin, einen breiten kritischen Diskurs zu dieser Dimension von „KI“ zu fördern. In unserer Abwägung einer (Nicht-)Nutzung von „KI“ beziehen wir die Arbeitsbedingungen der Menschen entlang der gesamten Lieferkette mit ein.

Transparenz

Der Code of Conduct legt wert auf Transparenz, sowohl bezogen auf „KI“-Modelle an sich, als auch auf deren mögliche Nutzung. Bei Software hat sich das Prinzip „Open Source“ etabliert. Das bedeutet unter anderem: der auszuführende Quelltext einer Software ist öffentlich und somit unabhängig nachvollziehbar (und kontrollierbar), was bei einer Nutzung passiert. Bei „KI“ werden aber unterschiedliche Vorstellungen vertreten, was als transparent bzw. „Open Source“ gelten soll. Klar ist: die Funktionsweise einer „KI“ – also auch: wessen Interessen in einer Gesellschaft werden dadurch stärker vertreten und welche Diskriminierungen werden womöglich noch bestärkt – ergibt sich zum einen durch das Training eines Modells – also die Kombination von Trainingsdaten und den darauf angewendeten Algorithmen und Evaluationsschritten – und zum anderen durch die konkrete Anwendung des Modells auf einen Kontext.

Als Digitale Gesellschaft bezeichnen wir nur „KI“ als wirklich transparent, die wirklich eine vollständige Nachvollziehbarkeit und Reproduzierbarkeit aller relevanten Bestandteile von Anfang bis Ende ermöglicht. Die geläufigsten „KI“-Anwendungen genügen diesem Anspruch nicht. Wir verstehen unsere Verantwortung im Sinne des Code of Contexts darin bereits bei der Abwägung, ob wir eine „KI“ nutzen wollen, die tatsächliche Transparenz des „KI“-Modells zu berücksichtigen.

Teilhabe und Partizipation

Dieses Prinzip sieht vor, allen Menschen eine gleichberechtigte Teilhabe am gesellschaftlichen Leben zu ermöglichen. Da wir als Digitale Gesellschaft selbst keine „KI“-Modelle oder -Anwendungen entwickeln, bezieht sich das für uns auf Fragen des ob und wenn ja, wie wir „KI“ in unserer Arbeit nutzen. Das betrifft primär unsere Mitarbeiter*innen, welche im Auftrag des Vereins Inhalte erstellen und die darum über die Unterzeichnung des Code of Conducts und über den weiteren Umgang dazu mit entscheiden. Innerhalb des Vereins pflegen wir aber auch die Beteiligung unserer Mitglieder und den Austausch mit unserer Community.

Diskriminierungskritische Haltung

Die Entwicklung von „KI“-Modellen basiert auf Trainingsdaten. Die darin abgebildeten gesellschaftllichen Verzerrungen und Diskriminierungen werden bei der Anwendung reproduziert und verstärkt. Im Code of Conduct heißt es darum: „Wir verpflichten uns zu einer lernbereiten und machtsensiblen Haltung, zu einem offenen Umgang mit Fehlern sowie zu einer fortlaufenden, kritischen Reflexion des Einsatzes von KI-Systemen.Als Digitale Gesellschaft priorisieren wir die Interessen von Menschen, deren strukturelle Benachteiligungen durch den Einsatz von „KI“ noch verstärkt würde und legen das unserer Abwägung einer (Nicht-)Nutzung zugrunde.

Verantwortung und Verantwortlichkeit

Dieses Prinzip betont die gemeinsame Bedeutung einerseits des Übernehmens von Verantwortung für die Entscheidung zur (Nicht-)Nutzung und andererseits als Verantwortlichkeit der klaren Zuordnung von Zuständigkeiten, wer entscheidet und diese Verantwortung übernimmt. Als Digitale Gesellschaft übernehmen wir gemeinsam Verantwortung zur (Nicht-)Nutzung von „KI“. Innerhalb des Vereins vereinbaren wir Prinzipien, welche die Abwägung leiten. Bei der konkreten Abwägung im Einzelfall sind die beteiligten Personen verantwortlich, auf dieser Grundlage zu entscheiden und das begründen zu können.

Kompetenzen

Hier betont der Code of Conduct die Notwendigkeit von Kompetenzen, um verantwortungsvoll mit „KI“ umgehen zu können. Das betrifft sowohl Organisationen als Ganzes, sowie Individuen. Die dafür nötigen Kompetenzen unserer Mitarbeitenden und Aktiven bauen wir auf und aus, z.B. durch Teilnahme an Fortbildungen, den internen Austausch von Wissen und Fähigkeiten sowie durch das Ausrichten von Veranstaltungen. Als Digitale Gesellschaft schaffen wir monatlich beim Netzpolitischen Abend einen offenen Ort zum Austausch und zur Weiterbildung. Mit der Einladung von Expert*innen zu gesonderten Themenabenden, zum Beispiel zum Digitalen Kolonialismus, befähigen wir uns und unser Umfeld zu einer kritischen Perspektive auf „KI“.

Ökologische Nachhaltigkeit

Die Entwicklung und Nutzung von „KI“ verbraucht immens viel Energie und Ressourcen. Das sind zum Beispiel der Strom– und Wasserverbrauch in den Rechenzentren, welche zur Entwicklung und Nutzung entsprechender Modelle benötigt werden, aber auch der Abbau der Metalle, welche für die Produktion der dabei genutzten Hardware verwendet werden. Wir beobachten, dass trotz aller anderslautender Versprechen der Industrie, der zunehmende Einsatz von „KI“ einer ökologischen Nachhaltigkeit entgegen steht. Als Digitale Gesellschaft lieben wir Technik und experimentieren gerne, aber reflektieren dabei auch unsere Verantwortung. Ökologische Nachhaltigkeit abzuwägen bedeutet für uns, generative „KI“ unter diesen Bedingungen nicht zu nutzen.

Was bedeutet das im Alltag für die Digitale Gesellschaft?

Wir entscheiden uns bewusst für den Verzicht vom Einsatz generativer „KI“ zum Erstellen unserer Inhalte:

  • Wir lassen unsere Bilder nicht mit generativer „KI“ erzeugen. Wir machen das noch selbst, buchen Photograf*innen oder nutzen lizenzierte Symbolbilder.
  • Wir lassen unsere Texte nicht mit generativer „KI“ schreiben. Wir stehen zu dem, was wir sagen und veröffentlichen.
  • Wir lassen auch keine Tonaufnahmen oder Videos mit „KI“ generieren.

Als Digitale Gesellschaft entwickeln wir selbst keine „KI“-Modelle oder -Anwendungen und haben das auf absehbare Zeit nicht vor.

Manchmal wird eine eindeutige Abgrenzung aber kompliziert.

Mit dem Code of Conduct verpflichten wir uns Inhalte zu kennzeichnen, die wesentlich mit Hilfe von „KI“-Tools erzeugt wurden. Aber was bedeutet hier wesentlich? Eine hilfreiche Handreichung dazu gibt es von der Gesellschaft für Datenschutz, die sich auf die Transparenzregeln des Europäischen AI Acts bezieht.

Gleichzeitig verstehen wir, dass automatisierte Prozesse – auch mit „KI“ – an vielen Stellen im Kleinen oft unbewusst passieren. Das sind zum Beispiel die Wortvorschläge, welche manche Smartphone-Tastaturen beim Tippen einer Nachricht machen. Das sind auch die Photos, die schon von der Software auf dem Gerät verarbeitet werden, bevor wir sie zum ersten Mal sehen. Solche Fälle erachten wir nicht für wesentlich im Sinne des Code of Conducts.

Wir informieren uns und begleiten das Thema „KI“ weiter kritisch

Als gemeinnütziger Verein mit Expertise zu digitalpolitischen Themen sehen wir uns in der Verantwortung, uns auch weiter aktiv an Diskursen zu „KI“ zu beteiligen und unsere kritische Perspektive einzubringen. Das betrifft alle Bereiche unserer Arbeit, also z.B. das Ausrichten von Veranstaltungen, die Mitwirkung an Workshops und Arbeitsgruppen, Öffentlichkeitsarbeit und der Interessensvertretung gegenüber der Politik insbesondere in Deutschland und in der EU.

Manchmal arbeiten auch wir mit „KI“

Tatsächlich nutzen wir „KI“-Tools manchmal zur Unterstützung bei Übersetzungen. Auch der erste Schritt für das Erstellen von Untertiteln lässt sich heute mit entsprechenden Anwendungen erleichtern. Auch hier übernehmen wir aber selbst redaktionelle Verantwortung:

Wenn wir „KI“ bei der Übersetzung eines Texts verwenden, den wir selbst verstehen, dann überprüfen wir die Vorschläge und treffen eine eigene redaktionelle Entscheidung darüber, welche Worte den Sinn der übersetzten Aussage für uns am besten erfassen. Eine automatisierte Übersetzung aus/in Sprachen, die wir selbst nicht verstehen, sind für uns nur als absolute Ausnahme eine Option und werden wir kennzeichnen.

Wenn wir „KI“ beim Erstellen von Untertiteln verwenden, dann überprüfen wir die Vorschläge und treffen eine eigene redaktionelle Entscheidung über den verwendeten Text.

Und manchmal braucht es ein Augenzwinkern:

Wir geloben: Wir servieren bei uns keinen „KI“-generierten Kaffee. Ansonsten schauen wir mal, was noch kommt und werden weiter offen darüber reflektieren.

Dieser Eintrag wurde veröffentlicht am Allgemein. Setze ein Lesezeichen auf den permalink.