| Veranstaltung: | BUNDjugend Bayern JVV Frühjahr 2026 |
|---|---|
| Tagesordnungspunkt: | 10. Anträge |
| Antragsteller*in: | Landesvorstand (dort beschlossen am: 20.02.2026) |
| Status: | Eingereicht |
| Eingereicht: | 20.02.2026, 20:15 |
A3: Position zur Nutzung von KI in der BUNDjugend Bayern
Antragstext
Einleitung
Künstliche Intelligenz (KI), hat in den letzten Jahren Popularität erlangt und massive Fortschritte gemacht. Auch in der BUNDjugend Bayern werden KI-Anwendungen genutzt. Im Folgenden beziehen wir uns mit KI hauptsächlich auf generative KI wie Chatbots und Bildgeneration, die der Öffentlichkeit zugänglich sind (ChatGPT, Gemini, Stable Diffusion, etc.). Die angesprochenen Themen und Positionen sind aber auch auf andere Anwendungen und Arten von Künstlicher Intelligenz übertragbar.
Dieses Papier soll eine freiwillige Richtlinie für alle im Verband Tätigen im Umgang mit Künstlicher Intelligenz sein. Zusätzlich soll über die Nutzung von KI aufgeklärt werden, was die Verwendung für Konsequenzen hat und welche Veränderungen beim Betreiben gefordert sind. Damit erweitert es die KI-Richtlinie vom BUND Naturschutz in Bayern um die Themen Nachhaltigkeit und Ethik sowie weitgehendere Orientierung für die Nutzung.
Der Antragstext wird in ansprechenderer Form auf der Website für alle veröffentlicht.
Verbandsposition zum Umgang mit KI
Wir, das sind sowohl ehrenamtliche Aktive als auch hauptamtlich Beschäftigte der BUNDjugend Bayern, wollen KI bei unseren Tätigkeiten für den Verband verantwortungsvoll verwenden. Jede Nutzung wiegen wir ab und entscheiden ob sie sinnvoll und gerechtfertigt ist.
Wir kennzeichnen alle rechtlich verbindlichen KI-generierten Medien (realistische Bilder, Audios und Videos nach dem EU AI-Act [11]) sowie stilisierte Darstellungen. Wir verzichten auf die Veröffentlichung vollständig KI-generierter Texte, es sei denn wir kennzeichnen dies eindeutig. Bei veröffentlichten Texten, die ab einem gewissen Grad mit Hilfe von KI erarbeitet wurden, kennzeichnen wir auf freiwilliger Basis auch diese für eine erhöhte Transparenz.
Wir vermeiden die Veröffentlichung von KI-generierten Bildern, da für das Training Eigentum von Künstler*innen „geraubt“ wurde und damit ungeklärte rechtliche Fragen einhergehen. Dies gilt nicht, wenn die Entwickler eines KI-Modelles versichern können, nur Bilder mit Einverständnis der Eigentümer fürs Training genutzt zu haben oder die Bilder nur zu internen Zwecken genutzt werden.
Wir verurteilen die profitorientierte Entwicklung von künstlicher Intelligenz und fordern eine verantwortungsvolle Ausrichtung auf den Menschen und die Nachhaltigkeit.
Damit positionieren wir uns für eine wassersparende und ressourcenschonende Betreibung von KI-Systemen, faire und gute Arbeitsbedingungen für alle an der Entwicklung Beteiligten und eine diskriminierungssensible Entwicklung. Dafür sollen die beteiligten Konzerne Verantwortung übernehmen und rechtlich in die Pflicht genommen werden.
Wir fordern, dass diversitäts- und geschlechtersensitive Überlegungen gezielt in die Programmierung von KI-Systemen einbezogen werden. Dies kann dadurch erreicht werden, dass Entwicklungsteam möglichst divers und heterogen zusammengesetzt werden. Außerdem soll schon in der Ausbildung zur Entwicklung von KI stärker zu den ethischen Problemen sensibilisiert werden und so die Bekämpfung von diskriminierenden Eigenschaften frühzeitig mitgedacht werden. Wir schließen uns der UNESCO-Empfehlung zur Ethik der Künstlichen Intelligenz [12] an, die konkrete Vorschläge an die Gesetzgeber gegen diskriminierende KI macht.
Wir sind uns den Risiken bewusst, die statistische Modelle als Grundlage von modernen KI-Systemen bedingen. Durch diese kommt es dazu, dass generative KI Antworten „halluziniert“. Hier benötigt es klare Transparenzvorschriften und Genauigkeitsstandards, um das Risiko auf Falschaussagen korrekt einordnen zu können. Wir sehen dabei die Entwicklungsunternehmen von KI Modellen in der Pflicht, die Halluzinierungsrate so gering wie möglich zu halten und passende technische Lösungen in das System zu integrieren, die keine Antwort statt einer halluzinierten Antwort ausgeben.
Wir nutzen bevorzugt KI-Modelle mit offenem Quellcode sowie hoher Transparenz (Chatbots: z.B. Confer, LeChat, lokale LLMs (LLaMA); Bildgeneration: z.B. Open Journey). Außerdem nutzen wir eher europäische Modelle, die der Datenschutz-Grundverordnung entsprechen, um unsere Daten zu schützen und souverän von großen amerikanischen Unternehmen zu sein.
Wir beauftragen den Landesvorstand und die Landesgeschäftsstelle bis zur Frühjahrs-JVV 2027 ein pädagogisches Konzept zur Fortbildung über die Nutzung von KI zu erarbeiten. Damit sollen Aktive und Hauptamtliche zu einer besseren Nutzung geschult werden (z.B. zu „Prompt Engineering“, zum Erkennen von Falschinformationen oder einer datenschutzfreundlichen Verwendung). Außerdem soll das Konzept zu Themen wie Diskriminierung und Nachhaltigkeit sensibilisieren.
Neben diesem Dokument dient der Code Of Conduct Demokratische KI [14], welchen die BUNDjugend unterschrieben hat, für alle als grobe Orientierungshilfe und Richtlinie zum Einsatz von KI.
Handlungsleitfaden im Umgang mit KI-Modellen
Die Handlungsanweisungen werden auch als Flow-Chart auf der Website veröffentlicht.
Folgende Fragen solltest du dir vor der Verwendung von KI stellen:
Enthält meine Frage sensible Daten (Namen oder andere personenbezogene Daten, …)? → anderen Weg wählen oder Daten pseudonymisieren
Kann ich mein Ziel auch mit einer gängigen Suchmaschine (Ecosia, DuckDuckGo, Qwant, Google, …) ohne KI oder anderer Quellen (Buch, Menschen, …) mit zumutbarem Aufwand erreichen, um Energie zu sparen? Ja → von der Nutzung absehen
Beispiele: Einfache Faktensuche ist leicht auf z.B. Wikipedia möglich
Benötige ich eine verlässliche Quelle? (KI halluziniert) Ja → versuche erst einmal mit einer Suchmaschine nach Quellen zu suchen. Wenn du keine findest, kannst du eine KI nach Quellen suchen lassen, aber diese besonders überprüfen.
Beispiele: Schreiben eines Artikels, einer schulischen/wissenschaftlichen Arbeit; Öffnungszeiten nachschauen, Nachrichten lesen, …
Empfinde ich die Nutzung von KI weiterhin als sinnvoll und gerechtfertigt? Ja → KI verwenden
Hinterfrage und überprüfe die Informationen kritisch. Bei komplexen Zusammenhängen kannst du zusätzliche Quellen zur Hand nehmen um sicher zu gehen
Kennzeichne die Texte/Bilder, die dir die KI erarbeitet hat z.B. mit „Dieses Foto wurde mit KI generiert“, „mit KI überarbeitet“ oder Ähnlichem, wenn du sie veröffentlichst.
Tipps
Wenn möglich und zumutbar, andere Quellen verwenden
Bei vielen Chatbots lässt sich die Verwendung der eigenen Suchanfrage für Lernzwecke der KI verbieten. Du kannst dies in den Einstellungen deaktivieren (z.B. bei ChatGPT unter „Datenkontrollen/Das Modelle für alle verbessern“), um deine Daten zu schützen.
Falls ein Account verwendet wird, sonstige Datenschutz- und Sicherheitseinstellungen verwenden (z.B. ein starkes Passwort, 2-Faktor-Authentifizierung, …)
Datenschutz-freundliche (DSGVO-konforme) KI-Modelle benutzen; Chatbot: z.B. Confer, LeChat, lokale LLMs (LLaMA); Bildgeneration: z.B. Open Journey
KI-Features von Browsern ausschalten, um nachhaltiger zu surfen
Bei machen Modellen kann man die Persönlichkeit des Chat-Bots umstellen, damit die KI nicht so schmeichlerisch antwortet
Risiken und Konsequenzen der Nutzung von KI
Nachhaltigkeit und Umwelt
Die Entwicklung und Nutzung von KI hat enorme Auswirkungen auf unsere Umwelt.
KI-Modelle laufen in riesigen Rechenzentren, die aufwendig gekühlt werden müssen. Weltweit haben KI-Datencenter 2025 ca. 60 Mrd. Liter Kühlwasser verbraucht, bis 2030 sollen es etwa 340 Mrd. Liter werden [5]. Viele dieser Datencenter stehen in trockenen Regionen, wo die Wasserentnahme von Flüssen zu noch mehr Knappheit führt. Neben dem Betrieb, ist im Jahr 2024 geschätzt 450 Mrd. Liter Abwasser durch die Chipproduktion für die Rechenzentren entstanden [5]. Außerdem benötigen Rechenzentren große Mengen an seltenen Erden, welche meist auf zerstörerische Art und Weise gewonnen werden [13]. Daneben fallen kritische Abfallprodukte und Elektroschrott an [13].
Das Training von KI-Chatbot-Modellen braucht zwischen 10 und 62 MWh Strom[3][4], das ist ungefähr so viel wie 30 Personen in einem Jahr verbrauchen. Im Vergleich zu einer Suchmaschinen-Anfrage mit 0,3 Wh [2] Strom, benötigt eine Chatbot-Anfrage 0,3 – 3 Wh (bis max. 40 Wh bei maximaler Wortzahl) [1], also meistens sehr viel mehr Energie.
Ethische Probleme
Besonders auch aus ethischer Sicht gibt es massive Probleme bei der Entwicklung von KI-Systemen. Das Training solcher Modelle wird getragen von sog. „Click Workern“, Menschen, die Ergebnisse von KI-Modellen bewerten und moderieren, damit die KI lernt. Weltweit sind 154 – 435 Mio. Menschen, hauptsächlich im globalen Süden, als solche beschäftigt [6]. Meist arbeiten diese unter extrem belastenden und ausbeuterischen Bedingungen. Viele sind selbständig und werden nicht angestellt, bekommen deshalb keinen Mindestlohn und werden nur nach Aufgabe honoriert [7]. Gegen den niedrigen Lohn von 1,32 – 2 $/h können „Click Worker“ sich aufgrund von Verschwiegenheitserklärungen kaum wehren, da dadurch die Organisation in Gewerkschaften erschwert wird [7]. Ein gesunder Umgang mit der psychischen Belastung wird so ebenfalls erschwert, weil Beschäftigte Angst davor haben sich Hilfe zu holen [7]. Sie leiden unter langen Arbeitszeiten, hohem Druck und Willkür durch die Auftragsgeber oder verstörenden Bildern, die sie als Moderatoren aus dem Training filter müssen [6]. Die Konzerne, die die KI entwickeln ziehen sich hier jedoch aus der Verantwortung für die schlimmen Arbeitsbedingungen, da sie das Training an Unternehmen im Ausland outsourcen [7].
Künstliche Intelligenz kann diskriminierend sein. Beim Training werden bestehende Ungerechtigkeiten wie die Geschlechterungleichheit oder Rassismus aufgenommen und z.B. bei Personalfragen wiedergegeben oder sogar verstärkt. Dazu kommt, dass meist Männer für die Entwicklung von KI-Modellen verantwortlich sind und somit Überlegungen zur Diversität eher entfallen, die es in diverseren Arbeitsteams stärker gibt. [12]
Deepfakes, von KI erstellte realistische Bilder, Videos oder Tonaufnahmen, können benutzt werden um Menschen zu diffamieren und Fake News zu verbreiten.
Im Training von KI-Modellen werden zahlreiche Medien (Bilder, Texte, Lieder, Videos, ...) aus dem Internet genutzt, oft ohne Einverständnis von Künstler*innen und Autor*innen einzuholen. Zu diesem Thema gibt es einige offene Gerichtsverhandlungen und ungeklärte rechtliche Fragen.
KI als Quelle
Von Künstlicher Intelligenz generierte Inhalte sind oft nicht verlässlich. Chatbots halluzinieren, d.h. sie erfinden Fakten, die falsch sind. Bei komplexen Fragen kommt das in 30 – 80 % der Fälle vor, bei einfachen Fakten mittlerweile nur noch in 3 – 27 % [9]. Auch wenn das immer weniger vorkommen wird, werden solche Falschinformationen jedoch trotzdem als Wahrheiten präsentiert, obwohl der Chatbot es nicht weiß.
Quellen
[6] von World Bank in https://www.deutschlandfunk.de/ki-data-worker-clickworker-deep-learning-100.html
Begründung
Künstliche Intelligenz (KI) hat in den letzten Jahren Popularität erlangt und massive Fortschritte gemacht. Auch in der BUNDjugend Bayern werden KI-Anwendungen genutzt. Damit wir einen verantwortungsvollen Umgang damit finden, ist eine Orientierungshilfe für alle notwendig.
Neben dieser verbandsweiten Richtlinie gilt für Hauptamtliche und Gruppenleiter*innen schon verbindlich die KI-Richtlinie vom BUND Naturschutz in Bayern, die aber hauptsächlich rechtliche Fragen abdeckt. Mit diesem Antrag wollen wir auch ethische und Nachhaltigkeitsfragen abdecken.
