Die Nutzung von KI-Tools bürgt für die Parteiarbeit große Chancen, aber auch Risiken. Sie können einerseits den Zugang zu Informationen erleichtern und damit die politische Willensbildung unterstützen, Datenanalysen verbessern, dabei helfen Wähler*innenpotenziale besser zu verstehen oder die Effektivität von Kampagnen stärken. Viele KI-Anwendungen können aber auch Risiken bergen: Mit einem Klick können beispielsweise ganz leicht überzeugende Falschinformationen und -inhalte generiert werden.
Auch das Agieren spezifischer KI-Unternehmen wirft ethische Fragen bezüglich deren Nutzung auf. Wir verurteilen die Kooperation von OpenAI mit dem US-Verteidigungsministerium (Department of War), da der geschlossene Vertrag den Einsatz sogenannter letaler autonomer Waffensysteme bedeuten könnte. So schließt der geschlossene Vertrag diese nur dort aus, wo bestehende Vorschriften ohnehin menschliche Kontrolle verlangen – die relevanten Pentagon-Richtlinien fordern jedoch keinen „Human in the Loop“, also keine verbindliche menschliche Freigabe vor dem Einsatz tödlicher Gewalt. Damit droht ein Szenario, in dem menschliche Aufsicht zwar formal existiert, aber faktisch bedeutungslos ist (Auto-Enter). Wir sind der Überzeugung, dass Entscheidungen über Leben und Tod niemals an Maschinen delegiert werden dürfen und lehnen letale autonome Waffensysteme daher ab.
Der Landesvorstand wird beauftragt, bis zur kommenden Landesmitgliederversammlung eine parteiinterne Empfehlung für geeignete Tools zu entwickeln und zugleich Leitlinien für den Einsatz von KI-Anwendungen in der Parteiarbeit festzulegen. Dabei soll auch die militärische Kooperation von OpenAI dringend berücksichtigt werden.
- Bei der Nutzung von KI-gestützten Tools in der Parteiarbeit soll grundsätzlich Transparenz gelten. Inhalte in Anträgen und Pressemitteilungen , die ausschließlich KI-generiert wurden, sind als solche kenntlich zu machen.