Chatbots können heute bereits einfache Anfragen von Nutzer*innen beantworten – etwa zu Öffnungszeiten, Medienverfügbarkeit oder Veranstaltungsterminen, wie beim VÖBB-Chatbot der Bibliothek Berlin. Auch KI-gestützte Tools zum Schreiben von Pressemitteilungen oder zur Planung von Veranstaltungen können bei der Arbeit unterstützen. Aber kann man KI als Organisation einfach so verwenden? Ohne Schulung oder Kennzeichnung?
Vier Risikokategorien von KI
Seit 1. August 2024 gilt mit dem EU AI Act das weltweit erste umfassende Gesetz zur Regulierung von Künstlicher Intelligenz. Der Rat der 27 EU-Mitgliedstaaten hat damit einen verbindlichen Rahmen für den Einsatz von KI verabschiedet. Ziel ist es, Innovation zu fördern und gleichzeitig Risiken für Menschen und Gesellschaft zu begrenzen.
Der EU AI Act teilt KI-Tools in vier Risikokategorien ein:
Kategorie | Symbol | Beispiele | Rechtliche Pflichten / Folgen |
Minimales Risiko | 🟢 | Schreib- oder Übersetzungsassistenten, Spamfilter, KI in Videospielen | Keine speziellen Auflagen außer bestehenden Gesetzen |
Begrenztes Risiko | 🟡 | Chatbots, Empfehlungssysteme, Deepfakes | Transparenzpflichten: Nutzer*innen müssen erkennen können, dass sie mit KI interagieren oder KI-Inhalte sehen |
Hohes Risiko | 🟠 | KI in Medizinprodukten, Personalwesen (z. B. Bewerbungsscreening), Bildung (z. B. Prüfungsbewertung), Justiz, Migration, kritische Infrastrukturen | Strenge Anforderungen: Risikomanagement, hochwertige Daten, Dokumentation, menschliche Aufsicht, Robustheit, Genauigkeit, Transparenz |
Inakzeptables Risiko | 🔴 | Social Scoring, manipulative Systeme, bestimmte biometrische Echtzeit-Überwachung | Verboten – Einsatz nicht zulässig |
Nationale Behörden überwachen die Einhaltung. Verstöße können zu hohen Geldbußen führen (bis zu 35 Mio. € oder 7 % des weltweiten Jahresumsatzes).
Anforderungen an KI-Kompetenzen („AI Literacy“)
Der EU AI Act verpflichtet Anbieter und Verwender von KI-Systemen dazu, ein ausreichendes Maß an KI-Kompetenzen („AI Literacy“) bei ihrem Personal sicherzustellen. Darunter versteht das Gesetz Fähigkeiten, Wissen und Verständnis, die es ermöglichen, KI-Systeme informiert zu nutzen, Chancen und Risiken einzuschätzen und sich möglicher Schäden bewusst zu sein. Das erforderliche Kompetenzniveau hängt dabei von den Aufgaben, dem Kontext und dem Einsatzbereich des jeweiligen KI-Systems ab.
Für Bibliotheken bedeutet dies: Mitarbeitende, die KI-Anwendungen einsetzen – etwa Chatbots, Empfehlungssysteme oder Planungstools – müssen in einem Umfang geschult werden, der ihnen eine verantwortungsvolle und transparente Nutzung dieser Systeme ermöglicht.
Aber was bedeutet das konkret?
Für Bibliotheken folgt daraus in der Praxis:
1. Interne Anforderungen (Mitarbeitende)
- Basiswissen zu KI: Mitarbeitende verstehen, wie die eingesetzten Systeme (z. B. Chatbot, Bildgenerierung, Empfehlungssysteme) grundsätzlich funktionieren.
- Kompetenz im Umgang: Sie können Ergebnisse interpretieren, typische Fehler (Bias, Halluzinationen, eingeschränkte Datenbasis) erkennen und den Nutzer*innen transparent machen.
- Transparenzpflicht erfüllen (ab 02.08.26): Sie wissen, wie sie kenntlich machen müssen, dass es sich um KI-generierte Inhalte handelt.
- Verantwortung & Aufsicht: Sie bleiben Ansprechpersonen für Nutzer*innen und übernehmen die Kontrolle – KI ersetzt keine menschliche Entscheidungshoheit.
- Fortbildung & Aktualisierung: Schulungen, Leitfäden oder interne Standards, damit das Wissen aktuell bleibt.
2. Organisatorische Maßnahmen
- Richtlinien entwickeln: Interne Handreichungen, wie KI-Tools in der Bibliothek eingesetzt werden dürfen (z. B. Datenschutz, Haftungsfragen).
- Dokumentation: Wer nutzt welches KI-System, in welchem Umfang, mit welchem Ziel?
- Ansprechpersonen benennen: Für Rückfragen von Nutzer*innen und für den Umgang mit Problemen.
3. Optionale Erweiterung (Service für Nutzer*innen)
- Informations- und Schulungsangebote: Bibliotheken können Workshops oder Infoveranstaltungen anbieten, um Nutzer*innen im kritischen Umgang mit KI zu stärken.
- Medienpädagogische Rolle: Bibliotheken profilieren sich als Orte, an denen digitale und KI-Kompetenzen vermittelt werden.
Fazit
Mit dem EU AI Act liegt seit 2024 erstmals ein verbindlicher Rechtsrahmen für den Einsatz von Künstlicher Intelligenz in Europa vor. Für Bibliotheken bedeutet das: Der Einsatz von KI ist möglich und sinnvoll, er muss aber im Einklang mit den Vorgaben erfolgen. Dazu gehört vor allem die Einhaltung von Transparenzpflichten, die Schulung von Mitarbeitenden im verantwortungsvollen Umgang mit KI-Systemen und die Berücksichtigung der jeweiligen Risikokategorie.