Welche KI-Tools dürfen Behörden nutzen – und wo liegen die Grenzen?
Die Frage wird gestellt – aber selten eindeutig beantwortet
„Welche KI-Tools dürfen wir eigentlich nutzen?“
Diese Frage taucht in Behörden immer häufiger auf.
Nicht aus Neugier, sondern aus Unsicherheit. Mitarbeitende sehen, was möglich ist, hören von Effizienzgewinnen – und wissen gleichzeitig, dass der falsche Einsatz schnell problematisch werden kann.
Die ehrliche Antwort lautet:
Es gibt keine pauschale Liste erlaubter oder verbotener KI-Tools.
Und genau das macht die Frage so schwierig.
Warum „erlaubt oder verboten“ zu kurz greift
Der Einsatz von KI in Behörden hängt nicht primär vom Tool ab, sondern vom Kontext der Nutzung.
Entscheidend sind Fragen wie:
- Welche Daten werden verarbeitet?
- Zu welchem Zweck wird das Tool eingesetzt?
- Wie kritisch sind die Inhalte oder Entscheidungen?
- Wer prüft die Ergebnisse?
Dasselbe KI-Tool kann in einem Kontext unproblematisch und in einem anderen hochsensibel sein.
Typische Einsatzbereiche – und ihre Risikostufen
In der Praxis lassen sich KI-Anwendungen grob einordnen:
- Unkritisch bis moderat:
z. B. Textstrukturierung, sprachliche Überarbeitung, Ideensammlungen ohne personenbezogene Daten - Sensibel:
Zusammenfassungen von Akten, inhaltliche Vorbewertungen, Arbeit mit internen Informationen - Hochsensibel:
Entscheidungen mit rechtlicher Wirkung, Verarbeitung sensibler personenbezogener Daten, automatisierte Bewertungen
Diese Einordnung ersetzt keine Prüfung, hilft aber, Risiken realistisch einzuschätzen.
Warum Tool-Listen trügerisch sind
Manche Organisationen versuchen, das Problem mit Tool-Listen zu lösen:
„Diese Tools sind erlaubt, jene verboten.“
Das wirkt zunächst klar – ist aber oft nicht nachhaltig.
Denn:
- Tools ändern sich schnell
- Funktionen werden erweitert
- Nutzungsbedingungen ändern sich
Was bleibt, ist Unsicherheit.
Und genau hier wird KI-Kompetenz entscheidend.
Grenzen entstehen nicht durch Technik, sondern durch Verantwortung
Die zentrale Grenze beim KI-Einsatz in Behörden ist selten technisch.
Sie liegt dort, wo:
- Verantwortung nicht mehr klar zugeordnet ist
- Ergebnisse ungeprüft übernommen werden
- der Einsatz nicht mehr nachvollziehbar ist
KI darf unterstützen.
Sie darf vorbereiten.
Sie darf aber keine Verantwortung übernehmen.
Diese Grenze ist unabhängig vom Tool.
Warum Kompetenz wichtiger ist als das „richtige Tool“
Statt nach dem einen erlaubten Tool zu suchen, ist es für Behörden sinnvoller, Mitarbeitende zu befähigen:
- KI-Ergebnisse kritisch zu hinterfragen
- Risiken früh zu erkennen
- Nutzungskontexte richtig einzuordnen
- Grenzen bewusst zu setzen
Strukturierte Schulungsformate wie der KI-Führerschein für Behörden setzen genau hier an. Sie vermitteln kein Tool-Wissen, sondern Entscheidungs- und Einordnungskompetenz – die Voraussetzung für einen verantwortungsvollen KI-Einsatz.
Fazit: Die entscheidende Frage ist nicht „Welches Tool?“
Die entscheidende Frage lautet:
In welchem Kontext – mit welcher Verantwortung – und mit welchem Verständnis?
Behörden, die diese Frage beantworten können, brauchen keine starren Tool-Listen.
Sie können KI dort nutzen, wo sie sinnvoll ist – und bewusst darauf verzichten, wo sie es nicht ist.
