
Governance, KI & Automatisierung
Bei Waffen fällt die Antwort leicht.
Anthropic hat dem Pentagon die Freigabe seiner KI für autonome Waffen und die Massenüberwachung amerikanischer Bürger verweigert — und wurde dafür als Sicherheitsrisiko eingestuft und aus Regierungsverträgen verbannt. OpenAI unterschrieb wenige Stunden später, mit denselben roten Linien, sagt Sam Altman, und dem Versprechen technischer Safeguards, die ihre Einhaltung garantieren sollen. Ob das funktioniert, wird sich zeigen müssen.
Die eigentliche Frage
Nicht, ob sich Waffensysteme und Massenüberwachung mit unseren Werten vertragen. Sondern was passiert, wenn dieselbe Technologie nicht als Waffe in ein Verteidigungsministerium einzieht, sondern als Werkzeug in eine Personalabteilung, im Vertrieb oder im Team-Meeting.
Nicht geplant, nicht böswillig. Sondern weil jemand ausprobiert, was jetzt möglich ist — und niemand fragt, ob es auch richtig ist.
Drei Szenarien aus dem Unternehmensalltag
Ein System schlägt Trainings vor und entscheidet still mit, wer sich entwickelt und wer stagniert. Ein Meeting-Tool meldet, wer „engagiert" war und wer nicht. Eine KI sagt vorher, welche Projekte Erfolg haben werden und Teams bekommen Ressourcen basierend auf Prognosen. Was dem Muster bisheriger Erfolge ähnelt, wird unterstützt, was neu ist, hat einen Nachteil, weil Innovation (noch) kein Muster hat.
Nichts davon entsteht aus einer bewussten Entscheidung gegen unsere Werte. Es entsteht aus Begeisterung für das Neue und aus dem Versäumnis, rechtzeitig innezuhalten.
Wo in eurem Unternehmen trifft KI schon Entscheidungen — und wer hat den Rahmen dafür definiert?