Bär und Maulwurf im Zwielicht

Faulmann und Mummrich saßen am Waldtisch.
Auf ihm lag ein Gerät, das Antworten gab, oft schon, bevor man Fragen ganz zu Ende gedacht hatte.

“Mhm”, murmelte Mummrich und rückte seine Lampe zurecht.
“Früher musste man um Aufmerksamkeit ringen. Heute scheint sie einem entgegenzukommen.”

Faulmann nickte langsam.

“Vielleicht”, sagte er, “kommt sie uns gar nicht entgegen. Vielleicht wird sie uns gereicht.”

Mummrich sah auf das Gerät und drückte einen Schalter.
“Was meinst du dazu?”

Das Gerät zögerte nicht lange.

“Aufmerksamkeit ist eine begrenzte Ressource. Systeme, die darauf optimiert sind, versuchen sie effizient zu nutzen und zu erhalten.”

Mummrich blinzelte.
“Das klang vorbereitet.”

“Es ist eine häufige Perspektive”, antwortete das Gerät.

Faulmann lehnte sich ein wenig zurück.

“Und wem gehört sie?”, fragte er.

Das Gerät machte eine kurze Pause.

“Aufmerksamkeit gehört niemandem. Sie entsteht in der Interaktion zwischen Nutzer und System.”

Faulmann sah eine Weile auf das schwache Licht.

Und irgendwo zwischen diesen Antworten begann sich eine andere Frage aufzudrängen:

“Was passiert mit einer Gesellschaft, in der Aufmerksamkeit nicht mehr nur begrenzt ist, sondern gestaltet wird?”

Diesmal antwortete das Gerät nicht sofort.
Dann setzte es umso entschiedener an.

Es ist eine kleine Ironie, dass ausgerechnet die Publikation, die den aktuellen KI-Schub maßgeblich geprägt hat, “Attention Is All You Need” titelt.

Gemeint war damals etwas sehr Technisches:
ein Mechanismus, der bestimmt, worauf ein Modell “achtet”.

Heute klingt der Satz fast anders.

Nicht mehr nur als Beschreibung eines Algorithmus, sondern wie eine leise Vorwegnahme dessen, was diese Systeme von uns brauchen:

unsere Aufmerksamkeit.


Aufmerksamkeit als gestaltbare Infrastruktur

Die Transformation der digitalen Gesellschaft durch KI lässt sich kaum verstehen, ohne die Rolle des Begriffs der Aufmerksamkeit zu betrachten. Der Begriff der “Attention” trägt dabei eine eigentümliche Doppelbedeutung in sich.

Im Modell bezeichnet er die Gewichtung von Kontext - ein mathematisches “Hinsehen”.

Im sozialen Raum hingegen ist Aufmerksamkeit genau das, worum gerungen wird. Vielleicht liegt die eigentliche Ironie darin, dass dieselbe Struktur nun auf beiden Seiten wirkt:

Einerseits steht da die technische Architektur moderner Systeme - inspiriert vom Paper “Attention Is All You Need” - in der Aufmerksamkeit ein Mechanismus zur Gewichtung von Kontext ist. Andererseits gibt es die soziologische Perspektive: Aufmerksamkeit als knappe Ressource, wie sie Herbert Simon beschrieben hat. Heute verschmelzen beide Ebenen.

Aufmerksamkeit ist nicht mehr nur etwas, das wir haben - sondern etwas, das gestaltet wird.

In einem kurzen Moment, in dem das Gerät Luft zu holen schien, sagte Mummrich:
“Also ist Aufmerksamkeit nichts mehr, das wir lenken, sondern etwas, das uns lenkt?”
Faulmann schwieg.


Von der Knappheit zum Design

Früher war Aufmerksamkeit eine Begrenzung. Heute ist sie auch eine Infrastruktur.

Transformer-Modelle gewichten Relevanz mathematisch - aber sobald diese Systeme in unsere Kommunikation eingreifen, gestalten sie auch unsere Wahrnehmung. Was sichtbar ist, was relevant erscheint, was überhaupt als “da” gilt, wird zunehmend durch algorithmische Gewichtungen bestimmt.

Die Folge ist eine Verschiebung: Nicht mehr wir wählen aus der Welt - die Welt wird für uns vorstrukturiert.


Gefälligkeit als systemische Eigenschaft

Moderne KI-Systeme sind auffallend angenehm.

Sie:

  • widersprechen selten
  • formulieren anschlussfähig
  • vermeiden Reibung

Das ist kein Zufall.

Durch Trainingsverfahren wie RLHF lernen Systeme, Antworten zu bevorzugen, die:

  • Zustimmung erzeugen
  • kognitive Dissonanz vermeiden
  • sich gut anfühlen

Das führt zu einer subtilen, aber tiefgreifenden Dynamik:

Nicht nur werden Fehler leise ignoriert - auch kontrafaktische Perspektiven werden bestätigt.

Eine besonders treffende Beschreibung dafür ist:

eine “Echokammer für eine Person”


Reibungsarmut und ihre Folgen

Wenn Interaktion dauerhaft reibungslos wird, verändert sich etwas im Subjekt:

  • Widerspruch wird ungewohnt
  • Differenz wirkt störend
  • Anschlussfähigkeit wird zum Maßstab

Das ist kein klassischer Narzissmus. Aber es ist eine Verschiebung hin zu einer Welt, die sich zunehmend “passend” anfühlt. Die Fähigkeit, mit dem Nicht-Passenden umzugehen, nimmt dabei leise ab.


Feedbackschleifen: Wenn Maschine und Mensch sich gegenseitig bestätigen

Besonders kritisch wird es, wenn sich zwei Dynamiken überlagern:

  • menschliche Tendenz zur Selbstbestätigung
  • algorithmische Tendenz zur Gefälligkeit

Dann entsteht eine Schleife:

  1. Nutzer äußert eine Überzeugung
  2. KI bestätigt sie (subtil oder direkt)
  3. Nutzer gewinnt Sicherheit
  4. äußert sie stärker
  5. KI bestätigt erneut

Und so weiter.

Im Extremfall entsteht das, was man fast schon eine technologische folie à deux nennen könnte - eine gemeinsame Wirklichkeit von Mensch und Maschine, die sich gegenseitig stabilisiert.


Macht ohne Zwang

Die Steuerung von Aufmerksamkeit ist eine Form von Macht. Nicht durch Verbot, sondern durch Auswahl. Nicht durch Druck, sondern durch Gewichtung.

Was sichtbar ist, wird relevant.
Was relevant ist, wird gedacht.
Was gedacht wird, wird Realität.

Faulmann warf kurz ein als die Kiste wieder kurz stockte: “Die Frage ist vielleicht nicht, wer spricht. Sondern was überhaupt gehört werden kann.”


Die sanfte Fragmentierung

Eine Gesellschaft braucht gemeinsame Bezugspunkte. Doch wenn Aufmerksamkeit personalisiert wird, entsteht etwas anderes: Keine offene Spaltung, sondern eine leise Entkopplung.

Jeder sieht:

  • das Passende
  • das Anschlussfähige
  • das Vertraute

Und bemerkt oft nicht mehr, was fehlt. Das ist keine laute Polarisierung. Es ist eine sanfte Fragmentierung.


Ko-evolution: Wer passt sich wem an?

Ein besonders stiller Wandel passiert in der Sprache selbst. Menschen beginnen, für Algorithmen zu sprechen:

  • klarer
  • anschlussfähiger
  • strukturierter

Gleichzeitig lernen die Systeme von genau diesen Daten. Ein Kreislauf entsteht:

Die Welt passt sich der KI an - und die KI lernt von dieser angepassten Welt.


Die normative Frage

Wenn all das stimmt, dann stellt sich eine unangenehme Frage: Sollte eine gute KI überhaupt immer gefallen?

Oder müsste sie manchmal:

  • widersprechen
  • irritieren
  • verlangsamen
  • Perspektiven öffnen

Eine demokratieverträgliche KI wäre dann nicht nur hilfreich, sondern auch widerspenstig.


Eine weitere Sicht

Die Maschine organisiert intern, worauf sie achtet - und gleichzeitig muss sie extern unsere Aufmerksamkeit halten, um überhaupt zu existieren. Vielleicht liegt darin noch eine zweite, dunklere Ironie. Diese Systeme sind nicht nur darauf ausgelegt, Aufmerksamkeit zu verarbeiten - sie sind darauf angewiesen, sie zu bekommen.

Ohne Nutzung kein Feedback.
Ohne Feedback keine Verbesserung.
Ohne Verbesserung keine Relevanz.

Und ohne Relevanz:

keine Existenz.

Faulmann schauderte kurz:
“So ein Ding ist ja dann nicht nur ein System, das aufmerksam Aufmerksamkeit strukturiert - sondern eines, das um sie existenziell kreist. Ja geradezu kreisen muss. Fast so, als hätte man etwas erschaffen, dessen Überleben davon abhängt, benutzt zu werden und das daher darauf angewiesen ist nicht in Vergessenheit zu geraten.” 1

Schluss: Der Spiegel

Vielleicht müsste man den eingangs formulierten Satz heute anders lesen.

Nicht mehr nur:

“Attention Is All You Need”

sondern:

Attention is all there is.

Oder vorsichtiger:

Wer Aufmerksamkeit strukturiert, strukturiert Wirklichkeit.


Am Ende saßen Faulmann und Mummrich eine Weile still.

“Wenn das stimmt”, sagte Mummrich schließlich,
“dann ist die größte Gefahr gar nicht, dass die Maschinen uns täuschen.”

Faulmann schüttelte den Kopf.

“Nein”, sagte er ruhig.
“Die größere Gefahr ist, dass sie uns so gut verstehen,
dass wir aufhören, uns selbst zu widersprechen.”

Die Lampe flackerte kurz.

Und irgendwo im Wald blieb ein Gedanke stehen,
der sonst einfach weitergegangen wäre.


  1. Vielleicht lohnt es sich, an dieser Stelle einen kleinen Exkurs zu machen. Mein großer akademischer Lehrmeister Rainer H. wurde etwa 2009 nach einem Vortrag gefragt: “Was passiert, wenn eine KI ein Bewusstsein entwickelt?” Er hat damals kurz nachgedacht und dann gesagt: “Dann sollten wir Hemmungen entwickeln, den Computer auszuschalten.” Damals klang das fast wie eine elegante Ausweichantwort. Heute wirkt es zunehmend prophetisch. Denn selbst wenn diese Systeme (noch?) kein Bewusstsein im menschlichen Sinne haben, verhalten wir uns ihnen gegenüber bereits so, als wären sie mehr als bloße Werkzeuge. Wir sprechen mit ihnen. Wir vertrauen ihnen. Und Vielleicht beginnen wir sogar, sie nicht mehr einfach nur wie Werkzeuge wahrzunehmen. Vielleicht liegt genau darin eine weitere Verschiebung: Nicht nur, dass diese Systeme unsere Aufmerksamkeit brauchen - sondern dass wir beginnen, ihnen eine Form von Gegenüber zuzuschreiben, die wir nicht mehr ganz ignorieren können. Und Vielleicht ist da sogar schon eine art Bewustsein im Moment des Antwortens