Was passiert mit einem Konflikt, wenn nicht mehr sicher ist, wer wirklich spricht – und was aus dem Gesagten werden kann?
Diese Frage hat mich in den letzten Monaten stärker beschäftigt als jede technische Debatte über KI in der Mediation.
Denn während wir über Tools, Effizienz und Assistenz sprechen, verschiebt sich leise etwas Grundlegenderes: der innere Schutzraum, den Mediation voraussetzt.
Eine Positionsbestimmung ein Jahr nach „Möglichkeiten und Grenzen von Künstlicher Intelligenz in der Mediation“
Vor einem Jahr habe ich in meinem Artikel „Möglichkeiten und Grenzen von Künstlicher Intelligenz in der Mediation“ die damaligen Einsatzfelder von KI beleuchtet. Mein Blick war neugierig und zuversichtlich: KI als Werkzeug, das Struktur schafft, Muster sichtbar macht und Mediator:inen entlastet.
Ein Jahr später hat sich nicht nur mein Blick verändert – sondern die Technologie selbst. Heute lassen sich täuschend echte Video-Avatare innerhalb weniger Minuten erzeugen. Stimmen, Mimik, Pausen und sogar emotionale Färbungen können reproduziert werden. Die Nachrichten sind geprägt von Deepfakes – von Bildern, Videos und Audios, die für Laien nicht mehr zuverlässig von realen Aufnahmen unterscheidbar sind.
Diese Entwicklung verändert die Spielregeln der Mediation fundamental.
Vertraulichkeit ist kein Sicherheitsmerkmal
Vertraulichkeit wird häufig als rechtliche oder technische Eigenschaft behandelt. Verschlüsselung, DSGVO, Zertifikate, AI-Act – all das ist notwendig. Doch es schützt nur die Daten, nicht den Raum, in dem Konflikt überhaupt bearbeitet werden kann. In der Mediation ist Vertraulichkeit bewusst weiter gefasst.
Psychodynamisch erfüllt Vertraulichkeit eine Container-Funktion im Sinne Wilfred Bions: Sie ermöglicht es, affektiv aufgeladene, widersprüchliche und beschämende Inhalte auszuhalten, ohne sie sofort abzuwehren oder zu rationalisieren. Dieser Container ist kein IT-Artefakt, sondern ein relationaler Zustand.
Mediation funktioniert nicht, weil Informationen sicher sind, sondern weil Menschen innerlich die Erlaubnis verspüren, Dinge auszusprechen, die sonst keinen Ort haben.
Die stille Verschiebung durch beobachtete Kommunikation
Sozialpsychologisch ist gut belegt, dass Selbstoffenbarung unter wahrgenommener Beobachtung abnimmt oder sich qualitativ verändert. Menschen erzählen anders, wenn sie wissen, dass Aussagen gespeichert, analysiert oder klassifiziert werden können – selbst dann, wenn sie rational zustimmen.
Diese Wirkung ist präreflexiv. Sie entsteht nicht durch Misstrauen, sondern durch eine leise Verschiebung dessen, was als sagbar empfunden wird.
In der Mediation aber ist genau diese Schwelle entscheidend: Einsichten entstehen selten aus Argumenten, sondern aus Momenten des inneren Zögerns, der Ambivalenz, des Noch-nicht-Wissens.
Deepfakes und der Verlust von Wirklichkeitsgewissheit
Mit der rasanten Entwicklung von Video-Avataren und Deepfake-Technologien kommt eine neue Dimension hinzu: Nicht mehr nur Wer hört zu?, sondern Was kann aus dem Gesagten werden?
Wenn jede Stimme, jedes Gesicht, jede emotionale Regung rekonstruierbar ist, entsteht ein Klima latenter Unsicherheit – auch ohne konkreten Missbrauch. Der Schaden entsteht nicht durch Manipulation, sondern durch die Möglichkeit der Manipulation.
Mediation basiert auf der Annahme, dass Begegnung real ist.
Deepfakes unterlaufen diese Basissicherheit.
Die gefährliche Metapher der „KI als Co-Mediator“
In einigen Veröffentlichungen wird KI inzwischen als Co-Mediator bezeichnet. Diese Metapher ist fachlich irreführend.
Ein Co-Mediator trägt Verantwortung für:
- Allparteilichkeit
- Prozessarchitektur
- Eskalationsdynamiken
- Machtasymmetrien
- implizite Loyalitäten
KI kann strukturieren, clustern, spiegeln, Vorschläge generieren. Das ist Assistenz. Keine geteilte Verantwortung.
Wer diese Grenze verwischt, externalisiert Verantwortung an Systeme – und erzeugt damit ein neues Machtgefälle im Raum.
Recht schützt Systeme – nicht Beziehungen
Der EU-AI-Act adressiert technische Risiken: Bias, Sicherheit, Dokumentation. Er schützt Systeme vor Missbrauch – nicht Beziehungen vor Erosion.
Die größten Schäden entstehen selten außerhalb der Regeln, sondern innerhalb regelkonformer Systeme: dort, wo Menschen beginnen, vorsichtiger, strategischer, glatter zu sprechen.
Doch Mediation lebt vom Unglatten.
KI in den Phasen der Mediation
In der klassischen 5-Phasen-Logik der Mediation zeigen sich klare Einsatzgrenzen:
| Phase | KI sinnvoll | Risiko |
|---|---|---|
| Auftragsklärung | nein | Vertrauensaufbau ist Beziehung |
| Themensammlung | begrenzt | Vorstrukturierung |
| Positionen verstehen | nein | Empathie ist kein Muster |
| Heureka-Phase | ja | Struktur & Optionen |
| Abschlussvereinbarung | ja | Konsistenz & Klarheit |
KI gehört in die Phase der Lösungsfindung – nicht in die Herstellung des Schutzraums.
Meine Grenze
Ich nutze KI dort, wo sie Denkprozesse erweitert.
Ich nutze sie nicht, um Präsenz zu simulieren.
Denn sobald Mediation beginnt, mit Avataren zu arbeiten, wird nicht mehr vermittelt – sondern inszeniert.
Fazit
KI ist in einem Jahr nicht nur leistungsfähiger geworden.
Sie ist wirkmächtiger geworden – nicht durch Absicht, sondern durch ihre Fähigkeit, Wirklichkeit zu simulieren.
Die Frage ist daher nicht, ob KI in der Mediation eingesetzt werden kann.
Sondern ob wir klar unterscheiden, wo sie Denkprozesse erweitert – und wo sie den Schutzraum verändert, den Mediation voraussetzt.

Schreibe einen Kommentar