Untersuchung zu KI-gestützten Medientrainings: Erste Ergebnisse zeigen überraschend hohe Analysequalität aktueller Large Language Models
Wie treffsicher analysieren gängige LLMs Video-Statements von Unternehmenssprecher:innen in den Dimensionen Glaubwürdigkeit, Körpersprache und Rhetorik?
Ketchum Deutschland hat in einer explorativen Studie untersucht, wie moderne Large Language Models (LLMs) wie Google Gemini 3 (Deep Think Mode) die Analyse üblicher Auftritte von Unternehmenssprecher:innen unterstützen können.
Während KI-Funktionen rasant weiterentwickelt werden, fehlte bislang ein praktischer Benchmark dafür, wie gut aktuelle Modelle beispielsweise inhaltliche Aussagen, Körpersprache, Bildaufbau bis hin zur Glaubwürdigkeitswirkung in Videostatements tatsächlich bewerten können. Denn die neu hinzukommenden “multimodalen” Fähigkeiten bringen einen Quantensprung in der Analyse von Bild und Ton. Google selbst zeigt das bisher am Beispiel eines kurzen Videos, mit dem sich der eigene Abschlag beim Golf mit Hilfe der KI verbessern lässt.
Die Fragestellung war nun, ob sich dies auch auf sprachinhaltsstarke Videos anwenden lässt.
Im Rahmen einer Hochschulkooperation wurde ein Video mit einem Statement eines fiktiven Unternehmenssprechers drei verschiedenen Gruppen gezeigt:
- Kommunikationspraktikern aus Unternehmen
- professionellen Medientrainer:innen von Ketchum
- sowie aktuellen KI-Modellen.
Menschliche Expert:innen und LLMs analysierten und bewerteten unabhängig von einander das Video-Statement. Im Anschluss formulierten sie Empfehlungen zur Verbesserung des Statements und des Auftretens.
Das Testvideo enthielt typische Fehler, wie sie in ad hoc gegebenen „Corporate Statements“ häufig zu sehen und hören sind – von unscharfen Botschaften und dialektischen Stilfiguren über mangelnde Screenpräsenz und nicht idealer Körpersprache bis zu rhetorischer Unsicherheit. Im Versuchsaufbau wurde untersucht, ob die LLMs diese Fehler finden und korrekte und sinnvolle Optimierungsempfehlungen geben. Wichtig: Es sollten ausschließlich Enterprise-Versionen genutzt werden, um sicherzustellen, dass die Trainingsdaten nicht ins “public knowledge” der LLMs übergehen.
Überraschend hohe Präzision der KI – in den Basics nahe an der Profianalyse
Das Ergebnis: Wie erwartet, erkannten sowohl Kommunikationspraktiker:innen als auch Trainerinnen und Trainer die eingebauten Fehler sofort und vollständig. Überraschend war jedoch, dass Google Gemini 3 (Deep Think Mode) auf Anhieb und ohne komplexe Prompts sämtliche Fehler gleichermaßen korrekt identifizierte, fachlich richtig benannte und direkt mit sinnvollen, nachvollziehbaren und konkreten Optimierungsvorschlägen versah.
Gemini nimmt hier kein Blatt vor den Mund, wie Beispiele aus der Analysen zeigen: „Deine Wortwahl schreit förmlich ‚Haftungsausschluss‘.“ Oder zur vom Sprecher im Test-Video genutzten Formulierung: „Gesetzlichen Anforderungen entsprechend“ lautet das Feedback von Gemini: „Das ist das absolute Minimum. Ein Kunde will nicht wissen, ob es legal ist, sondern ob es sicher ist. Das klingt nach ‚Wir tun nur so viel, wie wir müssen‘.“
Dazu Matthias Wesselmann, CEO von Ketchum Germany: „Unsere explorative Studie zeigt sehr deutlich, wie rasant sich KI-Technologie in der Kommunikationspraxis entwickelt. Für unsere Kundinnen und Kunden bedeutet dies: Medientraining wird künftig noch individueller, schneller und datenbasierter.“
Aktuelle Modelle mit multimodalen Fähigkeiten analysieren Videos mit einfachen Aussagen bereits auf einem bemerkenswert sicheren Niveau – insbesondere in der Entschlüsselung der Rhetorik, der Bewertung von Körpersprache, Tonlage und Stimmbild sowie der Einschätzung der allgemeinen Bildschirmpräsenz.
Und dennoch: Erfahrene, professionelle menschliche Medientrainer:innen bleiben unersetzlich
Die Analyse mit LLMs kann eine gute und sinnvolle Ergänzung der Medien- und Message-Trainings von Mensch zu Mensch sein. Regelmäßig im Alltag angewendet, hift sie, gelerntes Wissen zu verankern, Routinen und damit Selbstsicherheit zu entwickeln. Ein erfahrener menschlicher Trainer bereitet jedoch gezielt auf dynamische Drucksituationen vor und bringt die strategische Perspektive mit – vom Verständnis journalistischer Mechaniken bis zur Einordnung reputationskritischer Risiken. So entsteht ein Kommunikationsniveau, das KI allein nicht erreichen kann.
Kerstin Steglich, verantwortlich für Strategy bei Ketchum Germany: „KI liefert eine schnelle und treffsichere Erstanalyse. Doch die ideale Trainingswirkung entsteht erst im Zusammenspiel mit professioneller Einordnung durch den Menschen.“
Ein interessanter Aspekt des Vergleichs zwischen Mensch und Maschine: Während menschliche Expert:innen eher wertschätzend beurteilen und im “Stärken-stärken-Modus” agieren, scheinen LLMs stärker die Perspektive kritischer Konsument:innen einzunehmen. Das eröffnet Potenzial, KI als eine Art Projektionsfläche für Zielgruppenfeedback in der Kommunikationspraxis zu nutzen.
Frederik Tautz, Managing Director Data & Innovation, Ketchum Germany: „LLMs sind die neuen Zauberspiegel des Medientrainings: Sie reflektieren nicht nur, was wir sagen, sondern zeigen zugleich, wie wir wirken – sie schaffen Klarheit, machen blinde Flecken sichtbar und lassen Menschen in anspruchsvollen Momenten durch besseres Training spürbar souveräner auftreten.“
Ab sofort können Verantwortliche für Unternehmenskommunikation bei Ketchum eine Anleitung sowie einen Beispiel-Prompt für den DIY-Medientrainings-Check erhalten. Eine kurze E-Mail an Kerstin Steglich und Frederik Tautz reicht aus.