KI in der Krisenkommunikation

Portrait of Benjamin Majeron

Benjamin Majeron

Head of Digital, Serviceplan PR & Content

Die Krisenkommunikation zählt zu den Disziplinen, die das meiste Fingerspitzengefühl erfordern – von menschlichen Kommunikatoren und auch von Maschinen? Die zunehmende Relevanz von Künstlicher Intelligenz (KI) wirft die Frage auf: Kann KI in Extremsituationen wirklich das leisten, was menschliche Empathie und Intuition vermögen? Das Vertrauen in KI in der Krise ist aktuell gering. Doch die Realität ist: Ohne KI wird es in Zukunft kaum noch möglich sein, effektiv auf Krisen zu reagieren – insbesondere wenn es darum geht, auf Basis unüberschaubarer Datenmengen strategisch kluge Entscheidungen zu treffen.

Krisenkommunikation heute: mangelndes Vertrauen in KI

In der gegenwärtigen Krisenkommunikation zeigt sich eine deutliche Zurückhaltung gegenüber dem Einsatz von KI. Das liegt vor allem an der Sorge, die Kontrolle über KI-generierte Inhalte zu verlieren. Eine aktuelle Studie zeigt, dass nur vier Prozent der Experten auf KI im Krisenmanagement vertrauen, wobei 51 Prozent die mangelnde Überprüfbarkeit als größte Sorge anführen. Doch die Datenmengen in Krisensituationen wachsen exponentiell, was menschliche Kommunikatoren zunehmend vor Herausforderungen stellt, zeitnah und angemessen zu reagieren.

Aktueller Einsatz von KI in der Krisenkommunikation

Generative KIs auf Basis von Large Language Models eigenen sich deshalb, um künftig einen Teil der Kontaktaufnahmen zu übernehmen. In der Ukraine passiert das schon heute. Erst kürzlich hat die Regierung einen KI-Avatar zur Pressesprecherin ernannt. „Victoria Shi“ übernimmt Öffentlichkeitsarbeit, die Kommunikation mit Journalisten – und Krisenkommunikation. Riskant? Vielleicht. Aber ein notwendiges Risiko. Denn Kiew spart so Ressourcen, die momentan andernorts gebraucht werden. Und: Auch wenn die KI spricht, spielen noch echte Menschen Souffleuse und geben Antworten vor. 

Sie erheben zurecht den Finger. Shi ist nicht viel mehr als ein Chatbot. Was der Fall dennoch zeigt: Mit der richtigen Datenbasis kann KI in Krisenfällen schon heute für eine erste Kontaktaufnahme durchaus sinnvoll sein und dabei helfen, Menschen zu entlasten. Gleichzeitig weist Shis Einsatz auf Gefahren hin, denn sie ist ein Ziel für Angriffe und Manipulationen durch Deep Fakes oder Hacking.

Perspektive: Monitoring und Prognosen – aber wie? 

Trotz der Risiken ist die Entwicklung hin zu mehr generierten Botschaften nicht aufzuhalten. Nach Angaben von PR Newswire wird der Markt für generative KI bis 2030 schätzungsweise 126 Milliarden Dollar wert sein. 

Wir erwarten den Einsatz von KI in der Krisenkommunikation weniger in Form von Avataren und Chatbots als in Form von Monitoring- und Analyse-Tools. KI kann bereits heute Stimmungen in Texten erkennen, stößt aber bei Ironie, Sarkasmus und kulturellen Nuancen an ihre Grenzen.

Gleichzeitig bietet die sogenannte Predictive AI spannende Möglichkeiten: Durch die Analyse von großen Datenmengen können Wahrscheinlichkeiten für das Auftreten von Krisen berechnet und klare Handlungsempfehlungen formuliert werden. Diese Technologien könnten strategische Entscheidungen auf eine breitere Datenbasis stellen und präzisere Vorhersagen ermöglichen. Die Herausforderung bleibt jedoch, dass viele soziale Netzwerke geschlossene Systeme sind, die externen KI-Tools den Zugriff auf ihre Daten erschweren. 

Zukunftsaussicht: vom Monitoring zur proaktiven Krisenbewältigung

Langfristig könnte KI mithilfe dieser Daten als eine Art „Sandbox“ dienen, in der verschiedene Krisenszenarien simuliert und die effektivsten Reaktionsstrategien ausgewählt werden. Solche KI-gestützten Simulationsmodelle könnten dazu beitragen, die Rolle von KI von einem einfachen Monitoring-Tool zu einem unverzichtbaren strategischen Partner in der Krisenbewältigung weiterzuentwickeln.

Burghardt Tenderich, Professor an der USC Annenberg, bringt in einem Artikel eine kollektive Datenbank ins Spiel. Gefüttert von tausenden Krisen-Cases aus aller Welt könnte ein Deep Learning Algorithmus Muster erkennen und zur Früherkennung von Krisen beitragen, indem er Social-Media-Gespräche, Netnografiedaten, Nachrichtenberichte und sogar interne Unternehmensdaten analysiert, um wie ein Seismograph frühe Erschütterungen vor einer potenziellen Krise zu erkennen. 

Ethik und Verantwortung: KI als Unterstützung, nicht als Ersatz

Bei aller Euphorie über die technologischen Möglichkeiten darf eines nicht vergessen werden: die Gefahr der Dehumanisierung. 

Es ist unsere Verantwortung sicherzustellen, dass KI als Unterstützung und nicht als Ersatz für menschliche Kommunikatoren dient.

Die Entwicklung in Richtung generierter Botschaften wird sich nicht aufhalten lassen – bis 2025 könnten bereits ein Drittel der Nachrichten von großen Marken KI-generiert sein. Aber es liegt an uns, die Balance zu wahren und KI verantwortungsvoll einzusetzen, um unsere Arbeit in der Krisenkommunikation zu unterstützen, ohne den menschlichen Aspekt zu verlieren.

Ausblick: Korpusse, Kooperationen und ethische Standards

In der Krisenkommunikation wird KI zukünftig eine zentrale Rolle spielen, indem sie uns hilft, nicht nur reaktiv, sondern auch proaktiv zu agieren. Um dieses Potenzial voll auszuschöpfen, sollten Unternehmen eigene Korpusse aus Krisenfällen aufbauen und durch öffentlich zugängliche Informationen ergänzen. Diese Idee spiegelt den Vorschlag der Annenberg-Professoren wider, Krisenfälle zu sammeln, um daraus in Zukunft Szenarien abzuleiten. Dies ermöglicht maßgeschneiderte, KI-gestützte Szenarien und eine frühere Erkennung von Krisen.

Darüber hinaus halten wir es für sinnvoll, branchenübergreifende Kooperationen zu fördern, um anonymisierte Daten gemeinsam zu nutzen. Ein gemeinsamer Datenpool könnte die Erkennung globaler Krisentrends verbessern und eine effektivere Früherkennung ermöglichen. Gleichzeitig müssen Standards und ethische Leitlinien entwickelt werden, um sicherzustellen, dass diese Daten verantwortungsvoll genutzt werden. Solche Maßnahmen würden die Krisenkommunikation transformieren und von einer rein reaktiven hin zu einer strategisch proaktiven Disziplin weiterentwickeln. Es bleibt jedoch entscheidend, dass wir die ethischen Herausforderungen im Auge behalten. Das ist nicht nur eine Sache des Respekts, sondern auch des Vertrauens.

Dieser Artikel erschien zuerst bei KOM.de