| TL;DR - KURZ ZUSAMMENGEFASST:
Und am wichtigsten: Wartet nicht auf Perfektion. In KI-gesteuerten Krisen ist frühe Klarheit besser als perfekte Botschaften. |
Künstliche Intelligenz ist jetzt Teil des Medien-Ökosystems, ob wir es mögen oder nicht.
Suchmaschinen fassen Geschichten zusammen, bevor Leser durchklicken. Chatbots beantworten Fragen über euer Unternehmen mit den Informationen, die sie finden können. Und generative Tools erstellen Finanz-Briefings, entwerfen Social-Media-Posts und ziehen in Sekunden "wichtige Fakten" aus eurem Newsroom.
Und das ist großartig! Bequemlichkeit hat viele Vorteile, aber es schafft auch eine neue Risikoebene.
Wenn KI veraltete Daten abruft, euer Narrativ mit dem eines Wettbewerbers vermischt, ein Zitat erfindet oder einen Deepfake verstärkt, ist der Korrekturzyklus anders als bei traditionellen Medienfehlern. Es gibt keinen einzelnen Journalisten, den man anrufen kann. Keine klare Publikation, bei der man eine Korrektur anfordern kann. Man hat es mit verteilten Outputs über Plattformen zu tun, die exponentiell aus dem lernen, was bereits online ist.
Eine Umfrage zu generativer KI in PR aus dem Jahr 2024 ergab, dass rund 75 Prozent der Profis, die KI nutzen, befürchten, dass neuere Praktiker sich zu stark auf automatisierte Tools verlassen und ihr kommunikatives Urteilsvermögen verlieren könnten. Dieselbe Studie zeigte, dass nur etwa jede fünfte Agentur ihren Kunden gegenüber konsequent offenlegt, dass sie KI einsetzt, was auf eine wachsende Transparenzlücke hindeutet.
Mit anderen Worten: Die Branche arbeitet noch daran, diese Tools verantwortungsvoll einzusetzen. Dabei prägen sie bereits die öffentliche Wahrnehmung.
Die Frage ist also nicht, ob KI eure Krisenreaktion beeinflussen wird. Sie wird es. Die Frage ist, ob ihr ein Playbook habt für den Fall, dass etwas schiefläuft.
KI in der PR ist da. Sie wird nicht verschwinden.
Teams nutzen KI bereits für:
Aber der größere und turbulentere Wandel findet extern statt.
KI-Systeme:
Der letzte Punkt ist wichtig.
Wenn KI-Systeme auf gefälschte, unzuverlässige oder veraltete Informationen zurückgreifen, können sie Outputs produzieren, die selbstbewusst klingen, aber falsch sind. Dieses Risiko wird in der Branche rund um generative KI und Kommunikation immer wieder diskutiert.
Das bedeutet: Eure Owned Media ist jetzt eure wichtigste Quelle, nicht nur ein Distributionskanal.
Und in einer Krise kommt es auf den Zeitpunkt an. Wenn KI bereits zusammenfasst, bevor euer offizielles Statement live geht, kann sie ein Narrativ festschreiben, bevor ihr es selbst formuliert habt.
Damit kommen wir zu den Szenarien, auf die ihr vorbereitet sein solltet.
Das ist eines der häufigsten Probleme.
Ein Chatbot behauptet, euer Unternehmen sei in einen Skandal verwickelt gewesen, der nie stattgefunden hat. Eine KI-Suchmaschine zieht eine Statistik aus einem zehn Jahre alten Blogbeitrag. Ein Executive-Profil enthält veraltete Informationen zur aktuellen Rolle.
Das mag wie eine Kleinigkeit wirken. Ist es aber nicht.
KI-Outputs werden oft als Screenshot geteilt, intern wie extern. Sie beeinflussen Journalist:innen, Investor:innen, Bewerber:innen und Partner:innen.
Wenn falsche Informationen online sind, wird KI sie höchstwahrscheinlich weiterverwenden. Das kann einen Schneeballeffekt auslösen: Ein Modell zitiert sie, ein anderes übernimmt sie, und plötzlich tauchen veraltete Fakten überall auf.
Das ist subtiler und noch schwerer zu korrigieren.
Eine KI-Zusammenfassung verwechselt euer Unternehmen mit der Positionierung eines Wettbewerbers. Sie schreibt euch deren Nachhaltigkeitsversprechen zu. Sie verwechselt Produktlinien. Sie vermischt Unternehmensgeschichten.
Das passiert meist, wenn Unternehmen in ähnlichen Kategorien tätig sind und dieselben Keywords teilen.
Wiederholung verfestigt Wahrnehmung.
Deepfakes sind keine Theorie mehr.
2024 meldeten mehrere Unternehmen Vorfälle, bei denen Betrüger KI-generierte Stimmen oder Videos nutzten, um Führungskräfte zu imitieren in Finanzbetrügereien. Politische Deepfakes nahmen weltweit stark zu, besonders rund um Wahlen. Und das ist längst kein Randphänomen mehr: Laut Jumio's Global Identity Survey 2024 sind 60% der Nutzer im vergangenen Jahr einem Deepfake-Video begegnet.
Wie das in der Praxis aussehen kann, zeigt der aktuelle Netflix-Film G20, der Deepfakes zu einem ausgewachsenen geopolitischen Actionspektakel macht. Der Film ist maßlos übertrieben (und auch nicht unbedingt gut), aber er liegt unbequem nah an den CEO-Fraud-Fällen, mit denen Kommunikationsteams bereits in der Realität konfrontiert werden.
Wenn ein manipuliertes Video eures CEOs auftaucht, in dem er/sie sich provokant äußert, habt ihr keine Zeit für eine langsame Reaktion.
Klarheit stabilisiert die Situation.
Das ist das Szenario, das die meisten Teams unterschätzen.
Eine Krise bricht aus. Die Diskussion in sozialen Medien nimmt Fahrt auf. Eine KI-Suchmaschine erstellt eine Zusammenfassung auf Basis erster Berichte oder Spekulationen. Euer offizielles Statement ist noch im Entwurf.
Die Lücke im Narrativ wird ohne euch gefüllt.
Schnelligkeit beeinflusst jetzt auch die maschinelle Interpretation.
Erfundene Zitate verbreiten sich schnell, besonders wenn sie bestehende Vorurteile bestätigen.
KI-Tools können glaubwürdig klingende Aussagen von Führungskräften generieren, die echt wirken. Screenshots kursieren. Der Kontext verschwindet.
Schweigen lässt Fiktion zur Realität werden.
Frameworks helfen nur, wenn sie in konkrete Maßnahmen übersetzt werden.
Das Crisis Lifecycle Framework von Presspage unterteilt die Krisenreaktion in sechs Phasen:
Erkennen → Einordnen → Steuern → Handeln → Erholen → Verbessern
Das Framework ist bewusst einfach gehalten. Es gibt Teams eine gemeinsame Sprache, wenn es schnell gehen muss.
So lässt sich das konkret auf die Szenarien anwenden, die ihr gerade gelesen habt.
Das ist euer Frühwarnsystem. Im KI-Kontext bedeutet "Erkennen" mehr als nur Medienberichterstattung zu beobachten.
Ihr solltet aktiv folgendes im Blick behalten:
Was ihr jetzt schon tun könnt:
Fügt KI-Plattformen zu eurer regulären Krisenbeobachtung hinzu. Wer nur traditionelle Medien im Blick hat, ist bereits zu spät dran.
Hier verlieren die meisten Teams den Anschluss. Einordnen bedeutet, eure Version der Ereignisse zu veröffentlichen, bevor Spekulationen sich festigen.
Es geht nicht um ein perfektes Statement, sondern um einen sachlichen Ankerpunkt.
Das könnte folgendes sein:
Was ihr jetzt schon tun könnt:
Entwickelt jetzt Krisenvorlagen, die bereits intern freigegeben sind. Mitten in einem aktiven Vorfall ist nicht der richtige Moment, um mit der Rechtsabteilung über Kommasetzung zu diskutieren.
Das ist grundlegende interne Koordination. Kommunikation, Legal, IT-Sicherheit, Geschäftsleitung, HR und kundenseitige Teams müssen auf demselben Stand sein.
Das umfasst:
Was ihr jetzt schon tun könnt:
Behandelt euren Newsroom als zentrale Quelle der Wahrheit. Alles andere sollte darauf verweisen.
Jetzt geht es nach außen. Das umfasst:
Was ihr jetzt schon tun könnt:
Wenn ihr KI-Fehler korrigiert, zitiert die falsche Behauptung direkt und ersetzt sie durch verifizierte Fakten. Vage Ablehnungen verbreiten sich nicht so weit wie konkrete Korrekturen.
Sobald sich die Lage beruhigt hat, ist es Zeit, den Schaden einzuschätzen.
Schaut euch folgendes an:
Was ihr jetzt schon tun könnt:
Führt nach der Krise ein Audit eurer Owned-Media-Inhalte durch. Welche Lücken haben die Verbreitung von Fehlinformationen begünstigt?
Hier wird Resilienz aufgebaut.
Aktualisiert:
Was ihr jetzt schon tun könnt:
Macht aus jedem KI-Vorfall ein Checklisten-Update. Der heutige Ausnahmefall wird zum Standardszenario von morgen.
KI-Krisenmanagement bezeichnet den Umgang mit Fehlinformationen, Identitätsbetrug, gefälschten Inhalten und automatisch generierten Zusammenfassungen, die KI-Systeme während eines Vorfalls erzeugen, der den Ruf eines Unternehmens betrifft.
Es erweitert die klassische Krisenkommunikation um den Umgang mit maschinell generierten Narrativen.
Oft gibt es keine einzige Quelle, die man kontaktieren kann, Fehlinformationen verbreiten sich schneller und KI-Systeme wiederholen Fehler möglicherweise weiter, auch nachdem Korrekturen veröffentlicht wurden.
Schnelligkeit und Owned Media werden dadurch deutlich wichtiger
Man beginnt damit, die ursprüngliche Quelle zu korrigieren, und veröffentlicht anschließend klare, strukturierte Inhalte auf den eigenen Kanälen. KI-Tools lernen aus dem, was bereits online ist.
Man kann nicht jeden Output kontrollieren, aber man kann beeinflussen, woraus Maschinen lernen.
Intern verifizieren, schnell ein sachliches Statement veröffentlichen und Updates im Newsroom zentralisieren.
Emotionale Reaktionen vermeiden und bei den Fakten bleiben.
Ja. Newsrooms, Executive-Bios, FAQs und offizielle Statements sind für viele KI-Systeme primäres Quellmaterial.
Wenn eure eigenen Inhalte veraltet oder fragmentiert sind, füllt KI die Lücken.
KI hat die Rolle der PR nicht ersetzt und wird es auch nicht, aber sie hat die Anforderungen erhöht.
Euer Newsroom versorgt heute Maschinen genauso wie Journalisten, und eure Reaktionsgeschwindigkeit beeinflusst automatisch generierte Zusammenfassungen. Struktur spielt eine immer größere Rolle dabei, wie Narrative interpretiert werden.
Die Grundprinzipien gelten aber nach wie vor: Klarheit, Konsistenz, Glaubwürdigkeit... nur auf einem ganz anderen Level!
Wir veranstalten ein Live-Krisen-Simulator-Webinar, bei dem ihr ein KI-gesteuertes Krisenszenario in Echtzeit durchspielt und Entscheidungen trefft, während sich die Ereignisse entfalten. Praxisnah, leicht unbequem (im positiven Sinne) und konzipiert für Kommunikationsteams, die genau mit den Situationen konfrontiert sind, die in diesem Artikel beschrieben werden.
👉 Zum Krisen-Simulator: Wie man einen Deepfake-Skandal in Echtzeit managt