Game-Changer | Brunswick Group

Game-Changer

Ein Artikel von Dr. Christian Lawrence im prmagazin 06/2023.

Der gesamte Artikel steht hier zum Download zur Verfügung.

 

Dass Künstliche Intelligenz alles auf den Kopf stellen wird, schrieb Christian Lawrence schon 2017 im Auftakt-Beitrag unserer „Standpunkt“-Reihe. Wie blickt der damalige Munich-Re-Kommunikationschef und heutige Senior Counsellor bei der Brunswick Group sechs Jahre später auf Chancen und Risiken der Informationsvermittlung mithilfe von KI?

Eine Vorbemerkung: Dieser Text ist nicht mit ChatGPT geschrieben. Ich habe es aber probiert. Das Ergebnis taugt für einen ersten Überblick (versuchen Sie es auch!), aber es fühlt sich „langweilig“ an. Ich bekam eine Liste von „A“ für schneller beantwortete Anfragen bis „V“ für effizientere Vertriebsunterstützung. Die wichtige Frage, wie sich Unternehmen im Aufmerksamkeitswettbewerb besser positionieren können, blieb unbeantwortet. Ich las auch nichts dazu, was ChatGPT, Bard, GrammarlyGO und Co für die Stellen und die Jobprofile in unserer Profession bedeuten. Und schließlich bleibt die Grundsatzproblematik: „Kann man KI-gestützten Texten oder Sprachaussagen eigentlich trauen?“

Unverändert das Hauptproblem: Wie erhöhe ich die Kommunikationswirkung?

und andere KI-gestützte Tools müssen im Licht des Hauptproblems guter Unternehmenskommunikation betrachtet werden: der Frage der Wirkung. Bei der klassischen PR ist das die Anzahl der Artikel, einzelner Statements und deren Tonalität – in dem Medienset, national oder international, dass ich als für mein Unternehmen relevant definiert habe. Auf sozialen Plattformen wiederum definiert sich die Wirkung anhand der Reichweite und des Grads des Engagements, also der Likes, Retweets und so weiter.

Die enorme Beschleunigung der Medienberichterstattung, die Vielfalt der Titel, die laufende Aktualisierung der Online-Plattformen machen es schwieriger, innerhalb dieses Grundrauschens noch als eine Stimme wahrgenommen zu werden. Besonders deutlich wird das Problem auf digitalen Kanälen. „Meinungsführer“ für etwas sein zu wollen, ist ein Ziel, das heute noch viel komplizierter zu erreichen ist als früher.

Der Zusammenhang mit ChatGPT liegt auf der Hand. Die allermeisten klassisch aufgestellten Kommunikationsbereiche arbeiten zu langsam, um in der täglichen Flut von durchaus relevanten Nachrichten mehr oder weniger sofort Antworten zu liefern, aus denen sich dann Wirkung im oben definierten Sinn ergibt. Für ein erfolgreiches Agenda Surfing ist aber genau das nötig. Wer zum Beispiel als Versicherer eine Woche braucht, um zu einem spektakulären Schadenereignis Einordnungen zu geben, darf sich nicht wundern, wenn dieses in der Zwischenzeit von konkurrierenden Nachrichten „überholt“ wurde.

In der Autoindustrie wären das, analog angewendet, eine technische Innovation, eine politische Entscheidung zur Ladesäuleninfrastruktur oder zu CO2-Emissionen. Banken etwa äußern sich zu Leitzinsveränderungen, Pharmaunternehmen zu Neuigkeiten bei der Forschungsförderung. Die Liste der Beispiele, bei denen Unternehmen auf der „Welle“ mitschwimmen und schneller als andere eine Stellungnahme abgeben könnten, ließe sich beliebig verlängern.

Ein KI-Tool wie ChatGPT, das auf Knopfdruck aus intern verfügbaren Dokumenten, Schadenstatistiken, Fachberichten etc. eine Stellungnahme zusammenstellt, wäre Gold wert. Erste Produkte wie Imory (KI-gestützter Newsroom) scheinen dieses Thema aufzugreifen, indem sie das Sprachmodell von ChatGPT mit unternehmenseigenen Quellen „füttern“.

In der Kombination mit proprietärem Content kann auf diese Weise eine bis dahin unerreichte Relevanz erzeugt werden, die auch noch durch Vorschläge für eine themengenaue Bebilderung ergänzt wird. Wohlgemerkt nicht notwendigerweise besser, aber schneller. Und im Wettbewerb um Aufmerksamkeit kommt es, anders als früher, in erster Linie auf Schnelligkeit an.

Unverändert herausfordernd ist aber für viele Unternehmen, externe Ereignisse zu erkennen, aus denen sich Kommunikationschancen ergeben. Anders formuliert: Ich kann mit einer KI-Anwendung wie ChatGPT noch so schnell und brillant Content erzeugen, es nützt mir nichts, wenn ich nicht die Anlässe identifiziere, die ich zur eigenen Positionierung nutzen kann.

Bei internationalen Konzernen funktioniert das oft – aber auch nicht immer – im Heimatmarkt, wo in der Zentrale Kommunikationsprofis mit Gespür für relevante Themen sitzen. Aber was ist mit den Tochtergesellschaften, in denen es, wenn überhaupt, nur eine kleine Kommunikationsabteilung gibt, die sich auf reaktive Arbeit beschränkt? Und zwar auch dann, wenn der entsprechende Markt, sagen wir die USA, aus Geschäftsperspektive eigentlich viel größer und relevanter ist als der Heimatmarkt?

Hier gibt es zwei Möglichkeiten: Entweder ich habe einen reibungslos funktionierenden horizontalen Austausch von Kommunikationsanlässen, unterstützt durch eine Governance der Kommunikation, die solches Verhalten fördert. Oder ich etabliere eine technisch basierte Lösung, die mir aus klassischen Medien und aus digitalen Plattformen die Geschehnisse herausfiltert, zu denen ich mich positionieren kann. Es gibt wohl auch schon Kombinationen von beidem.

Droht ein massiver Stellenabbau in der Unternehmenskommunikation?

Auf den ersten Blick spricht vieles dafür.

Was bedeuten ChatGPT und Co für die Jobs in der Kommunikation?

Experten sagen, dass schon 2026 zirka 90 Prozent allein der Online-Texte „synthetisch“ sein werden. Droht also, wie pessimistische Stimmen sagen, ein massiver Stellenabbau in der Unternehmenskommunikation? Auf den ersten Blick spricht vieles dafür. Wer selbst häufig Fachtexte schreibt, weiß, wie viel Arbeit allein in einer seriösen Recherche vieler Quellen steckt. Von den Mühen der Texterstellung ganz zu schweigen. Und wenn das Ganze auch noch länger dauert als beim Wettbewerber, der es mit KI-generiertem Content viel schneller in die Medien schafft und buchstäblich den „Platz besetzt“, ist der Manufaktur-Text möglicherweise ganz obsolet.

Aus dem Journalismus hört man oft, ein bisschen wie das sprichwörtliche Pfeifen im Walde, dass sich die journalistische Arbeit durch KI zwar verändert, diese aber im Kern immer noch erhalten bleiben wird. Das stimmt grundsätzlich – die Frage ist nur, wie viele Stellen im Vergleich zu heute dafür noch nötig sein werden.

Es gibt aber auch eine Gegenposition. Diese lautet: ChatGPT wird nicht einfach nur eine Beschleunigung des heutigen Content-Outputs auf gleichem Level bewirken und die dafür eingesetzten Menschen (teilweise) ersetzen. Sondern die Kraft der KI wird sich in eine Vervielfachung des Outputs umsetzen, der viel differenzierter, viel zeitnäher und dadurch viel relevanter eingesetzt werden kann als heute.

Wer nun einwendet, dass eine noch weitere Vergrößerung des Output-Volumens doch die Aufnahmefähigkeit der Endnutzer überfordert, verkennt, dass die gesamte Medienentwicklung bis heute von einer exponentiellen Zunahme von Content gekennzeichnet war. Neue Medienarten erschienen, ohne dass eine wieder verschwand.

Gibt es nicht in Wirklichkeit einen Informationsmarkt, der noch viel mehr Inhalte aufnehmen kann, als wir uns das heute vorstellen können, solange diese nur, wiederum durch KI-Anwendungen, personalisiert ausgesteuert werden? Ich kenne die Antwort nicht, aber es wird spannend sein zu sehen, wohin die Reise geht – bei den Medien wie auch in den Kommunikationsabteilungen und den Agenturen.

Kann man ChatGPT und Co trauen?

Es mehren sich Stimmen, die Zweifel an der Validität der „Robotertexte“ äußern. Der Kurssturz der Alphabet-Aktie um sieben Prozent Anfang Februar 2023 infolge einer faktisch falschen Antwort eines Bard-Prototypen zeigt, dass dies allein schon für den Kapitalmarkt ein sehr relevantes Thema ist. Aber natürlich sollten sich auch die Anwender über die Grenzen jedenfalls der heute verfügbaren Chatbots im Klaren sein. Im Wesentlichen gibt es zwei Problemfelder:

  • Richtigkeit prüfen

    Chatbots arbeiten mit Wahrscheinlichkeiten, das heißt, sie analysieren, wie wahrscheinlich bestimmte Sätze im thematischen Umfeld der eingegebenen Frage auftauchen ( siehe dazu Michael Meyer- Resende: „ChatGPT lügt, dass sich die Balken biegen“, in: FAZ vom 28.03.2023). Ist viel Material zur eingegebenen Frage verfügbar, funktioniert das sehr gut. Bei exotischen Themen oder Informationen über Personen, die nicht berühmt sind, wird es kritisch.

    Da der Nutzer die hinter der Antwort liegende Datenmenge nicht kennen kann, besteht eine einseitige Abhängigkeit von der Software. Dieses Problem kann der Nutzer noch lösen, indem er wie bisher eine klassische Recherche zur Kontrolle einsetzt. Wenn er dazu nicht mehr die Kapazität hat, und darauf wird es hinauslaufen, wird es eng.

    Man darf gespannt sein auf die bevorstehende KI-Regulierung der EU-Kommission („AI Act“), die jedenfalls für Anwendungen oberhalb einer definierten Risikoschwelle Regeln aufstellen wird. Aber kommen solche Rahmensetzungen rechtzeitig, wo doch die großen KI-Anbieter bereits Nachfolgeversionen angekündigt haben?

  • Kontrolle behalten

    Jeder Chatbot optimiert sich mit zunehmender Datenmenge. Daher ist es denkbar, dass sich im Lauf der Zeit „Algorithmen-Ungerechtigkeiten“ einschleichen und Ergebnisse produziert werden, die ein Mensch so nie hervorgebracht hätte. Das Thema ist sehr wichtig, denn Chatbots treffen Repräsentations- (Wer erscheint namentlich in einer Suchanfrage?) und Allokationsentscheidungen (Wer erhält einen Prämienrabatt beim Versicherungseinkauf?).

    Wie stellen zum Beispiel Banken oder Versicherer, die einen Chatbot im Kundenverkehr einsetzen, sicher, dass sich hier nicht ein Reputationsproblem entwickelt, von dem sich die Unternehmen hinterher nicht distanzieren können? Die Lösung ist offensichtlich: Es erfordert eine regelmäßige Kontrolle anhand von Testläufen und gegebenenfalls auch eine ethische Begutachtung durch ein unabhängiges Gremium.

    In die gleiche Kategorie fällt eine mögliche inhaltliche Voreingenommenheit im politisch-gesellschaftlichen Sinn. Greg Brockman, der CEO von OpenAI, hat auf der jüngsten South-by-Southwest- Digitalkonferenz eingeräumt, dass es in der Hinsicht beim Einsatz von ChatGPT zu Einseitigkeiten gekommen sei, die man abstellen wolle. Inwieweit das gelingt, lässt sich aus Nutzersicht ebenfalls nicht überprüfen.

Natürlich haben Bots wie ChatGPT, Bard etc. eine Auswirkung auf die Rolle und die Monetarisierung des unabhängigen Journalismus.

Und noch eine Schlussbemerkung: Natürlich haben Bots wie ChatGPT, Bard etc. eine Auswirkung auf die Rolle und die Monetarisierung des unabhängigen Journalismus. Je höher das erreichte Qualitäts-

und Vertrauensniveau der Software wird, desto größer wird die Notwendigkeit gerade für privat finanzierte Medienhäuser, ihren Daseinszweck zu begründen. Für eine abschließende Beurteilung ist es dafür noch zu früh. Wer aber denkt, es wird viele Jahre dauern, bis sich das klärt, liegt möglicherweise falsch.

Download (216 KB)