Autoren-Beiträge DeepL, DALL-E 2, ChatGPT: Wie nützt künstliche Intelligenz Ihrem Unternehmen? – Teil 3

Grenzen und Fehlerpotenzial der KI sowie ethische Fragen – Teil 3

Aktuell ist es vielleicht die spannendste Diskussion, die in der PR- und Kommunikationsbranche geführt wird: Wie steht es um die Chancen und Risiken beim Einsatz von künstlicher Intelligenz in der Unternehmenskommunikation? Das Für und Wider haben für das „PR-Journal“ Christina Wöhlke und Tilo Timmermann abgewogen, sie aus der Perspektive einer Sprachdienstleistungs- und Übersetzungsagentur, er aus der Sicht einer Kommunikationsberatung für Technologie-Unternehmen. Dabei herausgekommen ist eine ausführliche Bestandsaufnahme, die diesen Fragen nachgeht: Was können die Chat-Module? Wo liegen die Fallstricke? Brauchen Unternehmen eine KI-Strategie und wie könnte sie aussehen?
Die durchaus kritische Bestandsaufnahme veröffentlicht das „PR-Journal“ in drei Teilen.

In Teil 1 (3. Februar) ging es um die Leistungsfähigkeit und das Verständnis von KI. Teil 2 (10. Februar) behandelt die automatisierte Texterstellung und die Gefahren fürs Corporate Wording. Teil 3 beschäftigt sich nun mit Grenzen und Fehlerpotenzial sowie ethischen Fragen.

Teil 3

Grenzen und Fehlerpotenzial der KI sowie ethische Fragen

Die Qualität des Outputs wird an vielen Stellen geradezu hymnisch gelobt. Wir vermissen bislang eine kritische Analyse, wie sich die besten Ergebnisse der KI im Vergleich zu wirklich gut durchdachten, fundierten Texten eines menschlichen Autors bewerten lassen. Unsere Erwartung ist, dass die KI sehr guten Standardtext für den Massenbedarf schreiben kann, aber keine inhaltlich neuen Impulse in einem Diskurs liefern wird. Doch die Grenzen dessen, was ein langes Training im Verbund mit kreativen Ideen der Nutzer bewirken kann, sind noch längst nicht absehbar. Wer heute behauptet, dass die künstliche Intelligenz die menschliche schnell hinter sich lassen wird, macht sich mit seiner Meinung zumindest nicht mehr lächerlich.

Grenzen und Fehlerpotenzial

Hier steckt auch eine der großen Gefahren des Einsatzes von KI: Wir haben es nicht mit gleichwertigen Gegenübern zu tun, mit denen wir diskutieren können. Wer das annimmt, tappt in die Falle. Unsere menschlichen Mechanismen der Bewertung von Texten können wir nicht auf die künstliche „Intelligenz“ übertragen. ChatGPT kann einen sinnvollen Limerick im vorgegebenen Reimschema „aabba“ schreiben – aber dann reimt sich plötzlich „gerne“ auf „herrje!“, denn das künstliche Hirn weiß nicht, auf welcher Silbe man die Worte jeweils betont. Man kann eine Stellungnahme zur aktuellen Historikerdiskussion anfordern, ob die Hohenzollern die Machtergreifung der Nationalsozialisten unterstützt hätten, doch das Ergebnis ist himmelschreiend falsch. Die KI vertritt mit einem klaren „Nein“ eine Position, die gerade durch eine wissenschaftliche Publikation widerlegt wurde (siehe „Deutschlandfunk Kultur“: Stephan Malinowski: „Die Hohenzollern und die Nazis“). Und sie mischt noch falsche Fakten hinein, von denen man nicht annehmen würde, dass sie jemandem unterlaufen, der quasi über das gesamte Weltwissen verfügt: Laut OpenAI sei Wilhelm II. aus Deutschland ins Exil gegangen, als Hitler an die Macht kam. Zwischen 1918 und 1933 lag aber nun mal die gesamte Weimarer Republik, was hier unter den Tisch fällt. Immer wieder wird von solch haarsträubenden und – unkorrigiert – auch möglicherweise folgenreichen Fehlern berichtet. Spiegel-Autor Jonathan Stock erzählt, dass Versuche, ChatGPT psychische Krankheiten behandeln zu lassen, dazu führten, dass es zum Suizid riet. (siehe „Spiegel“ – paid)

Ethische Implikationen einer maschinellen Intelligenz

Das mögen Fehler sein, die mit mehr Training seltener werden. Schließlich dient ja die Öffnung für die breite Öffentlichkeit dazu, das Material weiter zu verbessern. Die KI wird unfassbar schnell dazulernen. Wir sind aber bei der Nutzung nicht der Maschine unterworfen, sondern vielmehr dem Bias der Programmierer. Längst beschweren sich marginalisierte Gruppen, dass sie in der KI benachteiligt werden. In die Systeme sind rassistische Vorurteile integriert, die bisherigen Trainingsdaten litten unter mangelnder Vielfalt. Das MIT Media Lab zum Beispiel testete die Gesichtserkennungssoftware von Microsoft, IBM und dem chinesischen Unternehmen Face++. (siehe: „Netzpolitik.org“). Man entdeckte, dass alle Systeme das Geschlecht hellhäutiger Männer mit einer Fehlerquote von 0,3 Prozent erkannten. Dunkelhäutige Männer haben die drei Systeme jedoch in sechs Prozent der Fälle falsch klassifiziert, Frauen mit dunklerer Hautfarbe sogar in 30,3 Prozent aller Fälle. Bei der Generierung verfremdeter Selfies für die sozialen Netzwerke fragt man sich, von welchen Stereotypen die erzeugten Bilder geprägt sind. Einige Nutzerinnen haben sich schon über eine unerwünschte Sexualisierung im Output beschwert. Über den möglichen Missbrauch von KI gibt es inzwischen reichlich Literatur.

KI braucht einen klugen Kurator

Bei aller Euphorie: Die geschilderten Fehler fallen manchmal sofort auf, oft aber nur, wenn jemand die Ergebnisse sorgfältig überprüft. Und zwar auf allen Ebenen, logisch, inhaltlich, formal. Manchmal hat man im Umgang mit künstlichen Intelligenzen das Gefühl, dass sich das Gegenüber im Traum befindet und seinen ganz eigenen Gesetzen gehorcht. Bei den KI-generierten Selfies wird das deutlich, wenn einige der Gesichter leere Augenhöhlen haben oder Hände acht Finger – was immer wieder vorkommt. Ähnliche Logikfehler kommen in Texten auch vor, sind dort aber viel schwieriger zu entdecken. Mastodon-Nutzer „The Skeptator“ schrieb: „Was man von ChatGPT lernen kann: Überzeugend auftreten und dabei völligen Unsinn erzählen. Dunning Kruger as a Service.“

In der Unternehmenskommunikation ist also höchste Vorsicht geboten. Es ist ein Irrtum, zu glauben, dass man sich nach ein wenig Herumprobieren die Texte einfach von der KI schreiben lassen könnte. Es bedarf einer wohl überlegten Strategie, die festlegt, welche Botschaften, welche Tonality, welche Inhalte gewünscht sind. Und auch, welche Haltung man zu den ethisch problematischen Aspekten der KI einnimmt. Zudem sind viele rechtliche Fragen etwa zum Urheberrecht bei Weitem noch nicht ausdiskutiert.

Nach einer aufwendigen Trainingsphase in einem geschlossenen System können dann Experten das Lektorat übernehmen, um mögliche Fehler zu erkennen und wiederum den Input entsprechend zu verbessern. Hier sind komplexe Regelprozesse am Werk. Der Mensch wird dadurch nicht überflüssig. Am Anfang wird er sogar mehr Aufwand betreiben müssen. Später muss er eine Rolle als eine Art Kurator übernehmen, der den Regelkreis steuert. Der Einsatz von künstlicher Intelligenz wird immer auch das menschliche Mitdenken erfordern. Das kann am Ende zu mehr Effizienz und Schnelligkeit in der Content-Kreation führen – muss es aber nicht. Vielleicht erfordert es auch dauerhaft einen unverhältnismäßig hohen Aufwand, die Ergebnisse zu verwalten und die Risiken im Griff zu behalten. Der Ausgang ist noch offen.

Über die Autoren: Christina Wöhlke gründete vor 16 Jahren die wordinc GmbH, die sich schnell vom klassischen Übersetzungsbüro zu einer Full-Service-Sprachdienstleistungsagentur entwickelte. Schon früh sammelte sie Erfahrung im Bereich der maschinellen Übersetzung. Nun testen Wöhlke und ihr Team seit 6 Monaten auch KI-Systeme wie Chat-GPT, GPT3, Ryter und Jasper, um Erfahrungen zu sammeln und KI der neuen Generation zunächst intern in die täglichen Prozesse einzubinden. Tilo Timmermann ist Mitgründer und Geschäftsführer der Technik-PR-Agentur TDUB Kommunikationsberatung und Mitglied des Executive Councils des internationalen Agenturnetzwerks IPRN. Als Spezialist für PR-Konzeption und Text beschäftigt er sich aus eigenem Antrieb und im Auftrag seiner Kunden mit neuen Technologien und bewertet regelmäßig deren Nützlichkeit für den Einsatz in der Kommunikation. Beide Unternehmen haben ihren Sitz in Hamburg.