Branche Gespräch mit Stefan Watzinger DRPR mahnt tasy.ai wegen KI-Avataren
- Details
- von Annett Bergk, Hamburg
Wenn Täuschung zum Verkaufsargument wird, schlägt der Rat Alarm. Mit dieser klaren Haltung hat der Deutsche Rat für Public Relations (DRPR) das Unternehmen tasy.ai öffentlich gemahnt. Die Plattform bietet Unternehmen und Organisationen sogenannte KI-Influencer:innen an – täuschend echte Avatare, die wie Menschen auftreten, sprechen und wirken. Beworben wird das Ganze als günstige, schnelle und zuverlässige Alternative zu echten Influencer:innen und ausdrücklich „ohne Wasserzeichen“. Für den DRPR ein klarer Verstoß gegen seine KI-Richtlinie sowie die Richtlinie für PR in digitalen Medien und Netzwerken.
Besonders problematisch: tasy.ai stellt die Verwechslungsgefahr nicht als Risiko, sondern als Qualitätsmerkmal heraus. Vor diesem Hintergrund sieht der DRPR die „Gefahr einer gezielten Irreführung von Mediennutzer:innen durch den Einsatz von KI“, wie es im Ratsspruch heißt.
„Entsprechend erfolgt die Mahnung im Interesse des Schutzes professioneller Standards, der Aufrechterhaltung öffentlicher Glaubwürdigkeit und der Wahrung ethischer Grundsätze in der PR – gerade im Kontext des zunehmenden Einsatzes von generativer KI im Rahmen von Kommunikationskampagnen.“
Wir haben mit Stefan Watzinger, stellvertretender Vorsitzender des DRPR, über die Entscheidung und die weitergehenden Konsequenzen gesprochen.
PR-Journal: Warum hat sich der Rat entschieden, den Fall tasy.ai öffentlich zu machen? Was war aus Ihrer Sicht das entscheidende Argument für die Mahnung?
Stefan Watzinger: Ausschlaggebend war die Art und Weise, wie Tasy AI sein Angebot offensiv auf LinkedIn bewirbt: Demnach seien KI-Avatare nicht nur günstiger, schneller und zuverlässiger als echte Influencer:innen – sie seien sogar täuschend echt und „ohne Wasserzeichen“. Nach Ansicht des Rates liegt darin ein klarer Verstoß gegen die DRPR-KI-Richtlinie sowie die DRPR-Richtlinie zur PR in digitalen Medien und Netzwerken. Dass das Täuschungspotenzial der KI-Avatare dabei bewusst als Vorteil vermarktet wird, war für den Rat das entscheidende Signal. Als Inverkehrbringer genügt es unserer Ansicht nach nicht, einen kleinen Passus zur Kennzeichnung in die Allgemeinen Geschäftsbedingungen aufzunehmen und gleichzeitig mit dem Gegenteil zu werben. Plattformbetreiber und Auftraggeber tragen hier eine gemeinsame Verantwortung.
PR-Journal: Warum ist das aus Sicht des DRPR so problematisch?
Watzinger: Weil Angebote wie das von Tasy AI den Kern unserer Kommunikationsethik untergraben. Wer Verwechslungsgefahr mit echten Personen als USP vermarktet, nimmt gezielt in Kauf, dass Mediennutzer:innen den Unterschied nicht mehr erkennen können. Das Ergebnis: KI-generierte Inhalte erscheinen als authentische Influencer-Stimmen, obwohl sie komplett künstlich erzeugt sind. Damit wird Glaubwürdigkeit systematisch ausgehöhlt. Wir hätten dazu gerne mit Tasy AI gesprochen, leider hat das Unternehmen nicht auf unsere Anfragen reagiert.
PR-Journal: Ab August 2026 greift die Kennzeichnungspflicht per EU-KI-Verordnung. Warum ist es wichtig, schon jetzt ethische Standards einzuhalten?
Watzinger: Weil Glaubwürdigkeit nicht erst ab 2026 zählt. Wer heute KI-Avatare ohne Kennzeichnung anbietet oder einsetzt, riskiert auch heute schon, Vertrauen zu untergraben. Das gilt nicht nur für die Anbieter, sondern auch für die Auftraggeber und Anwender von KI-Avataren. Denn Inhalte, die jetzt ohne KI-Kennzeichnung verbreitet werden, müssten nach Ansicht des Rates spätestens im August 2026 konsequenterweise auch nachträglich gekennzeichnet oder gelöscht werden – das ist nicht nur zusätzlicher Aufwand, sondern birgt auch das Risiko für Reputationsschäden.
PR-Journal: Nun könnte man sagen: „Das ist doch nur Innovation im Influencer-Marketing.“ Was entgegnen Sie?
Watzinger: Innovation ist willkommen – aber nicht auf Kosten von Transparenz und Glaubwürdigkeit. KI-Avatare können in bestimmten Kontexten wie beispielsweise im Kundenservice sinnvoll sein, solange klar erkennbar bleibt, dass es sich um synthetische Inhalte handelt. Problematisch wird es dort, wo es um bewusste Irreführung geht. Denn wer vorgibt, echte Menschen sprächen, täuscht bewusst – und das ist nach Ansicht des Rates hochgradig problematisch, insbesondere da eine ungekennzeichnete Schwemme von KI-Influencern auch dafür eingesetzt werden kann, die politische Meinungsbildung zu manipulieren.
PR-Journal: Wie groß ist Ihrer Meinung nach das Risiko, dass KI-Avatare das Vertrauen in Influencer Relations insgesamt beschädigen?
Watzinger: Das Risiko ist meiner Ansicht nach erheblich. Wenn für wenige Euro massenhaft täuschend echte Avatare produziert werden können, die scheinbar echte Meinungen äußern, verschwimmt die Grenze zwischen authentischer und artifizieller Kommunikation. Das führt dazu, dass Nutzer:innen nicht mehr sicher sein können, ob eine Botschaft von einer einzelnen realen Person stammt – oder von einem Akteur, der Hunderte Fake-Stimmen in Umlauf bringt. Am Ende leidet nicht nur das Vertrauen in einen isolierten Influencer-Post, sondern in Influencer Relations insgesamt. Und das wäre schade, denn professionell und gut gemachte Influencer-Kommunikation kann erheblich zum Aufbau von Reputation von Marken, Produkten und Unternehmen in relevanten Zielgruppen beitragen.
DRPR-Richtlinie zum Einsatz von KI in der PR (Auszug)
1. Transparenz / Kennzeichnung
Eine Kennzeichnung ist für PR- und Kommunikationsfachleute immer dann verpflichtend, wenn
- KI-generierter Content ungeprüft erstellt und veröffentlicht wird (z.B. KI-basierte Übersetzung von Content).
- bei Rezipient:innen der Eindruck entstehen kann, dass es sich hier um die Wiedergabe bzw. Abbildung von Realität handelt (z.B. KI-generierte Bilder, auch wenn diese manuell nachbearbeitet wurden).
In diesen Fällen müssen PR- und Kommunikationsfachleute den Einsatz von KI offen, transparent und für den Laien eindeutig erkennbar kennzeichnen, damit Adressat:innen von PR-Aktivitäten dies zweifelsfrei erkennen können.
Die Kennzeichnungspflicht gilt auch für Agenturen, Redaktionsbüros, Freelancer:innen, semiprofessionelle Anbieter:innen sowie Privatpersonen, die medienähnliche Plattformen anbieten (Influencer:innen).
2. Wahrhaftigkeit
Das im Deutschen Kommunikationskodex verankerte Prinzip der Richtigkeit und Wahrhaftigkeit gilt auch für die Arbeit mit KI-Tools; daher muss ungeprüfter KI-generierter Content auch gekennzeichnet werden.
Die KI-basierte Erstellung und Verbreitung von Fake-News und sogenannten „Deep Fakes“ zu Manipulationszwecken ist unstatthaft.
Darüber hinaus ist es nicht zulässig, Relevanz durch KI-generierte Interaktionen oder Kommentare sowie den Missbrauch von KI-basierten Verbreitungstools („Bots“) vorzutäuschen.
3. Verantwortung von Auftraggebenden und Agenturen/Dienstleistenden
Beauftragen Unternehmen oder andere Organisationen Agenturen oder Einzelpersonen mit der Durchführung von PR-Maßnahmen, so gelten die Regelungen aus Artikel I und II sowie die Beachtung der Präambel sowohl für Auftraggeber:in als auch für Auftragnehmer:in. Beide Seiten tragen hier gleichermaßen Verantwortung.
- Zugriffe: 1742