Tipps & Lesehinweise EU AI Act: Zwischen Überregulierung und Risikominimierung

Rossbach Andreas AcronisDie „Arbeitsgemeinschaft CommTech“ (AG CommTech) wird gemeinsam getragen vom Institut für Management- und Wirtschaftsforschung (IMWF) und von Thomas Mickeleit. Die AG erarbeitet Lösungen für die digitale Kommunikation und stellt diese der interessierten Fachöffentlichkeit vor. Im aktuellen „CommTech Newsletter“ vom 2. Januar erschien ein Blogbeitrag von Andreas Rossbach (Foto © privat), Team Lead Corporate Communications Europe & Israel bei Acronis zum EU Artificial Intelligence Act (EU AI Act), der sich mit den möglichen Konsequenzen der politischen Einigung beschäftigt.

Der Beitrag von Andreas Rossbach umreißt, was die politische Einigung zum AI Act bedeutet und worüber Kommunikatorinnen und Kommunikatoren nachdenken sollten. Mit freundlicher Genehmigung dürfen wir den Artikel auch hier veröffentlichen.

EU AI Act: Zwischen Überregulierung und Risikominimierung

Von Andreas Rossbach

Nach langen Diskussionen verständigten sich die EU-Staaten im Dezember 2023 auf einen politischen Kompromiss zum EU Artificial Intelligence Act (EU AI Act), das weltweit erste umfassende Gesetz zur künstlichen Intelligenz. Der endgültige formale Beschluss wird dieses Jahr erwartet.

Passend dazu erklärte Bitkom-Hauptgeschäftsführer Bernhard Rohleder: „ (…) Trotz des auf dem Papier erzielten grundlegenden Kompromisses besteht die bedeutende Herausforderung darin, diese Vereinbarung in praxisgerechte Regeln zu überführen, die eine solide Basis für den verantwortungsbewussten Umgang mit KI schaffen. Die Gefahr, die Anwendung und Entwicklung von KI in Europa zu behindern, anstatt sie zu fördern, bleibt durch Überregulierung weiterhin bestehen (…).“

Risikokategorien als Orientierungshilfe

Der AI Act widmet sich neben der Begriffsdefinition von Künstlicher Intelligenz, auch der Einstufung in Risikogruppen. Gegenwärtig werden vier Risikokategorien vorgeschlagen:

(1)          Ein inakzeptables Risiko

(2)          Ein hohes Risiko

(3)          Ein begrenztes Risiko

(4)          Ein niedriges Risiko

Systeme, die darauf abzielen, Menschen auszubeuten oder zu unterdrücken, würden gemäß dem AI-Act in die Kategorie der inakzeptablen Risiken fallen und wären folglich verboten, sobald der AI-Act in Kraft tritt. Ebenso fallen in diese Kategorie Social-Scoring-Systeme, die Menschen aufgrund ihrer Handlungen und Äußerungen bewerten, sowie Systeme, die biometrische Daten in Echtzeit analysieren können. KIs, die in den anderen Risikogruppen 2,3 und 4 sind, sind grundsätzlich erlaubt, allerdings müssen die Systeme, je nach Risiko, eine Reihe von Bedingungen erfüllen.

Vier Tipps für Kommunikations- und Marketingverantwortliche

Zunächst ist gemäß der Risikopyramide der EU zu prüfen, ob der Einsatz von KI in einem problematischen Bereich geplant ist, um geeignete Testprotokolle zu implementieren. Wenn beispielsweise die Kommunikationsabteilung in einem Unternehmen KI-Tools für die Generierung von Content einsetzt, könnten falsche Informationen, Rechtschreibfehler, Gender-Stereotypen und andere Probleme auftreten. Derartige Risiken lassen sich jedoch durch entsprechende Maßnahmen minimieren.

Des Weiteren sind Testprotokolle, „gesunder Menschenverstand“ und „kritisches Hinterfragen“ zwingend erforderlich, unabhängig von der Risikostufe, wann immer KI-Tools eingesetzt werden. Denn bis die Hersteller dazu verpflichtet sind, wird es noch einige Zeit dauern, währenddessen jedoch können Fehler auftreten. Es mag zwar verlockend sein, tausende Pressemitteilungen oder Produktbeschreibungen per Knopfdruck zu generieren, jedoch birgt dies Risiken, wenn sie ohne Überprüfung veröffentlicht werden.

Obwohl KI-gestützte Datenanalysen rasch Erkenntnisse liefern und somit gleichermaßen für Kommunikationsabteilungen und Unternehmen von Interesse sind, bleibt gleichzeitig unsicher, wie mit den generierten Daten umgegangen wird. Daher ist es derzeit nicht ratsam, umfassende Unternehmensdaten den Tools zur Verfügung zu stellen, da die Sicherstellung der Vertraulichkeit noch nicht gewährleistet ist.

Schließlich betont die EU die Notwendigkeit von Transparenz, selbst bei geringen Risiken, nicht umsonst. Daher sollten Kommunikations- und Marketingabteilungen bereits jetzt konsequent AI-gestützte Inhalte klar kennzeichnen (siehe u.a. auch DRPR Richtline). In einer Ära, in der Algorithmen dazu neigen, auch inhaltslose Informationen zu verstärken und uns in filterblasenartige Informationsumgebungen einzusperren, stellt diese Transparenz einen essenziellen Datenpunkt dar. Dieser ermöglicht zumindest eine kritische Interpretation. Es ist absehbar, dass das Transparenzgebot in irgendeiner Form eingeführt wird. Daher ist es sinnvoll, sich bereits jetzt auf Transparenz einzustellen.

Über den Autor: Andreas Rossbach ist Team Lead Corporate Communications Europe & Israel bei der Acronis International GmbH, einem globalen Technologieunternehmen mit Hauptsitz in Schaffhausen, Schweiz. Rossbach ist zudem Mitglied des Leitungskreises der AG CommTech und beschäftigt sich dort mit dem Themen-Cluster Wirkungsmessung.

Der „CommTech Newsletter“ richtet sich an die inzwischen mehr als 400 Mitglieder der AG CommTech und alle an der Digitalisierung von Kommunikation interessierten Personen. Weitere Informationen über die AG CommTech, deren Medienpartner das „PR-Journal“ ist, sowie ein Bestellformular für den Newsletter finden sich hier auf der Website der AG CommTech.

Seitennavigation