GT News

Steuern, Buchhaltung, Recht und mehr. Alle wichtigen Neuigkeiten für Ihr Unternehmen.

| October 8, 2024

AI-Nutzung – wann ist Transparenz nötig?

Teile den Artikel

Im Allgemeinen muss eine Person, die ein urheberrechtlich geschütztes Werk einer anderen Person in ihrem eigenen Werk verwendet, zumindest den Urheber dieses Werks[1] nennen. Von AI erstellte Inhalte können jedoch nach tschechischem Recht nicht urheberrechtlich[2] geschützt sein.

Dies bedeutet jedoch nicht, dass der Nutzer von AI niemals verpflichtet werden kann, mitzuteilen, dass er bei der Erstellung der Arbeit generative AI eingesetzt hat. Dies kann gemäß den Geschäftsbedingungen der jeweiligen generativen AI erforderlich sein.

Zum Beispiel, die Geschäftsbedingungen der vielleicht beliebtesten generativen AI ChatGPT[3] erfordern, wenn Nutzer ihre Arbeit veröffentlichen und ChatGPT zum Bearbeiten, Überarbeiten oder Entwerfen ihrer Arbeit verwenden möchten, dass sie angeben müssen, dass die Arbeit nicht vollständig von Menschenhand geschaffen wurde. Autoren sollten ihre Werke daher ordnungsgemäß mit beispielsweise folgender Klausel versehen:
Der Autor hat diesen Text teilweise mit Hilfe von GPT-4, einem großen Sprachmodell, OpenAi, erstellt.
Nach der Erstellung des Entwurfs des Werkes hat der Autor diesen überprüft, nach eigenem Ermessen geändert und übernimmt die volle Verantwortung für den Inhalt dieses Werkes.[4]

Im Gegenteil, die Geschäftsbedingungen der generativen AI Claude AI[5] erfordern, dass der Nutzer seine Kunden über den Einsatz von AI informiert – allerdings nur in bestimmten „Risikobereichen“. Dazu gehören beispielsweise: die automatische Generierung von journalistischen oder medialen Artikeln, die Bereitstellung von Empfehlungen mit potenziellen Rechtsfolgen, die Bereitstellung von Finanzberatung, die Beurteilung der Zahlungsfähigkeit einer Person, die Auswertung von Sprach- und Fachtests, die Patientendiagnose, aber auch der Einsatz von AI bei der Auswertung von Lebensläufen potenzieller Mitarbeiter und vielem mehr.

Die Geschäftsbedingungen einiger generativer AIs erfordern jedoch überhaupt keine Kennzeichnung. Zum Beispiel generative AI GEMINI ermöglicht das kostenlose Teilen und Veröffentlichen von Werken, die mit Hilfe von Gemini erstellt wurden, ohne jedwede Kennzeichnung.[6]

Bisher wird die Pflicht zur Kennzeichnung von durch AI generierten Inhalten vor allem durch die Geschäftsbedingungen der eingesetzten generativen AI geregelt. Aber bereits ab dem 2. August 2026 wird die Verordnung des Europäischen Parlaments und des (EU) Rates 2024/1689, das sog. AI-Gesetz („AI Act“)[7], ihre volle Wirksamkeit erreichen.

Die Verpflichtung zur Kennzeichnung von durch AI generierten oder veränderten Inhalten werden gemäß AI Act nur für Anbieter (z.B. OpenAI) gelten (mit Ausnahmen), d.h. Unternehmen, die ein AI-System (z. B gpt 4.0) auf den Markt bringen/in Betrieb nehmen[8]. Diese Kennzeichnung muss maschinenlesbar und gleichzeitig nach dem neuesten Stand der Technik, d.h. (z.B.) mit Hilfe von Metadaten wirksam sein. Eine Kennzeichnung ist nur dann nicht erforderlich, wenn das entsprechende AI-System nur eine Assistenzfunktion übernimmt und nur eine Standardbearbeitung durchführt oder die Eingabedaten oder deren Semantik nicht wesentlich verändert.

Angesichts der Höhe der Geldstrafen, mit denen die Anbieter/Leistungsgeber rechnen müssen (bis zu 3 % des weltweiten Jahresumsatzes), ist davon auszugehen, dass sie eher vorsichtig sein werden. Z.B. ChatGPT hängt bereits heute Metadaten an über das System AI DALL·E 3[9] generierte Bilder an. Es ist möglich, den Ersteller des Bildes anhand gespeicherter Metadaten beispielsweise hier zu überprüfen.

Besondere Pflichten gelten für Anbieter von „Chatbot.“ Der Anbieter muss seine Kunden darüber informieren, dass sie mit AI kommunizieren, es sei denn, dieser Umstand ist aus dem Kontext nicht ersichtlich.

Ein Nutzer, der ein AI-System verwendet, das sog. „deepfakes“[10] bildet, muss Informationen darüber veröffentlichen, dass der Inhalt künstlich erstellt oder manipuliert wurde. Die gleiche Verpflichtung gilt für einen Nutzer, der AI bei der Erstellung oder Bearbeitung eines Textes verwendet, der über eine Tatsache von öffentlichem Interesse informiert. Diese Pflichten gelten jedoch nicht für eine Person, die AI nur für ihre persönliche, außerberufliche Tätigkeit nutzt.

Darüber hinaus müssen Chatbot-Betreiber sicherstellen, dass natürliche Personen darüber informiert werden, dass sie mit einem AI-System interagieren.

Wir fügen auch einen Link zu einem Formular (auf Englisch) bei, um die Auswirkungen von AI Act an Ihr Unternehmen zu testen - HIER.

 

Abschließend

Eine Kennzeichnung der von AI-generierten Inhalten ist durch geltende Rechtsvorschriften nicht vorgeschrieben. AI Act führt auch keine allgemeine Verpflichtung für Nutzer ein, AI-generierte Inhalte zu kennzeichnen. Dennoch ist es wichtig, die Bedingungen für das Teilen von Inhalten, die vom jeweiligen AI-System erstellt oder miterstellt wurden, stets gründlich zu prüfen. Gleichzeitig bedeutet die Tatsache, dass der Nutzer nicht angeben muss, dass er AI verwendet hat, nicht, dass diese Informationen nicht bereits Teil des generierten Inhalts sein können.

[1] § 31 Abs. 1 Urheberrecht

[2] § 2 Abs. 1 Urheberrecht

[3] Sharing & publication policy | OpenAI

[4] Frei übersetzter und geänderter Muster-Disclaimer von Open AI, erreichbar hier

[5]Usage Policy \ Anthropic

[6] Zusätzliche Geschäftsbedingungen für Gemini API  |  Google AI for Developers

[7] L_202401689CS.000101.fmx.xml (europa.eu)

[8] „Anbieter/Leistungsgeber“ ist eine natürliche oder juristische Person, öffentliche Stelle/Behörde, Agentur oder sonstige Stelle, die ein AI-System oder allgemeines AI-Modell entwickelt oder ein AI-System oder allgemeines AI-Modell entwickeln lässt und diese auf den Markt bringt oder die das AI-System unter ihrem eigenen Namen, ihrer Bezeichnung oder Schutzmarke in Betrieb bringt, sei es gegen Entgelt oder unentgeltlich

[9] C2PA in DALL·E 3 | OpenAI Help Center, ANM. C2PA ist eine Bezeichnung für einen technischen Standard,
der unter anderem für CHATGPT verwendet wird, um Metadaten an die Datei anzuhängen

[10] „deep fake“ - Bild-, Audio- oder Videoinhalte, die durch künstliche Intelligenz erstellt oder manipuliert wurden und existierenden Personen, Objekten, Orten, Themen oder Ereignissen ähneln und für eine Person fälschlicherweise
authentisch oder wahr erscheinen könnten;