Künstliche Intelligenz: Wenn sich der PC beim Texten selbstständig macht
© Tierney – stock.adobe.com

Künstliche Intelligenz: Wenn sich der PC beim Texten selbstständig macht

5 min.

Künstliche Intelligenz (KI) gilt als disruptive Technologie – wie und welche Bereiche der Wirtschaft sie auf den Kopf stellen wird, zeigt sich nach und nach. Bereits jetzt aber berühren die Systeme, etwa zur Texterstellung, Urheberrechte und Datenschutz. Worauf also müssen Unternehmerinnen und Unternehmer achten, wenn sie KI-Modelle benutzen? Wir haben ChatGPT gefragt – und zur Sicherheit noch die Ecovis-Experten.

Künstliche Intelligenz (KI) birgt für Unternehmen große Potenziale, sei es durch eine weitere Automatisierung, für besseren Kundenservice mithilfe von Chatbots, durch optimierte Vertriebsansätze mittels Datenanalysen oder beim Einsatz für die Qualitätskontrolle.

Die Debatte um Chancen und Risiken geht weiter

Während Befürworter in der technologischen Entwicklung Chancen sehen, nehmen kritische Stimmen KI als unkontrollierbare Bedrohung wahr. Dazu haben sicher auch die Negativschlagzeilen der vergangenen Jahre beigetragen – von Wirtschaftsspionage über Abhörskandale bis hin zum Missbrauch von Bewegungsdaten zur Verfolgung politischer Gegner durch autoritäre Staaten. „Darüber sollten wir uns im Klaren sein, wenn wir diese Systeme nutzen und mit Daten speisen“, sagt Karsten Neumann, Datenschutzexperte bei Ecovis in Rostock.

ChatGPT – was es kann und was zu beachten ist

Ein KI-Modell, das derzeit die Diskussion um Potenziale und Gefahren befeuert, ist ChatGPT. Was kann die Software? „KI-Modelle wie ChatGPT können menschenähnliche Texte erzeugen, Fragen beantworten, Texte übersetzen, Inhalte zusammenfassen, Klassifizierungsaufgaben durchführen, Texte generieren, Chats führen, Empfehlungen geben, Sprachbefehle verarbeiten, Informationen abrufen und vieles mehr“, sagt ChatGPT selbst und ergänzt: „KI-Modelle lernen aus großen Mengen an Daten und können dadurch menschenähnliche Fähigkeiten in Bezug auf Sprachverständnis und Textgenerierung entwickeln.“ Das klingt vielversprechend. Was ChatGPT aber nicht verrät: Woher stammen die großen Mengen an Daten eigentlich? Und wer nutzt sie wofür, heute und auch in Zukunft? „Ein klarer Verstoß gegen Datenschutzregeln in vielen Ländern“, sagt Neumann und verweist auf die Ermittlungen gegen den kanadischen Betreiber OpenAI, die bereits in mehreren Ländern laufen.

Unbedingt den Datenschutz beachten

Und wie ist die Rechtslage für Unternehmen, die ChatGPT nutzen? Die wenig hilfreiche Antwort des KI-Modells lautet: „Die rechtlichen Regeln für Unternehmen, die Texte mit ChatGPT oder ähnlichen KI-Modellen erstellen, hängen von verschiedenen Faktoren ab.“ Ecovis-Datenschutzexperte Neumann ist da deutlicher: „Die einzige zuverlässige Möglichkeit, das Datenschutzrisiko zu eliminieren, ist, das Tool nicht zu nutzen.“

Wer die Risiken der Nutzung zumindest eindämmen möchte, muss die Datenschutzgrundverordnung beachten. Unternehmen müssen unter anderem ein Verfahrensverzeichnis anlegen, das die verwendete Software auflistet. Und wer mit sensiblen Informationen hantiert, etwa mit Patienten- oder Mandantendaten, muss besonders vorsichtig sein. Denn das KI-Modell verarbeitet und verbreitet die Informationen, die etwa mittels Fragestellungen dort landen, weiter. „Dokumentieren Sie daher in jedem Fall Datenschutzfolgeabsichten und sprechen Sie mit Ihrem Datenschutzbeauftragten, bevor Sie oder Ihre Mitarbeiterinnen und Mitarbeiter solche KI-Modelle nutzen“, sagt Neumann. Unternehmen sollten auch die eigenen Dienstleister mithilfe einer Auftragsverarbeitungsvereinbarung, die die Nutzung nichtdatenschutzkonformer Tools ausschließt, in die Pflicht nehmen.

Was Unternehmen wissen sollten

„Nur wer die Funktionsweise der Software versteht, kann die Risiken für das eigene Unternehmen auch abschätzen und die gesetzlichen Anforderungen der Artikel 13, 21, 22 DSGVO an das Profiling erfüllen“, sagt Neumann. Sein Kollege Daniel Kabey, Rechtsanwalt bei Ecovis in Nürnberg, pflichtet ihm da bei, auch weil sich mit Blick auf das Urheberrecht weitere Fallstricke für Unternehmen ergeben. Und das bestätigt selbst ChatGPT: „Bei der Erstellung von Texten mit ChatGPT ist es wichtig sicherzustellen, dass keine Urheberrechtsverletzungen vorliegen.“ Kabey erwidert: „Doch genau da liegt das Problem. Die KI-Modelle geben nicht zu erkennen, ob Urheberrechtsverletzungen vorliegen, da sie die Herkunft der Informationen nicht offenlegen.“ Was also kann passieren, wenn ich eine solche Software unbedarft nutze? „Generiert die KI Texte, die dem Urheberrecht unterliegen, ist das Vervielfältigungsrecht berührt“, erklärt Kabey. Das ist vor allem dann ein Problem, wenn Unternehmen diese Texte wiederum selbst veröffentlichen, etwa auf dem Unternehmensblog oder als Teil eines Kunden-Newsletters.“

Vertrauen allein reicht nicht

Unternehmen bleibt also nur, die künstlich generierten Texte auf Ähnlichkeiten mit geschützten Werken zu prüfen und anschließend abzuschätzen, ob es sich um eine Reproduktion des Werks handelt oder nicht. Dabei können Suchmaschinen oder spezielle Plagiatssoftware helfen. ChatGPT selbst spricht von „einer komplexen Aufgabe“, Rechtsanwalt Kabey nennt es „detektivische Arbeit, die kaum den Nutzen wert ist“. Bei Verstößen gegen das Urheberrecht haften aus Sicht Kabeys übrigens die Anwender, „da sie die Texte durch ihre konkrete Fragestellung hervorgerufen haben“. Eine höchstrichterliche Rechtsprechung gibt es dazu bislang jedoch nicht.

Wer Textgenerierungssoftware nur für triviale Fachtexte nutzt, als Inspirationsquelle oder Ausgangspunkt für die eigene Recherche, der ist aus rechtlicher Sicht auf der „ein bisschen sicheren“ Seite, aber nicht vor Fehlern gefeit. Denn die generierten Texte liefern nicht zwangsläufig gute Qualität, gibt ChatGPT zu: „ChatGPT kann nützliche und relevante Informationen liefern, aber es kann auch falsche oder irreführende Aussagen machen.“ Kabey stellt klar: „KI-Modelle zu nutzen ist kein Freifahrtschein für die Verbreitung von Unwahrheiten. Die Sorgfaltspflicht, insbesondere gegenüber Verbrauchern, ist immer geboten.“

Arbeitsrecht: Frühzeitig Regelungen treffen

Unternehmen – insbesondere diejenigen, die in besonders datenschutz- oder urheberrechtssensiblen Bereichen arbeiten – sollten sich genau überlegen, welche KI-Tools sie im Unternehmen zulassen wollen und welche nicht. „Vertragliche Vereinbarungen sind da nützlich. Es reichen aber auch Weisungen, die bestenfalls ebenfalls schriftlich zu fixieren sind“, erklärt Gunnar Roloff , Rechtsanwalt und Fachanwalt für Arbeitsrecht bei Ecovis in Rostock. Angesichts der kontinuierlichen Entwicklungen im Bereich KI-Tools rät Roloff zu einer Positivliste. Das bedeutet, Unternehmen sollten definieren, welche Tools erlaubt sind – und alle anderen ausdrücklich verbieten. Gegebenenfalls sollten sie den Betriebsrat miteinbeziehen. Am wichtigsten aber ist es, angesichts des rasanten Fortschritts im Bereich KI auf dem Laufenden zu bleiben. „Nur so können Unternehmen Risiken und Chancen gut einschätzen und entsprechende Weisungen auch anpassen“, resümiert Ecovis-Rechtsanwalt Roloff .

Dr. Daniel Kabey
Rechtsanwalt in Nürnberg
Tel.: +49 911-206 85 34
Dr. Gunnar Roloff
Rechtsanwalt in Rostock
Tel.: +49 381 12 88 49 0
Karsten Neumann
Landesbeauftragter für Datenschutz M-V a.D. in Rostock
Tel.: +49 381 12 88 49 0

Kontakt Ecovis:

Unternehmenskommunikation
Tel.: +49 89 5898-266 presse@ecovis.com

Weitere Infos:


Newsletter:
Das Wichtigste für Unternehmen aus Steuern, Recht und Wirtschaft.
Jetzt anmelden