Künstliche Intelligenz: Juchhu, die Roboter sind dran?
© ipopba - AdobeStock

Künstliche Intelligenz: Juchhu, die Roboter sind dran?

5 min.

Künstliche Intelligenz gilt als disruptive Technologie – wie und welche Bereiche der Wirtschaft sie auf den Kopf stellen wird, zeigt sich nach und nach. Bereits jetzt aber berühren die Systeme, etwa zur Text- oder auch Bilderstellung, Urheberrechte und Datenschutz. Worauf müssen Unternehmen achten, wenn sie KI-Modelle benutzen? Wir haben ChatGPT gefragt. Und zur Sicherheit noch unsere Ecovis-Experten.

Über künstliche Intelligenz (KI) sprechen im Moment fast alle Menschen hierzulande. Auch wegen der Potenziale, die verschiedene KI-Modelle für Unternehmen bedeuten. Selbst kleine Betriebe versprechen sich durch den Einsatz einen großen Nutzen, sei es durch eine weitere Automatisierung, besseren Kundenservice mit der Hilfe von Chatbots, durch optimierte Vertriebsansätze mittels Datenanalysen oder den Einsatz von KI für die Qualitätskontrolle.

Die Debatte um Chancen und Risiken geht weiter

Während Befürworter in der technologischen Entwicklung Chancen sehen, nehmen kritische Stimmen KI als unkontrollierbare Bedrohung wahr. Dazu haben sicher auch die Negativschlagzeilen der vergangenen Jahre beigetragen – von Wirtschaftsspionage über Abhörskandale bis hin zum Missbrauch von Bewegungsdaten zur Verfolgung politischer Gegner durch autoritäre Staaten. „Darüber sollten wir uns im Klaren sein, wenn wir diese Systeme nutzen und mit Daten speisen“, sagt Karsten Neumann, Datenschutzexperte bei Ecovis in Rostock.

ChatGPT – was es kann und was zu beachten ist

Ein KI-Modell, das derzeit die Diskussion um Potenziale und Gefahren befeuert, ist ChatGPT. Was kann die Software? „KI-Modelle wie ChatGPT können menschenähnliche Texte erzeugen und übersetzen, Fragen beantworten, Inhalte zusammenfassen, Klassifizierungsaufgaben durchführen, Chats führen, Empfehlungen geben, Sprachbefehle verarbeiten, Informationen abrufen und vieles mehr“, sagt ChatGPT selbst und ergänzt: „KI-Modelle lernen aus großen Mengen an Daten und können dadurch menschenähnliche Fähigkeiten in Bezug auf Sprachverständnis und Textgenerierung entwickeln.“ Das klingt vielversprechend. Was ChatGPT aber nicht verrät: Woher stammen die großen Mengen an Daten eigentlich? Und wer nutzt sie wofür, heute und auch in Zukunft? „Ein klarer Verstoß gegen Datenschutzregeln in vielen Ländern“, sagt Datenschutz-Experte Neumann und verweist auf die Ermittlungen gegen den kanadischen Betreiber OpenAI, die bereits in mehreren Ländern laufen.

Unbedingt den Datenschutz beachten

Und wie ist die Rechtslage für Unternehmen, die ChatGPT nutzen? Die wenig hilfreiche Antwort des KI-Modells lautet: „Die rechtlichen Regeln für Unternehmen, die Texte mit ChatGPT oder ähnlichen KI-Modellen erstellen, hängen von verschiedenen Faktoren ab.“ Ecovis-Datenschutzexperte Neumann wird da deutlicher: „Die einzige zuverlässige Möglichkeit, das Datenschutz-Risiko zu eliminieren, ist, das Tool nicht zu nutzen.“

Wer die Risiken der Nutzung zumindest eindämmen möchte, muss die Datenschutzgrundverordnung (DSGVO) beachten. Unternehmen müssen unter anderem ein Verfahrensverzeichnis anlegen, das die verwendete Software auflistet. Und wer mit sensiblen Informationen hantiert, etwa mit Patienten- oder Mandantendaten, muss besonders vorsichtig sein. Denn das KI-Modell verarbeitet und verbreitet die Informationen, die etwa mittels Fragestellungen dort landen, weiter. „Dokumentieren Sie daher in jedem Fall Datenschutzfolgeabsichten und sprechen Sie mit Ihrem Datenschutzbeauftragten, bevor Sie oder Ihre Beschäftigten solche KI-Modelle nutzen“, sagt Neumann. Unternehmen sollten auch die eigenen Dienstleister mithilfe einer Auftragsverarbeitungsvereinbarung, die die Nutzung nicht-datenschutzkonformer Tools ausschließt, in die Pflicht nehmen.

Was Unternehmen unbedingt wissen sollten

„Nur wer die Funktionsweise der Software versteht, kann die Risiken für das eigene Unternehmen auch abschätzen und die gesetzlichen Anforderungen der Artikel 13, 21, 22 der DSGVO an das Profiling erfüllen“, sagt Neumann. Sein Kollege Daniel Kabey, Rechtsanwalt bei Ecovis in Nürnberg, pflichtet ihm da bei, auch weil sich mit Blick auf das Urheberrecht weitere Fallstricke für Unternehmen ergeben. Und das bestätigt selbst ChatGPT: „Bei der Erstellung von Texten mit ChatGPT ist es wichtig sicherzustellen, dass keine Urheberrechtsverletzungen vorliegen.“ Ecovis- Rechtsanwalt Kabey meint: „Doch genau da liegt das Problem. Die KI-Modelle geben nicht zu erkennen, ob Urheberrechtsverletzungen vorliegen, da sie die Herkunft der Informationen nicht offenlegen.“ Was also kann passieren, wenn ich eine solche Software unbedarft nutze? „Generiert die KI Texte, die dem Urheberrecht unterliegen, ist das Vervielfältigungsrecht berührt“, erklärt Kabey. Das ist vor allem dann ein Problem, wenn Unternehmen diese Texte wiederum selbst veröffentlichen, etwa auf dem Unternehmens-Blog oder als Teil eines Kundennewsletters.“

Vertrauen allein reicht nicht

Unternehmen bleibt also nur, die künstlich generierten Texte auf Ähnlichkeiten mit geschützten Werken zu prüfen und anschließend abzuschätzen, ob es sich um eine Reproduktion des Werks handelt oder nicht. Dabei können Suchmaschinen oder spezielle Plagiatssoftware helfen. ChatGPT selbst spricht von „einer komplexen Aufgabe“, Rechtsanwalt Kabey nennt es „detektivische Arbeit, die kaum den Nutzen wert ist“.

Bei Verstößen gegen das Urheberrecht haften aus Sicht Kabeys übrigens die Anwender, „da sie die Texte durch ihre konkrete Fragestellung hervorgerufen haben“. Eine höchstrichterliche Rechtsprechung gibt es dazu bislang jedoch nicht.

Wer Textgenerierungssoftware nur für triviale Fachtexte nutzt, als Inspirationsquelle oder Ausgangspunkt für die eigene Recherche, der ist aus rechtlicher Sicht auf der „ein bisschen sicheren“ Seite. Aber längst nicht vor Fehlern gefeit. Denn die generierten Texte liefern nicht zwangsläufig gute Qualität, gibt ChatGPT zu: „ChatGPT kann nützliche und relevante Informationen liefern, aber es kann auch falsche, irreführende oder ungenaue Aussagen machen.“ Kabey stellt klar: „KI-Modelle zu nutzen ist kein Freifahrtschein für die Verbreitung von Unwahrheiten. Die Sorgfaltspflicht, insbesondere gegenüber Verbrauchern, ist immer geboten.“

Die Bildrechte nicht vergessen

Bei Bildproduktionstools wie Lensa sieht die Sache mit dem Urheberrecht noch mal anders aus. Denn hier speist der Anbieter das Tool mit Daten künstlerischer Werke, aus denen dann neue Werke entstehen. Das führt zu Fragen wie: Ist das Trainieren der App bereits eine Urheberrechtsverletzung? Und hat ein Werk, das eine Maschine kreiert hat, ausreichend Abstand zum Originalwerk? Die Frage der Haftung bei verschiedenen Tatbeständen wird auch Gegenstand künftiger Rechtsprechungen sein, prophezeit Kabey und resümiert: „Wer auf der rechtlich sicheren Seite sein möchte, sollte die Entwicklungen hier noch abwarten.“ Das Gleiche gilt auch für die Wahl der Tools: Weil KI-Forschung und -Entwicklung schnell voranschreiten, lohnt es sich, auf dem Laufenden zu bleiben.

Dr. Daniel Kabey
Rechtsanwalt in Nürnberg
Tel.: +49 911-206 85 34
Karsten Neumann
Landesbeauftragter für Datenschutz M-V a.D. in Rostock
Tel.: +49 381 12 88 49 0

Kontakt Ecovis:

Unternehmenskommunikation
Tel.: +49 89 5898-266 presse@ecovis.com

Weitere Infos:


Newsletter:
Das Wichtigste für Unternehmen aus Steuern, Recht und Wirtschaft.
Jetzt anmelden