Personalrat der TU (PersRat)

Newsdetails

Alle News

ChatGPT - Chancen und Risiken

ChatGPT ist ein Thema, das derzeit beinahe täglich durch die Medien geht, aber mittlerweile auch die TU erreicht hat. Hier ist es auch nicht mehr nur der Bereich von Forschung und Lehre, sondern auch die Verwaltung, die damit konfrontiert wird und in der Beschäftigte durchaus schon einmal probieren, was es damit auf sich hat. In der Lehre ist es gar nicht mehr wegzudenken, denn Studierende verwenden ChatGPT bereits für zu erbringende Leistungen wie Hausarbeiten o.ä.

Was ist ChatGPT eigentlich?

ChatGPT ist ein Large-Language-Model (LLMs) (Großes Sprachmodell), welches aufgrund von Wahrscheinlichkeiten und Modellen versucht Wörter, Wortgruppen und Sätze in die richtige Reihenfolge zu bringen.

Es wird oft mit künstlicher Intelligenz beschrieben, besitzt aber selbst wenig direktes Verständnis von Geschehnissen (Intelligenz).

Des Weiteren wird oft von „Pre-trained“ (vorab gelernt) gesprochen, dennoch lernt ChatGPT zusätzlich von den Eingaben und Verhalten der Benutzer.

Diese Ergebnisse sind nicht immer gleich sichtbar oder abrufbar und werden oft in späteren Veröffentlichungsversionen mit eingearbeitet, da die Ergebnisse oft durch eine menschliche Komponente vorher überprüft, gefiltert und abgesegnet werden müssen.

Was bedeutet das ständige Lernen solcher Modelle für die Nutzenden/für Sie?

Keine Frage ChatGPT kann ein sehr hilfreiches Werkzeug für einfache, zeitaufwendige oder gar wissensfremde Aufgaben sein, aber man sollte sich bewusst sein, dass man selbst keine Informationen in seinen Fragen/Aufgaben verwenden sollte, wenn diese schützenswert oder sogar mit einer Verschwiegenheitsklausel versehen sind.

Es ist also schon die Eingabe von sensiblen Daten vorab zu überprüfen.

Ebenso sind die erhaltenen Informationen immer zu hinterfragen und auf mögliche Urheberrechtsverstöße zu überprüfen, denn diese Modelle haben oft ohne die Beachtung dieser Regelungen (Datenschutz/Urheberrecht) Inhalte erlernt und geben diese nun als eigene Inhalte wieder.

Die Wahrscheinlichkeit kann natürlich auch dafür sorgen, dass Inhalte Unwahrheiten enthalten oder gar komplett falsch sind und wenn man dann wenig bis keine Ahnung von der Thematik hat, könnte dies auch zu peinlichen Situationen führen.

Aus Urhebersicht und Datenschutz wäre man sicherer, wenn die TU eine eigene Instanz eines LLMs basierend auf der seit dem Boom von ChatGPT immer mehr veröffentlichten Open-Source-Modellen und Datensätzen betreiben würde.

Viele Firmen planen dies bereits, da sie ihre schützenswerten Daten/Informationen nicht einer öffentlichen Instanz übergeben können und wollen. Solch lokale Instanzen sind vielleicht nie so mächtig in ihren allgemeinen Antworten, aber dafür spezialisiert sehr gut.

Warum ist das für den Personalrat und für Sie von Interesse?

Künstliche Intelligenz kann für viele Anwendungen und somit auch für Beschäftigte nützlich sein. Nichtsdestotrotz ist es unsere Aufgabe uns mit dem Thema aus personalrätlicher Sicht zu beschäftigen und es zu beurteilen. Das soll nicht bedeuten, dass wir uns dieser- und auch anderer neuer Technologie verschließen möchten, jedoch sind einige Aspekte zu berücksichtigen und es bedarf einer Strategie der TU Berlin, um einen möglichst sicheren und reibungslosen Umgang mit „ChatGPT und Co.“ zu ermöglichen.

Momentan ist es so, dass uns die Welle schon überrollt und mitreißt und dabei möglicherweise wichtige rechtliche Rahmenbedingungen nicht (ausreichend) berücksichtigt werden. Das sind z.B. Datenschutzgrundregeln sowie Haftungs- und Schadensersatzrisiken.

So dürfen z.B. bei der Nutzung von ChatGPT keine personenbezogenen Daten von Dritten (z.B. Namen oder Adressen) ohne Zustimmung der Betroffenen eingegeben werden. Solche eingegebenen Daten werden von ChatGPT gespeichert und genutzt. In den Nutzungsbedingungen wird verlangt, dass Nutzende die DSGVO einhalten. Das Eingeben von Betriebs- und Geschäftsgeheimnissen kann ein Verstoß gegen gesetzliche oder vertragliche Geheimhaltungsverpflichtungen darstellen. Deshalb die eindringliche Bitte: Geben Sie keine sensiblen Daten in ChatGPT ein!

Mehr Infos finden Sie hier:

https://www.reutlingen.ihk.de/service/service-themen/urheberrecht-und-datenschutz-bei-chat-gpt/#:~:text=Ein%20Unternehmen%20ist%20an%20die,Namen%20oder%20Adressen%20eingegeben%20werden

Derzeit wird auf EU-Ebene ein Gesetz zur Künstlichen Intelligenz vorbereitet. Der Prozess soll bis zum Ende des Jahres abgeschlossen sein:

https://www.europarl.europa.eu/news/de/headlines/society/20230601STO93804/ki-gesetz-erste-regulierung-der-kunstlichen-intelligenz

Ein weiterer wichtiger Aspekt sind Urheberrechte.

Von KI/Sprachmodellen erzeugte Text unterliegen im Allgemeinen nicht dem Urheberrecht, es können aber Teile enthalten sein, die urheberrechtlich geschützt sind. Die Vervielfältigung oder Verbreitung von solchem urheberrechtlich geschütztem Material ohne Erlaubnis, kann illegal sein und Konsequenzen nach sich ziehen.

Die TU Berlin sollte als Arbeitgeberin für die Beschäftigten festlegen, in welchem Rahmen die Verwendung zulässig ist oder/und, dass Texte ausgewiesen werden, die mit ChatGPT erstellt wurden. Außerdem ist zu prüfen, ob die Verarbeitung von bestimmten Daten in ChatGPT rechtlich zulässig ist. Wie bereits erwähnt, könnte eine TU-eigene Instanz hilfreich sein. Es sollte also geprüft werden, ob eine der viele anderen Lösungen zur Nutzung an der TU Berlin infrage kommen würde. Diese sind eventuell noch nicht so gut trainiert, werden aber "lokal" und per Open-Source-Software betrieben. Die TU könnte also eine eigene Instanz mit eigenen Daten trainieren und somit Urheberproblemen vorbeugen.

Übersicht über verfügbare Modelle: (https://github.com/eugeneyan/open-llms)

Wird ChatGPT über einen persönlichen Account für dienstliche Zwecke verwendet, so erhöht sich die persönliche Verantwortlichkeit für z.B. benutzte Texte oder Textpassagen. Es müssen in diesem Zusammenhang urheberrechtliche Vorgaben beachtet werden.

Sollte es bei der Nutzung von ChatGPT zu Datenschutzverstößen oder Verletzung von Urheberrechten kommen, können Schadensersatzansprüche die Folge sein.

Der Personalrat hat aufgrund der bereits genannten Aspekte diverse Mitbestimmungsrechte zum Schutz der Beschäftigten, z.B. der Ausschluss von Verhaltens- und Leistungskontrollen, bei der Einführung technischer Einrichtungen etc.

Zu klären ist u.a. auch inwieweit KIs Arbeitsplätze gefährden oder aber insbesondere stark überlastete Bereiche entlasten können. Somit wird deutlich, dass ein Diskussions- und Entscheidungsprozess zum Einsatz von KI, ChatGPT und Co. überfällig ist und dringender Handlungsbedarf besteht.

Richtlinien zur Nutzung kommen inzwischen auch von der DFG und geben Orientierung:

https://www.dfg.de/download/pdf/dfg_im_profil/geschaeftsstelle/publikationen/stellungnahmen_papiere/2023/230921_stellungnahme_praesidium_ki_ai.pdf

Unser behördlicher Datenschutz hat sich ebenfalls ChatGPT angeschaut und in seinem Blog einen Post mit Informationen und Hinweisen hinterlegt:

Datenschutzaspekte bei ChatGPT

Wie weiter?

Der Personalrat ist mit der Chief Digital Officer Veronique Riedel zu einer Strategie/Vorgehensweise an der TU Berlin im Gespräch. Der Personalrat wird prüfen inwiefern hierzu eine Dienstvereinbarung sinnvoll ist, um einerseits diese spannende Technik zu nutzen und andererseits Ihre Belange als Beschäftigte zu schützen.

Wir werden Sie laufend informieren und bitten Sie bis zur Regelung durch die TU Berlin mit ChatGPT sorgfältig und kritisch prüfend umzugehen.

© Marketcomlabo @wikimedia CC-BY-SA 4.0