Handlungsempfehlungen zum Umgang mit KI-basierten Anwendungen
Stand: 17. Oktober 2025
Ausgangslage und Fokus der Empfehlungen
Lehrende, Studierende und Forschende nutzen seit jeher Werkzeuge, die sie in ihrem wissenschaftlichen Arbeiten unterstützen. Hierzu zählen mittlerweile auch Hilfsmittel, die auf künstlicher Intelligenz (KI) basieren. Inwiefern deren Einsatz in welchen Bereichen des universitären Alltags zulässig ist, ergibt sich in erster Linie aus rechtlichen Vorgaben und hochschulinternen Regelungen. Zu erwägen ist auch, wann der Einsatz von KI im gegebenen Kontext angemessen ist. Hierbei spielen u. a. Auswirkungen auf die Umwelt oder persönliche Fähigkeiten eine Rolle.
Die vorliegenden Empfehlungen bieten Lehrenden, Studierenden sowie Forschenden grundlegende Informationen und sollen sie befähigen, Chancen und Risiken der Verwendung KI-basierter Hilfsmittel kompetent einzuschätzen und sich entsprechend ihres Bedarfs selbstständig fortzubilden.
Da das Thema komplex ist und der Kenntnisstand der Nutzenden stark variiert, handelt es sich um einen umfangreichen Text. Einzelne Kapitel können unabhängig voneinander gelesen und ggf. Querverweise zu anderen Kapiteln genutzt werden. Stichpunktlisten und hervorgehobene Hinweise erleichtern die Übersicht. Die Empfehlungen
- enthalten rechtliche Einschätzungen zum Umgang mit KI-basierten Hilfsmitteln,
- adressieren allgemeine Anforderungen an Eigenständigkeit, Sorgfalt und Transparenz,
- bieten Begriffseinordnungen sowie Mustervorlagen und
- verweisen auf weiterführende Informations- und Weiterbildungsangebote.
Im Fokus steht das Verfassen schriftlicher Arbeiten im Lehr-, Lern- und Prüfungskontext unter Zuhilfenahme generativer KI. Die Empfehlungen richten sich diesbezüglich sowohl an Lehrende als auch an Studierende. Lehrende erhalten zudem Hinweise zur Gestaltung von Rahmenbedingungen für Lehrveranstaltungen und Prüfungen. Didaktische Aspekte des KI-Einsatzes werden an anderer Stelle behandelt. Auf entsprechende Informationsquellen wird jeweils verwiesen.
Die technische Weiterentwicklung von KI-Systemen schreitet mit großer Dynamik voran und wird voraussichtlich immer wieder rechtliche Änderungen mit sich bringen. Aufgrund ihrer stetigen Anpassungsnotwendigkeit, sind die vorliegenden Empfehlungen als vorbehaltlich zu betrachten und werden regelmäßig hochschulintern aktualisiert. Fragen und Rückmeldungen können per E-Mail an den Sprecher des CIO-Gremiums der UOS gerichtet werden.
KI-Systeme entwickeln sich zu einem festen Bestandteil in Alltag, Bildung und Berufsleben. Ein kompetenter Umgang mit diesen Hilfsmitteln ist daher auch in Studium und Lehre zu gewährleisten. Dies umfasst sowohl Grundkenntnisse der technischen und rechtlichen Rahmenbedingungen als auch die kompetente Beurteilung der Angemessenheit und der Auswirkungen einer KI-Nutzung.
Wie alle Werkzeuge, die der Unterstützung wissenschaftlichen Arbeitens dienen, sind KI-Systeme – im Sinne guter wissenschaftlicher Praxis – gewissenhaft, verantwortungsbewusst und transparent zu handhaben. Darauf aufbauend, setzt die Universität Osnabrück (UOS) auf eine kritisch-reflektierte sowie offene Haltung gegenüber dem Potential von KI und deren Einsatz in Studium, Lehre und Forschung. Die Handlungsempfehlungen bieten die hierfür in der Praxis notwendige Orientierung. Allgemeine Grundsätze für den Umgang mit generativer KI an der UOS, sind in der Leitlinie zum Einsatz generativer KI-basierter Anwendungen formuliert.
Folgende Begriffsbestimmungen basieren auf Definitionen, die im Bereich der Informatik gebräuchlich sind und erläutern die für die UOS vorgeschlagene Verwendung der jeweiligen Bezeichnungen.
Künstliche Intelligenz (KI) bezeichnet laut Europäischem Parlament „die Fähigkeit einer Maschine, menschliche Fähigkeiten wie logisches Denken, Lernen, Planen und Kreativität zu imitieren“. An der UOS umfasst die Verwendung des Begriffs „KI“ die Gesamtheit der von der Fach-Community akzeptierten Methoden und Software-Anwendungen. Beide Varianten haben ihren Nutzen und zeigen zugleich, dass der Begriff derzeit nicht trennscharf zu definieren ist.
Maschinelles Lernen (ML) beschreibt einen Teilbereich Künstlicher Intelligenz, der sich darauf konzentriert, Computern die Fähigkeit zu verleihen, aus Daten zu lernen, ohne fortlaufend programmiert zu werden. Während im Bereich der KI das übergeordnete Ziel verfolgt wird, Maschinen zu entwickeln, die menschenähnliche Intelligenz zeigen, ist ML ein Mittel, um dieses Ziel zu erreichen. KI umfasst diverse Ansätze, während ML sich ausschließlich auf Algorithmen stützt, die Muster in Daten erkennen und daraus Vorhersagen oder Entscheidungen ableiten. Es verwendet Algorithmen, die sich anhand von Trainingsdaten verbessern und somit im Laufe der Zeit immer präzisere Ergebnisse liefern. Durch ML werden KI-Systeme in die Lage versetzt, sich an neue Situationen anzupassen und ihre Leistung kontinuierlich zu optimieren, was letztlich zum Erreichen der in der KI definierten Ziele beiträgt: der Imitation menschlicher Intelligenz und sogar deren Übertreffung in spezifischen Aufgaben.
Die KI-Verordnung der Europäischen Union definiert ein KI-System in Artikel 3, Absatz 1 als „ein maschinengestütztes System, das für einen in unterschiedlichem Grade autonomen Betrieb ausgelegt ist und das nach seiner Betriebsaufnahme anpassungsfähig sein kann und das aus den erhaltenen Eingaben für explizite oder implizite Ziele ableitet, wie Ausgaben wie etwa Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erstellt werden, die physische oder virtuelle Umgebungen beeinflussen können“. In Erwägungsgrund 12 der KI-Verordnung heißt es zudem: „Die Fähigkeit eines KI-Systems, abzuleiten, geht über die einfache Datenverarbeitung hinaus, indem Lern-, Schlussfolgerungs- und Modellierungsprozesse ermöglicht werden.“
Bezüglich der KI-Systeme differenziert die KI-Verordnung zwischen:
- verbotenen KI-Systemen, z. B. Systemen zur Emotionserkennung am Arbeitsplatz oder in Bildungseinrichtungen
- Hochrisiko-KI-Systemen, z. B. Systeme, die für die Bewertung von Lernergebnissen bestimmt sind
- KI-Systemen mit allgemeinem Verwendungszweck
Als KI-Modell wird der Teil eines KI-Systems bezeichnet, der anhand (statistisch) erlernter Muster die Ausgaben berechnet. Je nach Verwendungszweck, können verschiedene Modelle zum Einsatz kommen. ChatGPT ist z. B. ein KI-Dialogsystem der Firma OpenAI, das verschiedene KI-Sprachmodelle verwendet (z. B. GPT-4.1 mini für schnell bearbeitete alltägliche Aufgaben, oder o1 pro mode für langsamer bearbeitete aber komplexe Aufgaben).
Der Begriff GPAI-Modell steht für ein KI-Modell mit allgemeinem Verwendungszweck (General Purpose Artificial Intelligence). Laut Artikel 3, Paragraph 63 der KI-Verordnung handelt es sich dabei um ein KI-Modell „das eine erhebliche Allgemeingültigkeit aufweist und in der Lage ist, unabhängig von der Art des Inverkehrbringens des Modells eine Vielzahl unterschiedlicher Aufgaben kompetent zu erfüllen und in eine Vielzahl von nachgelagerten Systemen oder Anwendungen integriert werden kann“.
Generative KI beschreibt Modelle, die mittels maschineller Lernverfahren und großer Datenmengen auf Eingaben reagieren und hierbei komplexe Inhalte erzeugen können. Am bekanntesten sind derzeit KI-Sprachmodelle, auch Large Language Models (LLMs) genannt. Diese können menschliche Sprache erkennen, verarbeiten und generieren. Generative KI kommt neben textgenerierenden KI-Systemen aber z. B. auch in bildgenerierenden KI-Systemen zum Einsatz, oder in KI-Systemen, die Videos, Programmiercode etc. erstellen. Daher wird für solche universell einsetzbaren Modelle statt ‚Large Language Model‘ eher die Bezeichnung ‚Foundation Model‘ verwendet.
KI-basierte Anwendungen, auch als KI-Werkzeuge oder KI-Tools bezeichnet, sind im vorliegenden Kontext Software-Anwendungen, die eine komplexe Datenverarbeitung anhand zuvor trainierter Prozesse in hoher Geschwindigkeit ermöglichen. Auf Anfragen von Nutzenden können so situativ Ergebnisse erzeugt werden, die auf der Auswertung aller Daten beruhen, die der Anwendung durch Training sowie die Eingaben der Nutzenden zur Verfügung stehen.
Beim Training können verschiedene Methoden und unterschiedliche Arten von Datensätzen zum Einsatz kommen. Einem KI-System ist es möglich, die Qualität der ausgegebenen Ergebnisse durch die Verwertung neu hinzukommender Daten zu verbessern, also zu „lernen“. Sie sind jedoch nicht in der Lage, die verarbeiteten Daten inhaltlich zu verstehen, da sie lediglich mit Wahrscheinlichkeiten arbeiten, um auf Basis der Lerndaten bestmögliche Ergebnisse vorauszusagen. Die Lerndaten umfassen im Regelfall nur Datensätze, die vor der Veröffentlichung der Anwendung für das Basistraining verwendet wurden. Es gibt jedoch auch Anwendungen, die fortlaufend trainiert werden und hierfür auch Inhalte verwenden, die Nutzende selbst eingeben. Bezüglich der verwendeten Trainingsdaten sind Anbieter von KI-Systemen unterschiedlich transparent (siehe European Open Source AI Index). Trainingsdaten erhalten u. U. auch Materialien, deren Verwendung die jeweiligen Rechteinhaber:innen nicht zugestimmt haben. Hierdurch könnten urheberrechtlich geschützte Inhalte als Teil KI-generierter Antworten ausgegeben werden (siehe Schutzfähigkeit und Urheberschaft). Die Qualität der Lerndaten hat also erheblichen Einfluss auf die Qualität der Ausgaben und kann z. B. zur Wiedergabe von Vorurteilen und falschen Aussagen sowie zu Rechtsverletzungen führen.
Ein Bias liegt vor, wenn Trainingsdaten Vorurteile bzw. Verzerrungen enthalten, die z. B. auf Hautfarbe, Geschlecht oder Religionszugehörigkeit beruhen. Diese in den Trainingsdaten enthaltenen Vorurteile beeinflussen auch die Qualität der KI-generierten Inhalte. Gleiches gilt für Korrelationen, die in den Trainingsdaten auftauchen. Wird z. B. der Begriff 'Professur' statistisch betrachtet häufiger mit männlichen Personenbezeichnungen kombiniert, enthalten auch die ausgegebenen Antworten eher eine derartige Kombination.
Von Halluzinieren ist manchmal die Rede, wenn KI-Systeme Ergebnisse produzieren, die keine Entsprechung in der Realität haben. Dies können Inhalte oder Quellenangaben sein, die aufgrund einer Anfrage ausgegeben werden und dem Muster entsprechen, mit dem ein KI-System trainiert wurde, die jedoch faktisch falsch sind. Eine KI-basierte Anwendung generiert Ergebnisse auf Basis von Wahrscheinlichkeiten, ohne dabei die Inhalte verstehen zu können.
Der Begriff Prompt bezeichnet die konkrete Anfrage von Nutzenden an ein generatives KI-System. Ein Prompt kann neben der zentralen Frage auch Quellenmaterial und Anweisungen zur Bearbeitung der Anfrage enthalten. Durch gezieltes Prompting, also genaue Anweisungen an ein KI-System, lässt sich die Ergebnisqualität maßgeblich beeinflussen.
Input bezeichnet alle Eingaben in ein KI-System. Das umfasst Prompts ebenso wie hochgeladene Dateien.
Als Output wird das ausgelieferte Ergebnis eines generativen KI-Systems auf eine Anfrage bezeichnet. Das Ergebnis baut auf einer wahrscheinlichkeitsbasierten Berechnung auf, weshalb sich die Antwort auf eine Anfrage ggf. nicht exakt reproduzieren lässt.
Mehr Informationen zum Thema ‚ Was ist KI?‘ bietet das Infoportal Lehre der UOS.
Kompetenz und Verantwortung
Die sachkundige Verwendung von KI-Systemen bringt gewisse Voraussetzungen mit sich. Artikel 3 des Artificial Intelligence Act der Europäischen Union (im Deutschen bekannt als KI-Verordnung oder kurz ‚KI-VO‘), definiert KI-Kompetenz als „die Fähigkeiten, die Kenntnisse und das Verständnis, die es Anbietern, Betreibern und Betroffenen unter Berücksichtigung ihrer jeweiligen Rechte und Pflichten im Rahmen dieser Verordnung ermöglichen, KI-Systeme sachkundig einzusetzen sowie sich der Chancen und Risiken von KI und möglicher Schäden, die sie verursachen kann, bewusst zu werden.“
Der Erwerb von KI-Kompetenz ist erforderlich für die sachkundige Nutzung von KI-Systemen. Die UOS bietet daher umfassende Informationen und Weiterbildungsoptionen zum selbstständigen Kompetenzerwerb.
Das Ziel ist es, eine kritisch-reflektierte Haltung im Umgang mit KI zu entwickeln: Es ist notwendig sich stets bewusst zu sein, dass z. B. textgenerierende KI-Systeme keine mitdenkenden Dialogpartner sind, die immer auf gesichertes Wissen aus qualitätsgeprüften Datenbanken zugreifen. Es handelt sich um leistungsstarke Text-Generatoren, die eine wahrscheinlichkeitsbasierte Berechnung von Wortkombinationen auf Basis von Trainingsdaten durchführen (siehe Begriffsbestimmungen).
Unter welchen Voraussetzungen KI-Systeme verwendet werden können, ergibt sich aus rechtlichen Vorgaben, wie der KI-Verordnung und dem deutschen Urheberrechtsgesetz, aus hochschulinternen Vorgaben, wie der Allgemeinen Prüfungsordnung und der Leitlinie zum Einsatz generativer KI-basierter Anwendungen, sowie aus den Allgemeinen Geschäftsbedingungen der Anbieter bzw. den Nutzungsbedingungen der KI-Hilfsmittel.
Grundsätzlich gilt:
- Alle Eingaben von Nutzenden haben gemäß geltender gesetzlicher und hochschulinterner Vorgaben zu erfolgen (siehe Datenschutz).
- Alle KI-generierten Inhalte sind vor der weiteren Verwendung auf Korrektheit und Eignung zu prüfen und als KI-generiert zu kennzeichnen (siehe Sorgfaltspflicht und Kennzeichnungspflicht).
Eine Checkliste kann dabei helfen, an wichtige Schritte zu denken.
Orientiert an der ‚Checkliste zum rechtskonformen Umgang mit Generativen KI-Systemen‘ der RWTH Aachen, in der Fassung vom 16.04.2024.
Allgemeine Voraussetzungen
- KI-Kompetenz ist im für die Aufgabe erforderlichen Maße vorhanden (Kenntnisse der Funktionsweise von KI-Hilfsmitteln, rechtliche Regelungen und hochschulspezifische Vorgaben für deren Verwendung).
- Zusätzliche veranstaltungs- bzw. prüfungsspezifische Vorgaben sind bekannt.
Vorbereitung
- Das Werkzeug wird entsprechend der Aufgabe ausgewählt.
- Das Angebot der UOS wird auf ein geeignetes Werkzeug geprüft.
- Die Nutzungsbedingungen des ausgewählten KI-Werkzeugs sind bekannt.
Während der Verwendung
- Es werden keine personenbezogenen Daten eingegeben.
- Hochgeladene Inhalte enthalten keine personenbezogenen Daten.
- Es wird kein urheberrechtlich geschütztes Material eingeben.
- Hochgeladene Inhalte enthalten kein urheberrechtlich geschütztes Material.
- Es wird kein Material aus vertraulichen Quellen eingegeben.
- Hochgeladene Inhalte enthalten kein Material aus vertraulichen Quellen.
Eine Ausnahme bilden entsprechend gekennzeichnete KI-Systeme, die an der UOS gehostet werden und keine Daten an Server außerhalb der UOS weitergeben. Hierdurch können auch personenbezogene Daten oder Material aus vertraulichen Quellen verarbeitet werden.
Nach der Verwendung
- Entscheidungen und Bewertungen beruhen primär auf menschlicher Urteilsfindung.
- Entscheidungen erfolgen nicht auf Basis von ungeprüftem KI-Output.
- KI-Output wird vor der Verbreitung oder Veröffentlichung auf personenbezogene Daten geprüft.
- KI-Output wird vor der Verbreitung oder Veröffentlichung auf urheberrechtlich geschützte Inhalte geprüft.
- KI-Output wird vor der Verbreitung oder Veröffentlichung verifiziert und ggf. als solcher gekennzeichnet.
Zum kompetenten Umgang mit KI-Systemen gehört auch ein Bewusstsein für die Risiken und Auswirkungen der Nutzung. Zu den Risiken einer unreflektierten Nutzung zählen, neben Verstößen gegen gesetzliche und hochschulinterne Vorgaben, auch ein Verlust persönlicher Fähigkeiten sowie negative Auswirkungen auf die Umwelt (siehe Chancen und Risiken). Beides kann jedoch reduziert werden, wenn KI-Systeme in zulässigem und angemessenem Umfang eingesetzt werden.
Rechtliche Grundlagen
In rechtlicher Hinsicht gilt es, sich vor der Nutzung von KI-Systemen insbesondere mit Aspekten des Datenschutzes sowie des Schutzes von Urheber- und Persönlichkeitsrechten vertraut zu machen. Dies gilt gleichermaßen für Studierende, Lehrende, Prüfende und Forschende. Zusätzlich sind die Regeln guter wissenschaftlicher Praxis sowie die Allgemeinen Geschäftsbedingungen der Anbieter bzw. die Nutzungsbedingungen der gewählten KI-Hilfsmittel zu beachten.
In Deutschland bildet die europäische KI-Verordnung (KI-VO), zusammen mit der Datenschutz-Grundverordnung (DSGVO), dem Urheberrechtsgesetz (UrhG) sowie weiteren Richtlinien und Verordnungen den rechtlichen Rahmen für die KI-Nutzung in Studium, Lehre und Forschung. Diese Dokumente definieren u. a. die Schutzfähigkeit von Werken sowie die Verantwortung und Pflichten von Nutzenden. Hinzu kommen hochschulinterne Regelungen. An der UOS umfasst dies u. a. die Leitlinie zum Einsatz KI-basierter Anwendungen sowie die vorliegenden Handlungsempfehlungen. Weitere Regeln können z. B. innerhalb der Fachbereiche, Fächer etc. vorgegeben sein. Auch die Allgemeine Prüfungsordnung (APO), die Online-Prüfungsordnung (OPO) sowie fachspezifische Prüfungsordnungen sind zu beachten.
Die hier wiedergegebenen rechtlichen Einschätzungen dienen der Orientierung und stellen keine Rechtsberatung dar. Sie basieren u. a. auf dem Dokument ‚ Rechtliche Aspekte des Einsatzes von KI in Studium, Lehre und Prüfung‘ (2023) und dem Foliensatz ‚ GKI in Prüfungen - Eine prüfungsrechtliche Herausforderung‘ (2025) von Dr. Janine Horn, dem Foliensatz ‚ Überblick KI-Verordnung‘ (2024) von Theresia Rasche sowie dem Rechtsgutachten zur Bedeutung der europäischen KI-Verordnung für Hochschulen (2025) von Prof. Dr. Thomas Hoeren. Trotz sorgfältiger Prüfung der hier wiedergegebenen Inhalte, besteht keine Gewähr für deren Korrektheit, Vollständigkeit und Aktualität.
Gesetze und Vorgaben | Was wird darin geregelt? |
|---|---|
Urheberrechtsgesetz (UrhG) |
|
KI-Verordnung (KI-VO bzw. AI Act) |
|
KI-Haftungsrichtlinie |
|
Allgemeine Geschäftsbedingungen (AGB) der KI-Anbieter |
|
Datenschutz-Grundverordnung (DSGVO) |
|
Bundesdatenschutzgesetz (BDSG) |
|
Niedersächsisches Datenschutzgesetz (NDSG) |
|
Position der Landesbeauftragten für den Datenschutz (LfD) Niedersachsen |
|
Niedersächsisches Hochschulgesetz (NHG) in Verbindung mit Hochschulordnungen |
|
Leitlinie zum Einsatz KI-basierter Anwendungen an der Universität Osnabrück |
|
Für KI-generierte Inhalte gilt bislang, dass diese in der Regel nicht urheberrechtlich geschützt sind, da Werkschutz laut UrhG menschliche Schöpfung erfordert. Ob ein Werk über Schöpfungshöhe verfügt, hängt z. B. von dessen Originalität und Individualität ab.
KI-Systeme können rechtlich nicht als Urheber der durch sie generierten Inhalte gelten. Auch Anbieter generativer KI-Systeme haben in der Regel keine Rechteinhaberschaft nach dem UrhG oder verwandten Schutzrechten. Ebenso können Nutzende von KI-Systemen nicht als Urheber:innen KI-generierter Inhalte gelten, solange sie nicht hinreichend gestalterischen Einfluss auf das Werkschaffen haben. D. h. aber auch: Nutzende können Urheber:innen KI-generierter Inhalte sein, sofern sie innerhalb des Schaffensprozesses hinreichend Einfluss auf die generierten Inhalte haben. Dies gilt in gleicher Weise, wenn sie KI-generierte Inhalte in ausreichendem Maße weiterbearbeiten oder arrangieren. Unterschieden wird zwischen:
- ausschließlich KI-generierten, nicht schutzfähigen Inhalten und
- KI-gestützten, menschlichen, schutzfähigen Schöpfungen (bei denen KI nur als Hilfsmittel verwendet wird).
Werden KI-Systeme zum Generieren von Texten, Bildern, Programmiercodes etc. verwendet, tragen die Nutzenden hierfür die Verantwortung. Die generierten Inhalte sind eigenständig von ihnen zu verifizieren sowie auf Fehlerhaftigkeit und z. B. hetzerische oder diskriminierende Aussagen zu überprüfen. Nutzende sind ebenso dafür verantwortlich, KI-generierte Inhalte hinsichtlich normativer Über- oder Unterrepräsentationen und Auslassungen zu prüfen. Das betrifft sowohl Personen bzw. Personengruppen als auch wissenschaftliche und anderweitige Inhalte.
Nutzende, die KI-generierte Ergebnisse ungeprüft und ungekennzeichnet übernehmen, laufen Gefahr, Quellen nicht ausreichend zu kennzeichnen. Zwar besteht laut UrhG bislang keine Kennzeichnungspflicht für KI-generierte Inhalte, diese kann sich jedoch z. B. aus den Lizenz- oder Nutzungsbedingungen der Anbieter von KI-Systemen ergeben sowie aus internen Vorschriften der Hochschulen. An der UOS sind vollständig oder in Teilen von generativen KI-Werkzeugen geschaffene Inhalte immer als solche zu kennzeichnen (siehe Dokumentation).
Die Veröffentlichung KI-generierter Inhalte, die urheberrechtlich geschütztes Material Dritter enthalten, stellt eine Rechtsverletzung dar. Auch wenn KI-generierte Inhalte grundsätzlich erlaubnisfrei weiterverwendet werden können, besteht die Möglichkeit, dass sie urheberrechtlich geschützte Materialien enthalten, auf Trainingsdaten basieren, die urheberrechtlich geschütztes Material beinhalten, oder falsche Informationen enthalten, ohne dass dies für die Nutzenden ersichtlich ist. Ohne die Zustimmung ggf. vorhandener Rechteinhaber:innen können aber auch KI-generierte Inhalte entsprechend der folgenden gesetzlichen Nutzungserlaubnisse weiterverwendet werden:
- Zitatrecht, § 51 UrhG
- Karikatur, Parodie und Pastiche, § 51a UrhG
- Kopieren und Teilen zu Lehrzwecken, § 60a UrhG
- Übernahme in Lehrmedien, § 60b UrhG
- Kopieren und Teilen zur wissenschaftlichen Forschung, § 60c UrhG
- Verwendung von Datenbankinhalten zu Lehr- und Forschungszwecken, § 87c Absatz 1 Nr. 2 und Nr. 3 UrhG.
Die Eingabe von Daten in KI-Systeme erfordert besondere Sorgfalt hinsichtlich des Schutzes von personenbezogenen Daten und der Wahrung von Persönlichkeitsrechten. Dies betrifft sowohl das Verfassen von Prompts, als auch das Hochladen von Dateien. Laut Artikel 4 der DSGVO stellen "alle Informationen, die sich auf eine identifizierte oder identifizierbare natürliche […] Person beziehen" personenbezogene Daten dar. Dies schließt u. a. Namen und Vornamen, E-Mail-Adressen, die Vor- und Nachnamen enthalten, Privatanschriften sowie Gesundheitsinformationen ein.
Personenbezogene Daten dürfen im Rahmen von Studium, Lehre und Forschung in KI-Systeme eingegeben werden, die von der Universität selbst betrieben (lokal gehostet) werden und keine personenbezogenen Daten an externe Anbieter weitergeben. Welche Systeme dies sind und welche datenschutzkonformen Einstellungen sie bieten, ist unter KI@UOS nachlesbar.
Auch wenn lokal gehostete KI-Systeme nicht in jeder Hinsicht mit den Diensten führender kommerzieller Anbieter vergleichbar sind, ist der Schutz personenbezogener Daten – einschließlich der eigenen – ein wichtiger Aspekt bei der Wahl des geeigneten Werkzeugs.
Kommen im Rahmen von Studium, Lehre und Forschung dennoch KI-Systeme zum Einsatz, die nicht von der Universität selbst betrieben werden, ist eine datenschutzkonforme Verwendung zu sichern: Sobald personenbezogene Daten durch einen externen Dienst verarbeitet werden, bedarf es einem Auftragsverarbeitungsvertrag (AVV) nach Art. 28 der DSGVO, bei dem die Universität eine entsprechende Kontrolle vornimmt.
Der Einsatz von KI-Systemen externer Anbieter ist davon abgesehen möglich,
- wenn die Nutzung freiwillig erfolgt und keinerlei Nachteile für diejenigen entstehen, die sich gegen die Nutzung des Werkzeugs entscheiden, oder
- wenn sie keine Eingabe personenbezogener Daten der Nutzenden erfordern und per VPN der Universität genutzt werden können, um die eigene IP-Adresse zu maskieren.
KI-Einsatz in Studium und Lehre
Die UOS bestärkt Lehrende darin, KI offen zu begegnen und sie bei geeigneten Voraussetzungen in die Lehre zu integrieren. Dies kann je nach Fachdisziplin und Lehrveranstaltung auf unterschiedliche Weise erfolgen. KI kann z. B. als Lerngegenstand thematisiert, vor dem Hintergrund des Faches reflektiert oder als Werkzeug eingesetzt werden. Anregungen für konkrete Anwendungsszenarien bietet das Infoportal Lehre der UOS.
Vor dem Einstz von KI-Systemen in Studium und Lehre sind grundlegende Kenntnisse in folgenden Bereichen zu erwerben:
- Funktionsweise und Grenzen (siehe Begriffsbestimmungen)
- zulässige Anwendungsbereiche (siehe Rechtliche Grundlagen)
- potentielle Auswirkungen (siehe Chancen und Risiken)
Dürfen Studierende KI-Systeme im Kontext von Lehrveranstaltungen verwenden, sollen Lehrende zuvor sicherstellen, dass die Studierenden über entsprechende KI-Kompetenz verfügen.
Der jeweilige Kompetenzgrad ergibt sich dabei aus der Art und dem Kontext der KI-Nutzung. Die folgende Abstufung dient der Orientierung:
- Erklären Lehrende die Nutzung von KI-Systemen als zulässig, sollen sie ihre Studierenden darauf hinweisen, welche grundlegende KI-Kompetenz sie benötigen und wie sie diese erwerben können (siehe Kompetenz und Verantwortung). Den Studierenden soll außerdem mitgeteilt werden, auf welche Art die Nutzung von KI als Hilfsmittel zu dokumentieren ist (siehe Dokumentation) und dass weder jene, die sich für die Nutzung entscheiden, noch jene, die sich gegen die Nutzung entscheiden, einen Nachteil bei der Leistungsbewertung erfahren.
- Ermöglichen Lehrende die Nutzung spezifischer KI-Systeme, indem sie diese z. B. in den Veranstaltungskontext integrieren, sind den Studierenden ggf. über die grundlegende KI-Kompetenz hinausgehende technische, rechtliche oder ethische Kompetenzen zu vermitteln. Zudem wird empfohlen, die Vermittlung der im Rahmen der Aufgabe erforderlichen KI-Kompetenz zu dokumentieren.
- Verlangen Lehrende die Verwendung von KI im Rahmen der Leistungserbringung, sollen sie grundlegende KI-Kompetenz sowie ggf. erforderliche weitere Kompetenzen als Teil der Lehrveranstaltung vermitteln und deren Sicherstellung dokumentieren.
In manchen Fällen bieten Prüfungsordnungen und Modulhandbücher Informationen zum vorhandenen Kompetenzgrad der Studierenden. Andernfalls kann z. B. eine Selbstauskunft der Studierenden eingeholt oder ein Test durchgeführt werden. Ein Standard hinsichtlich der Sicherstellung von KI-Kompetenz durch Lehrende besteht derzeit nicht. Der Grad der Sicherstellung hängt z. B. davon ab,
- ob KI-Nutzung aktiv zugelassen, ermöglicht oder verlangt wird (siehe oben),
- in welchem Umfang sie erfolgt (z. B. einfache Texte, Bilder etc. generieren lassen oder einen Chatbot programmieren),
- zu welchem Zweck sie erfolgt (z. B. veranstaltungsintern große Datenmengen analysieren oder für die Öffentlichkeit bestimmte Produkte erstellen) und
- welche technischen, rechtlichen und ethischen Vorkenntnisse seitens der Studierenden bestehen.
Ermöglichen Lehrende die Nutzung von KI-Systemen für Studierende im Rahmen von Lehrveranstaltungen, ist diese Nutzung datenschutzkonform zu gestalten.
Eine für Studierende verpflichtende Nutzung von KI-Systemen ist erlaubt, wenn
- die Dienste von der UOS selbst bereitgestellt werden (siehe Datenschutz),
- die Dienste keine Eingabe personenbezogener Daten der Nutzenden erfordern und per VPN der UOS genutzt werden, um die eigene IP-Adresse zu maskieren oder
- die Dienste auf Grundlage eines Auftragsverarbeitungsvertrags (AVV) mit der UOS verwendet werden (siehe Datenschutz).
Lehrende können die Aktivitäten ihrer Studierenden in den von der UOS bereitgestellten KI-Systemen nicht einsehen. Das heißt, sie sehen weder ob, noch wie Studierende diese KI-Systeme nutzen.
In welchem Umfang die KI-Nutzung im Rahmen einer Lehrveranstaltung erlaubt ist, wie sie zu dokumentieren ist und welche Konsequenzen bei Nichtbeachtung der Vorgaben möglich sind, sollte den Studierenden im Voraus schriftlich mitgeteilt werden. Lehrende können ihrer grundlegenden Informationspflicht gegenüber den Studierenden nachkommen, indem sie auf entsprechende Informationsmaterialien und Weiterbildungsformate der UOS zurückgreifen. Einige Angebote lassen sich direkt in Stud.IP-Veranstaltungen integrieren. Auch andere Hochschulen, Einrichtungen, Vereine etc. bieten weitere Informationsmöglichkeiten.
Der Einsatz von KI-Systemen mit allgemeinem Verwendungszweck, wie z. B. einem KI-Chatsystem. zur automatisierten Bewertung von Lernergebnissen ist untersagt (siehe Chancen und Risiken).
Dokumentation und Referenzierung
An der UOS werden Studierende mit den Praktiken wissenschaftlichen Arbeitens vertraut gemacht und können diese einüben. Ein wesentlicher Bestandteil der Ausbildung ist das eigenständige Verfassen wissenschaftlicher Texte. Hierbei gilt, gemäß guter wissenschaftlicher Praxis rechtskonform und ethisch verantwortlich zu handeln. KI-Systeme können sich als nützliche Hilfsmittel für das wissenschaftliche Arbeiten erweisen, sofern Nutzende sich möglicher Risiken bewusst sind und KI in zulässiger und angemessener Weise verwenden.
Laut Leitlinie zum Einsatz KI-basierter Anwendungen an der UOS, sind vollständig oder in Teilen von generativen KI-Werkzeugen geschaffene Inhalte stets als solche zu kennzeichnen. Welche KI-basierten Hilfsmittel eingesetzt wurden und in welchem Umfang, lässt sich auf verschiedene Arten dokumentieren. Insbesondere Listen und Tabellen bieten sich an. Bestehen keine spezifischen Vorgaben seitens des Fachbereichs oder Fachs, können die Lehrenden eigene Regeln vorgeben. Diese sollten den Studierenden im Vorfeld schriftlich zur Verfügung gestellt werden.
Eine einfache Liste kann Auskunft darüber geben, ob KI-basierte Anwendungen genutzt wurden und falls dem so ist, zu welchem Zweck, z. B.:
- für die Ideenfindung
- für die Recherche
- zur Übersetzung
- zur Visualisierung
- zum Generieren von Programmiercode
- zur Bearbeitung von Bildern
Diese Art des Nachweises bietet sich u. a. bei kürzeren schriftlichen Arbeiten oder Präsentationen an und kann von den Studierenden selbstständig angelegt werden.
Mithilfe einer Tabelle können Art um Umfang der Nutzung KI-basierter Anwendung noch genauer festgehalten werden. Hierbei bietet es sich an, dass Lehrende die erforderlichen Angaben vorgeben.
Arbeitsschritt | verwendete KI-basierte Anwendung(en) | Art und Umfang der Verwendung |
|---|---|---|
Ideenfindung | ChatGPT | Vergleich eigener Ideen mit anschließend KI-generierten Vorschlägen und Übernahme von zwei Aspekten (Chat-Verlauf im Anhang dokumentiert) |
Recherche | Perplexity | Recherche zum geschichtlichen Hintergrund (Chat-Verlauf im Anhang dokumentiert) |
Formulierung | Chat GPT | sprachliche Überarbeitung des gesamten Textes |
Übersetzung | DeepL | Übersetzung des in Kapitel 3, Absatz 2 referenzierten Quellentextes |
Visualisierung | Mindverse | Generieren einer Idee zur Visualisierung des in Kapitel 4, Abschnitt 5 beschriebenen Prozesses; intensive eigenständige Überarbeitung der Darstellung |
Gliederung | ... | ... |
Unterstützung bei Fragen zur Dokumentation bieten die Hinweise und Arbeitsmaterialien ‚ KI-Gebrauch im Studienkontext dokumentieren‘, die in der Austauschrunde niedersächsischer Hochschulen zum Thema KI und Recht entwickelt wurden. Sie zeigen Möglichkeiten, wie die Verwendung KI-basierter Hilfsmittel im Bereich der Leistungserbringung reflektiert erfolgen, im Sinne einer Quelle kenntlich gemacht und dokumentiert werden kann.
Die Modern Language Association of America (MLA) und die American Psychological Association (APA) geben Hinweise zur Kenntlichmachung KI-generierter Inhalte (in englischer Sprache). Diese oder vergleichbare Regeln können Lehrende ihren Studierenden ggf. zur Orientierung empfehlen.
Chancen und Risiken
Ein kompetenter, reflektierter Einsatz von KI-Systemen, bietet sowohl Lehrenden als auch Studierenden Möglichkeiten der Arbeitsentlastung und persönlichen Weiterbildung.
Die reflektierte Verwendung von KI-Systemen kann die Stärkung individueller Fähigkeiten unterstützen. So lässt sich etwa die Entwicklung von Problemlösungsstrategien oder eine Verbesserung der Ausdrucksfähigkeit erreichen, wenn mit Hilfe von KI-basierten Werkzeugen themenspezifische Aufgaben generiert werden, um die menschliche Intelligenz zu trainieren. Zudem kann die kritische Auseinandersetzung mit KI-generierten Inhalten dabei helfen, sich ihrer potentiellen Auswirkungen auf die menschliche Kompetenz- und Meinungsbildung bewusst zu werden. Dies betrifft z. B. die Identifikation und Einordnung bewusst verbreiteter Verzerrungen sowie fehlerhaft generierter Inhalte.
Der KI-Campus, eine vom Bundesministerium für Forschung, Technologie und Raumfahrt (BMFTR) geförderte Lernplattform für Künstliche Intelligenz, bietet Lehrenden und Studierenden ein vielfältiges Angebot an kostenlosen Online-Kursen, Podcasts, Blogbeiträgen etc. zur Stärkung von KI- und Datenkompetenzen. Auch das Infoportal Lehre der UOS stellt KI-Werkzeuge und Nutzungsszenarien vor.
Eine unreflektierte Nutzung von KI-Systemen kann sich negativ auf vorhandene Fähigkeiten auswirken bzw. den Erwerb neuer Kompetenzen verhindern, wofür auch die Begriffe ‚Deskilling‘ bzw. ‚Skill Skipping‘ verwendet werden. Diese Auswirkung treten insbesondere dann auf, wenn KI-Systeme nicht mehr als Hilfsmittel eingesetzt werden, sondern Aufgaben anstelle der Nutzenden erledigen. Wird z. B. das Erstellen der Argumentationsstruktur und die wissenschaftliche Ausdrucksweise beim Verfassen einer Seminararbeit KI-Systemen überlassen, fehlt den Studierenden die Entwicklung eben dieser Kompetenzen.
Welche Auswirkungen die Nutzung von KI-Chatsystemen auf das menschliche Gehirn haben kann, untersuchte eine US-Amerikanische Studie mit dem Titel ‚ Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task‘. Eine Beobachtung daraus betrifft den Einfluss des Zeitpunkts der KI-Nutzung im Schreibprozess auf die neuronale Aktivität im menschlichen Gehirn: Wird KI im Anschluss an die eigene Schreibleistung zur weiteren Bearbeitung eingesetzt, kann dies positive Auswirkungen haben. Der Einsatz von KI vor der menschlichen Eigenleistung im Schreibprozess kann hingegen zu einer weniger koordinierten neuronalen Aktivität des Gehirns führen. Speziell Studierende sollten ihr Bewusstsein dafür stärken, welche Auswirkungen sowohl die unreflektierte als auch die reflektierte Nutzung von KI-Systemen auf den persönlichen Lernfortschritt und die Entwicklung eigener Fähigkeiten haben kann.
Eine unreflektierte Nutzung von KI-Systemen kann auch rechtliche Folgen haben. Wird z. B. ein KI-System mit allgemeinem Verwendungszweck, das den Nutzenden über die UOS zugänglich ist, auf unzulässige Weise verwendet, kann dies eine Nutzung im Sinne eines Hochrisiko-Systems bedeuten. KI-Systeme, die in der Bildung eingesetzt werden, um u. a. Lernergebnisse von Personen zu beurteilen oder verbotenes Verhalten von Personen in Prüfungssituationen zu erkennen, werden als Hochrisiko-Systeme eingestuft, da sie über den Verlauf des Bildungswegs und des Berufslebens einer Person entscheiden können. Artikel 16 der KI-VO beschreibt die umfassenden Pflichten der Anbieter von Hochrisiko-KI-Systemen, darunter z. B. Registrierungs- und Dokumentationspflichten sowie das Sicherstellen der Qualität von Trainingsdatensätzen. Würde ein von der UOS zugänglich gemachtes KI-System mit allgemeinem Verwendungszweck im Sinne eines Hochrisiko-Systems verwendet, unterläge die UOS ggf. den gleichen Pflichten. Vermeiden lässt sich dies jedoch, durch das Beachten grundlegender Regeln im Umgang mit KI-Systemen (siehe Datenschutz und Checkliste).
Neben der rechtlichen Zulässigkeit und der persönlichen Kompetenzentwicklung, gilt es bei der Nutzung von KI-Systemen auch ökologische, soziale und wirtschaftliche Implikationen sowie ethische Standards im Blick zu haben. In welchem Verhältnis stehen z. B. der für ein KI-System erforderliche Ressourcenverbrauch und die zu erledigende Aufgabe? Ist ersichtlich, inwiefern Anbieter von generativen KI-Systemen Informationen ggf. zensieren oder verzerren? Fragen dieser Art werden Schritt für Schritt auch seitens der UOS adressiert. Dass der Leistungsumfang eines KI-Systems sowie der Umfang von Input und Output die Auswirkungen der Nutzung auf die Umwelt beeinflussen, ergab eine an der Hochschule München durchgeführte Studie zum Energieverbrauch von KI-Chats. Den Ergebnissen zufolge, macht es einen nachweisbaren Unterschied, wenn die Wahl des KI-Modells bewusst an die Anforderungen der Aufgabe angepasst wird. Auch die Anweisung an ein Chatsystem, den Output kurz und präzise zu formulieren, kann sich bereits positiv auf die CO2-Bilanz auswirken.
KI und Prüfungen
Die Möglichkeit des Einsatzes von KI-Systemen in Prüfungen stellt alle Beteiligten vor komplexe Herausforderungen. Eine regelkonforme Nutzung erfordert entsprechendes Wissen und verantwortliches Handeln.
Wird der Einsatz von KI-Systemen erlaubt, bedarf er einer Regelung. Prüfende sollten in diesem Fall schriftlich festlegen, in welchem Umfang den zu Prüfenden die Nutzung erlaubt ist, wie sie zu dokumentieren ist und welche Konsequenzen bei Nichtbeachtung der Vorgaben drohen (siehe KI-Einsatz in Studium und Lehre). Die Definition des zulässigen Nutzungsrahmens richtet sich nach den Vorgaben der entsprechenden Prüfungsordnungen sowie den Anforderungen an die jeweilige Prüfungsleistung und erfolgt i. d. R. auf Fach- oder Lehrveranstaltungsebene. Wird sie transparent kommuniziert, vermittelt sie den zu Prüfenden Sicherheit, beugt unbeabsichtigtem Fehlverhalten vor und wirkt sich positiv auf die Chancengleichheit aus.
Prüfende können KI-Systeme mit allgemeinem Verwendungszweck zum Konzipieren von Prüfungen und Erstellen von Aufgaben verwenden, wenn der Input gemäß geltender gesetzlicher Vorgaben erfolgt (siehe Rechtliche Grundlagen) und der Output vor der weiteren Verwendung auf Richtigkeit und Eignung geprüft, sowie als KI-generiert gekennzeichnet wird (siehe Dokumentation).
Im Rahmen der Leistungsbewertung dürfen KI-Systeme mit allgemeinem Verwendungszweck nur dann eingesetzt werden, wenn gewährleistet ist,
- dass das genutzte KI-System keine Daten an Server außerhalb der UOS weitergibt (siehe Datenschutz) - andernfalls besteht die Gefahr, das Urheberrechtsgesetz oder die Datenschutzgrundverordnung zu verletzen - und
- dass die Bewertung durch die Prüfenden selbst erfolgt und ihre Entscheidungsfindung nicht wesentlich beeinflusst wird - andernfalls besteht die Gefahr das KI-System im Sinne eines Hochrisiko-Systems zu verwenden (siehe Chancen und Risiken).
Prüfende müssen sicherstellen, dass die Letztentscheidung von ihnen selbst getroffen wird und sie somit die Verantwortung für die Prüfungsbewertung tragen. Ein KI-System darf aber z. B. verwendet werden, um vorbereitende Aufgaben für die Bewertung durchzuführen, sofern die oben genannten Kriterien erfüllt sind und die KI-generierten Inhalte auf Korrektheit und Eignung geprüft werden.
Eigenständigkeit
Das Verfassen insbesondere schriftlicher Arbeiten ermöglicht die intensive Auseinandersetzung mit einer spezifischen fachlichen Thematik und erlaubt Studierenden das Einüben wissenschaftlicher Regularien. Zudem dient es mehrheitlich der Erbringung von Studiennachweisen oder Prüfungsleistungen, die wiederum Ergebnisse der jeweiligen Lern- bzw. Schreibprozesse darstellen. Diese Prozesse sind individuell und beinhalten unterschiedliche Herangehensweisen, Lösungswege und Hilfsmittel, deren Zulässigkeit den Prinzipien guter wissenschaftlicher Praxis unterliegt.
Eine Arbeit in Gänze oder auch nur in Teilen durch Andere erstellen zu lassen, seien es Menschen oder KI-Systeme, ist nicht zulässig. Legitim ist es hingegen, sich unter Gewährleistung der Schöpfungshöhe (siehe Schutzfähigkeit und Urheberschaft) Feedback zu Teilprozessen einzuholen, da sich diese Praxis positiv auf die Auseinandersetzung mit dem Inhalt auswirkt. Hierzu zählt z. B., sich durch ein KI-System Fragen generieren zu lassen, um das Formulieren von Antworten ohne Verwendung von Hilfsmitteln einzuüben.
Studierende sind dazu verpflichtet, ihre Prüfungsleistungen eigenständig zu erbringen und relevante Hilfsmittel sowie Quellen aller Art anzugeben (siehe Rechtliche Grundlagen). Welche (KI-)Hilfsmittel im gegebenen Kontext zulässig sind, in welchem Umfang sie genutzt werden dürfen, wie ihre Verwendung gekennzeichnet werden soll und welche Rolle der Lehrperson im Bearbeitungsprozess zukommt, sollte im Vorfeld seitens der Lehrenden bzw. der Fächer schriftlich festgelegt und kommuniziert werden.
Eine standardisierte Vorlage für Eigenständigkeitserklärungen (verfügbar in deutscher und englischer Sprache) wurde in Abstimmung mit den Studiendekan:innen, der Koordinierungsstelle Prüfungsverwaltung und dem Justitiariat der UOS erstellt und ist für Bachelor- und Masterarbeiten in allen Fachbereichen verbindlich und unverändert zu verwenden. Studierende erhalten einen Link zum Download dieser Vorlagen zusammen mit dem Zulassungsbescheid zur jeweiligen Abschlussarbeit. Die Vorlage kann darüber hinaus für Seminararbeiten und andere Prüfungsformate verwendet werden, wobei in diesem Kontext der Verwendung auch individuelle Anpassungen möglich sind.
Die konkreten Eigenständigkeitserwartungen von Lehrenden können je nach Veranstaltungs- und Prüfungskontext variieren. Um ihren Anspruch an die Leistungen der Studierenden in Lehrveranstaltungen und Prüfungen transparent zu kommunizieren, können Lehrende im Vorfeld z. B. Lernziele definieren, erlaubte Hilfsmittel und deren Nutzungsumfang benennen und konkrete Erwartungen formulieren. Hierfür bieten sich verschiedene Optionen an, etwa eine Liste von Regeln oder eine Kursvereinbarung, die Lehrende den Studierenden veranstaltungsintern zur Verfügung stellen. Das Infoportal Lehre bietet Informationen zur konkreten Umsetzung.
Eigenständigkeitserklärung
___________________________________________
Name, Vorname (in Druckbuchstaben), Geburtsdatum
Hiermit erkläre ich, dass ich die Prüfungsleistung [Platzhalter, um die Prüfungsleistung zu benennen] bzw. meinen entsprechend gekennzeichneten Anteil an der Prüfungsleistung [Platzhalter, um die Prüfungsleistung zu benennen] selbständig verfasst habe.
Die Inhalte der Leistung geben meine eigenen Erarbeitungen, meinen Wissensstand, mein eigenes Verständnis und meine eigene Auffassung wieder.
Ich versichere, nur die erlaubten und dokumentierten Hilfsmittel benutzt zu haben.
Ich versichere, dass die Kennzeichnung des Einsatzes KI-basierter Hilfsmittel vollständig ist. Im Verzeichnis ‚Übersicht verwendeter Hilfsmittel‘ habe ich die verwendeten KI-Werkzeuge aufgeführt. Ich habe dort angegeben, welche KI-Werkzeuge ich für welche Zwecke verwendet habe.
Des Weiteren bestätige ich, dass die schriftliche und elektronische Version der Prüfungsleistung [Platzhalter, um die Prüfungsleistung zu benennen] identisch sind.
Mit ist bekannt, dass Zuwiderhandlungen gegen den Inhalt dieser Erklärung einen Täuschungsversuch darstellen, der das endgültige Nichtbestehen der Bachelor- oder Masterprüfung zur Folge haben kann.
____________________
Ort, Datum und Unterschrift
Declaration of Authorship
___________________________________________
Surname, first name(s) (in block capitals), date of birth
I hereby declare that I have written the following coursework [placeholder, title of examination paper] or have clearly marked the part of the coursework [placeholder, title of examination paper] that is my own work.
This coursework is my own work and demonstrates my level of knowledge, my own understanding and my own viewpoints.
I confirm that I have used only the permitted and cited study aids.
I confirm that I have identified the use of AI-based tools in all cases. I have listed the AI tools used in the list 'Overview of Tools Used'. In the appendix I have documented which AI-based tools I have used for what specific purpose or task.
Furthermore, I confirm that the written and electronic versions of the examination paper [placeholder, title examination paper] are identical.
I am aware that violating the content of this declaration constitutes an attempt to cheat, which can result in me being awarded a fail grade for my Bachelor’s or Master’s examination.
____________________
Place, date and signature
Täuschungsversuche
Es gibt zahlreiche mögliche Verdachtsmomente für Täuschungsversuche, u. a. in Verbindung mit der Nutzung von KI-Hilfsmitteln. Ein Täuschungsversuch kann z. B. aufgrund einer bewussten oder grob fahrlässigen Nichtkennzeichnung von primär KI-generierten Inhalten oder einer nicht transparent gemachten Nutzung von KI-Systemen vorliegen. Die Eigenleistung einer zu prüfenden Person darf nicht durch Leistungen anderer Personen oder Leistungen von KI-Systemen ersetzt werden.
Laut § 15, Absatz 4 der Allgemeinen Prüfungsordnung der UOS (Stand März 2025) gilt die betreffende Prüfungsleistung oder der Studiennachweis als mit „nicht bestanden“ (5,0) bewertet, wenn zu prüfende Personen das Ergebnis einer Prüfungsleistung oder eines Studiennachweises durch Täuschung oder Mitführen oder Nutzen nicht zugelassener Hilfsmittel zu beeinflussen versuchen. In besonders schweren Fällen, kann die gesamte Bachelor- oder Masterprüfung als endgültig nicht bestanden bewertet werden. Gleiches gilt u. a., wenn eine zu prüfende Person Texte oder Textstellen Anderer ohne Kennzeichnung so verwertet, dass über die eigentliche Autorenschaft und die Eigenständigkeit der Leistung getäuscht wird.
Täuschungsnachweise
Besteht ein begründeter Täuschungsverdacht, sollte dieser auf einer multifaktoriellen Identifikation basieren (z. B. Stilbrüche im Text, nicht auffindbare Quellen oder von der zu prüfenden Person unbeantwortete Fragen zu Inhalt und Aufbau ihrer Prüfungsleistung), da die Beweislast für das Vorliegen eines Täuschungsversuchs bei den Prüfenden liegt. Hierfür können u. a. Erfahrungswerte und Vergleichsfälle herangezogen werden.
Die UOS stellt derzeit weder eine Plagiatserkennungs-Software zur Verfügung, noch KI-Detektoren, die eine nicht gekennzeichnete Verwendung von KI-Systemen sichtbar machen sollen. Gründe hierfür sind u. a. niedrige Erkennungsraten, teils falsche KI-Zuschreibungen sowie rechtliche Herausforderungen bei der Implementierung solcher Software. Eine durch den Digitale Lehre Hub Niedersachsen (DLHN) veröffentlichte Stellungnahme zum Einsatz von KI-Detektoren zur Überprüfung von Prüfungsleistungen erläutert die Problematik.
Der Versuch seitens der Prüfenden, mit Hilfe von Plagiatserkennungs-Software ein Plagiat nachzuweisen, kann zudem in einem Gesetzesverstoß enden, wenn personenbezogene Daten ohne Genehmigung der Betroffenen in nicht an der Universität gehostete KI-Systeme oder nicht seitens der Universität zur Verfügung gestellte Plagiatserkennungs-Software eingegeben werden. Gleiches gilt für Werke, an denen Dritte Rechte halten. Hierzu können z. B. auch schriftliche Prüfungsleistungen von Studierenden zählen (siehe Schutzfähigkeit und Urheberschaft).
Ein sinnvolles Vorgehen zur Aufdeckung von Täuschungsversuchen - bestenfalls sogar zu ihrer Vermeidung -, stellt die Orientierung an bestehenden gesetzlichen Vorgaben (siehe KI-Einsatz in Studium und Lehre) sowie an den Regeln guter wissenschaftlicher Praxis dar, kombiniert mit einer fach- bzw. fachbereichsinternen Definition spezifischer Regelungen zur Nutzung generativer KI im Prüfungskontext. Hierbei können z. B. Vereinbarungen über die in einer Lehrveranstaltung erlaubten bzw. nicht erlaubten Werkzeuge und Vorgehensweisen zum Einsatz kommen (siehe KI-Einsatz in Studium und Lehre), oder angepasste Eigenständigkeitserklärungen für das Erbringen von Prüfungsleistungen (siehe Eigenständigkeit). Von großer Bedeutung ist dabei die transparente Kommunikation der Vorgaben gegenüber den zu prüfenden Personen.
Anpassung der Prüfungskultur
Um einer unzulässigen Verwendung von KI-Systemen im Zusammenhang mit Prüfungen entgegenzuwirken, erscheint eine Anpassung der Prüfungskultur die wirksamste Maßnahme. Dies schließt die Bereitstellung von Informationen zum Umgang mit KI-Systemen sowie eine anforderungsgerechte Umgestaltung der Prüfungsformate ein. Lehrende sind daher aufgerufen, veranstaltungsbezogene Prüfungsanforderungen sowie die Gestaltung von Prüfungsaufgaben kritisch zu hinterfragen. Dies gilt sowohl sowohl in didaktischer Hinsicht als auch bezüglich formaler Aspekte. Anregungen zur praktischen Umsetzung erhalten Lehrende hierbei z. B. im Rahmen von Weiterbildungsangeboten der Hochschuldidaktik.
Besteht Grund zur Annahme, dass die Eigenleistung von Studierenden im üblicherweise vorgesehenen Prüfungsformat nicht zu bewerten sein wird, weil eine Unterscheidung zwischen der Eigenleistung und der Leistung eines KI-Systems nicht mehr möglich scheint, kann der Einsatz von KI-Systemen ausgeschlossen werden. Falls möglich und sinnvoll, sollte die Verwendung jedoch Teil der Prüfung werden. KI-integriertes Prüfungsdesign kann zugleich
- der Täuschung durch unerlaubte oder nicht gekennzeichnete erlaubte Verwendung von KI-Hilfsmittel entgegenwirken,
- die Gewährleistung der Chancengleichheit durch Unterbindung von Täuschungsversuchen und Bereitstellung datenschutzkonformer, kostenloser KI-Hilfsmittel unterstützen,
- Studierenden Kompetenzen im Umgang mit KI-Hilfsmitteln vermitteln, die wertvoll für die persönliche wie auch für die Studien- und Berufslaufbahn sein können, sowie
- Studierenden die Möglichkeit bieten, die Grundsätze guter wissenschaftlicher Praxis einzuüben.
Mehr Informationen zur Anpassung von Prüfungsformaten bieten z. B. das Infoportal Lehre der UOS und das vom Digitale Lehre Hub Niedersachen (DLHN) herausgegebene Dokument " Prüfungsformate KI-resistent(er) gestalten".
Weiterführende Informationen
Im Folgenden finden Sie Informationsquellen und Weiterbildungsangebote der UOS, weiterer Hochschulen sowie anderer Institutionen und Gruppen, die online oder offline bereitstehen. Die Auswahl bildet lediglich einen kleinen Teil der vielfältigen Möglichkeiten ab, um das eigene Wissen und die individuellen Kompetenzen selbstständig zu erweitern.
Die im Zentrum für Digitale Lehre, Campus-Management und Hochschuldidaktik (virtUOS) erstellten Mikromodule (MiMos) stellen digitale Selbstlerneinheiten zu spezifischen Themen dar und informieren u. a. über Gefahren und Möglichkeiten bei der Verwendung von KI-Systemen. Das Mikromodul 'Willkommen im KI-Dschungel' richtet sich insbesondere an Personen ohne Vorkenntnisse, um diese zur effektiven und wissenschaftlichen Verwendung von KI-basierten Werkzeugen zu schulen und sie für Risiken sowie mögliche Fehlinterpretationen zu sensibilisieren. Das Aufbaumodul 'Expedition KI' beschäftigt sich speziell mit textgenerierender KI und der Frage, was Große Sprachmodelle tatsächlich leisten können.
Die Schreibwerkstatt am Sprachenzentrum der UOS bietet eine Handreichung zur Nutzung von KI für universitäre Schreibaufgaben, die sich explizit an Studierende richtet. Zudem finden regelmäßig Workshops zum Thema ' KI und wissenschaftliches Schreiben' statt, die z. T. gemeinsam mit der Universitätsbibliothek angeboten werden, dann mit Informationen zur Nutzung von KI bei der Recherche. Die Nutzung von KI-basierten Anwendungen kann auch in individuellen Schreibberatungen thematisiert werden, sofern der grundsätzliche Umgang vorher geklärt wurde.
Die elan Academy bietet in ihren Online-Selbstlernmaterialien ‚ EU AI Act - Gesetzliche Regulierungen von KI und ihre Auswirkungen auf Hochschulen und Lehre‘ eine Einführung in die Grundlagen von KI sowie Informationen zu rechtlichen Rahmenbedingungen. Auch die Lernplattform KI-Campus bietet u. a. kostenlose Online-Kurse zur Stärkung der persönlichen KI-Kompetenz.
Im Rahmen der Hochschuldidaktischen Qualifizierung findet an der UOS in der Regel zweimal pro Jahr ein Workshop für Lehrende zum Thema „Kompetenzorientiert Prüfen – Lernfortschritte erfassen, reflektieren, bewerten“ statt. Die Teilnehmenden erhalten Unterstützung bei der Vorbereitung, Durchführung und Benotung kompetenzorientierter Prüfungen. Dabei wird auch auf Besonderheiten angesichts der Verwendung generativer KI-Tools eingegangen.
In Zusammenarbeit mit der Koordinierungsstelle Prüfungsverwaltung wird u. a. Lehrenden in regelmäßigen Abständen ein Inhouse-Seminar zum Thema "Prüfungsrecht an der UOS" angeboten. Das Seminar vermittelt einen Überblick der rechtlichen Grundlagen des hochschulischen Prüfungswesens anhand der Gesetzeslage und der aktuellen Rechtsprechung. Details zum Inhalt und zur Anmeldung stehen in Stud.IP zur Verfügung. Eine Dokumentation der vergangenen Veranstaltungen sowie weitere Informationen zu den Angeboten der Koordinierungsstelle Prüfungsverwaltung sind über das Intranet der UOS zugänglich.
Die Veranstaltungsreihe KI.kompakt des Digitale Lehre Hub Niedersachsen (DLHN) behandelt aktuelle für die Hochschullehre relevante Themen in kompakter Form und bietet Raum für Fragen und Austausch. Informationen zu anstehenden Terminen bietet die Website des DLHN-Projekts ‚KI in Studium, Lehre und Prüfungen‘.
Informationen zur KI-Verordnung der Europäischen Union erhalten Sie u. a.
- auf den Webseiten der Europäischen Union
- über das KI-Service Desk der Bundesnetzagentur
Hinweise zum „Zitieren“ KI-generierter Inhalte bieten u. a.
- die Modern Language Association (MLA) in englischer Sprache: ‘Citing Generative AI’
- die American Psychological Association (APA) in englischer Sprache: ‘How to cite ChatGPT’
- die Handreichung ‚ KI-Gebrauch im Studienkontext dokumentieren‘, entstanden in der Arbeitsgruppe ‚Rechtliches‘ der Austauschrunde niedersächsischer Hochschulen zum Thema Künstliche Intelligenz
Diskussionen der Auswirkungen von KI-Nutzung finden Sie u. a.
- in der Stellungnahme des Deutschen Ethikrats: ‚ Mensch und Maschine - Herausforderungen durch künstliche Intelligenz‘ vom 20. März 2024
- in dem Dokument ‚ Diskussionspunkte zu ethischen Aspekten von generativer künstlicher Intelligenz in der Hochschullehre‘, das in der Untergruppe ‚KI und Ethik‘ der niedersächsischen Austauschgruppe zum Thema KI in Studium und Lehre entstand.
- in dem im MIT Technology Review veröffentlichten Artikel ‚ We did the math on AI’s energy footprint. Here’s the story you haven’t heard.‘ in englischer Sprache
- im Diskussionspapier ‚ Deskilling durch Künstliche Intelligenz?‘ des Hochschulforums Digitalisierung.
Hinweise zum KI-Einsatz im Lehr-/Lernkontext bieten u. a.
- ein Interview mit Prof. Dr. Doris Weßels zum Thema ' ChatGPT in Hochschulen', dass sich u. a. mit der Frage nach der Anpassung von Prüfungssituationen befasst.
- die Blogbeiträge zum Thema Künstliche Intelligenz und ein Online-Kursangebot zum Erwerb und zur Stärkung von Digitalkompetenzen der Lernplattform KI-Campus.
- der Webauftritt der Bundeszentrale für politische Bildung, der in der Rubrik 'Lernen' ein Angebot an didaktischen Bildungsmaterialien sowie Artikel und Interviews zum Thema KI zur Verfügung stellt, z. B. 'KI in der Hochschulbildung'
Allgemeine Information zu den Grundsätzen wissenschaftlicher Praxis erhalten Sie u. a.
- in den Leitlinien zur Sicherung guter wissenschaftlicher Praxis der Deutschen Forschungsgemeinschaft (DFG)
Erläuterungen zum Umgang mit personenbezogenen Daten bieten u. a.
- die Datenschutz-Grundverordnung
- die Europäische Kommission in englischer Sprache
Eine Übersetzung der Handlungsempfehlungen in die englische Sprache ist aktuell in Planung.