07. November 2023Datenschutzrecht | Hochschulrecht | Privathochschulrecht | Digitale Transformation

Der Einsatz von KI – insbesondere von (Chat-) GPT – in Lehre und Prüfungen an Hochschulen: Chancen, Risiken, Konsequenzen und Perspektiven.

A. Allgemeiner Teil

I.
Einführung


Seit seiner Einführung im November 2022 hat kaum ein Computersystem weltweit so Seit seiner viel Aufmerksamkeit erregt und so viele Debatten ausgelöst wie ChatGPT. Dieser Chatbot basiert auf einem Computermodell, das mithilfe von künstlicher Intelligenz (KI) und Methoden zur Verarbeitung von Sprachdaten trainiert wurde. Er ist in der Lage, in kürzester Zeit anscheinend eloquente Antworten zu einer Vielzahl von Themen zu generieren, ganze Essays oder Computerprogramme zu erstellen und Sprachstile wie Gedichte, Witze oder Diskussionen zu verwenden - und das alles in verschiedenen Sprachen.

Die große öffentliche Aufmerksamkeit weckt einerseits hohe Erwartungen hinsichtlich der Anwendungsmöglichkeiten. Andererseits kann sie jedoch auch den Blick auf eine realistische Einschätzung der Möglichkeiten und Grenzen solcher Systeme sowie ihrer gesellschaftlichen Auswirkungen verstellen. Dieses Hintergrundpapier dient als Leitfaden für die laufende Debatte und behandelt folgende Aspekte:


  • Die technologischen Entwicklungen, auf denen das System basiert.
  • Die Möglichkeiten und Grenzen der Technologie.
  • Potenzielle Anwendungen, insbesondere im Bereich der Bildung.
  • Mögliche Auswirkungen einer Anwendung.

Die umfangreiche Bandbreite an Anwendungsmöglichkeiten von sprachverarbeitenden KI-Modellen verdeutlicht, dass diese Technologie einen tiefgreifenden Einfluss auf die menschliche Wissensarbeit haben und somit auch gesellschaftliche Strukturen verändern kann (Ovadya 2021). Besonders betroffen von diesen Veränderungen sind die Bereiche Bildung und Forschung, weshalb die Rolle von ChatGPT in diesen Bereichen intensiv diskutiert wird. Es wird von einem "Ende der Hausarbeiten" gesprochen (Marche 2022) und von einem "Gamechanger" im Bildungsbereich (van Deyzen 2023; Roth 2023), aber auch von neuen Chancen für Studierende (Stock 2023). Informations- und Fortbildungsveranstaltungen für Lehrende verzeichnen eine Rekordzahl an Teilnehmenden. Es wurde auch gezeigt, dass ChatGPT standardisierte Prüfungen in Fachbereichen wie Medizin (Kung et al. 2023), Rechtswissenschaft (Choi et al. 2023) und Informatik (Finnie-Ansley et al. 2022) bestehen kann.

Trotzdem ist diese Aufmerksamkeit im Bildungsbereich bemerkenswert. Die bekannten Grenzen und Risiken der sprachverarbeitenden KI-Modelle, wie z.B. das Fabulieren und die mangelnde Zuverlässigkeit sowie die Intransparenz hinsichtlich möglicher Vorurteile (Mohr et al. 2023), lassen eine voreilige Anwendung in einem so wichtigen und sensiblen Bereich der Gesellschaft nicht als naheliegend erscheinen.

Studierende

Nach der Veröffentlichung haben Studierende ChatGPT schnell aufgegriffen und damit experimentiert, auch im Rahmen ihrer Lernprozesse. Die Interaktion mit dem System wird von erwachsenen Lernenden als persönlich und bereichernd beschrieben (Klinge 2022). Erfahrungsberichte von Schülerinnen und Schülern in einem Pressebericht zeigen, dass das System genutzt wird, um den Lernstoff besser zu verstehen ("Wenn mir die Antwort nicht ausreicht, schreibe ich: 'Erkläre das genauer', oder ich stelle meine Frage anders. Schon bekomme ich einen neuen, detaillierteren Text, der mir beim Lernen hilft"). Es wird auch verwendet, um Routineaufgaben zu erledigen ("Die KI verkürzt die Zeit für die Fleißarbeit, damit ich mehr Zeit für die Denkarbeit habe") oder um zeitaufwendige Arbeiten zu vereinfachen ("Zuerst habe ich die Englischaufgaben damit gemacht (...) Frage eingeben und die Antwort kopieren. Das geht total einfach, wenn man mal faul ist oder keine Zeit hat") (Blume 2023).

Neben der automatisierten Texterstellung kann das Programm als Werkzeug zur Textbearbeitung genutzt werden, zum Beispiel zum Paraphrasieren, stilistischen Korrigieren (Mohr et al. 2023), Übersetzen, Suchen nach Synonymen usw. (Marx 2023). Es kann auch bei der Strukturierung von Themen helfen, Ideen für das eigene Schreiben liefern, Aufgaben und Fragen für das Selbstlernen generieren und Musterlösungen anbieten (Blume 2023). Für Lernende, die gut mit den Anweisungen umgehen können, kann das System auch in der Basisversion als persönlicher interaktiver Lerncoach fungieren (Klinge 2022) und Hilfe geben, wenn sie Unterstützung benötigen (Heidt 2023). Bei der "selbstständigen Bearbeitung von Aufgabenstellungen bzw. der Aneignung von neuen Stoffgebieten" kann ChatGPT, wenn es richtig befragt und genutzt wird, zahlreiche Anregungen für Gliederung, Ideen, Konzepte und Reflexion liefern (Brandstätter 2023).

Zur Unterstützung des selbstgesteuerten Lernens werden auch spezialisierte Anwendungen auf der Grundlage von ChatGPT entwickelt. Ein Beispiel ist der Q-Chat des Online-Dienstes Quizlet, der hauptsächlich als klassischer, webbasierter Vokabeltrainer genutzt wird. Mithilfe von ChatGPT soll der Dienst zu einem Tutor werden, der sich an den Fortschritt der Lernenden anpasst und in Form eines Dialogs Fragen zum Lernmaterial stellt (Bayer 2023). Eine mögliche Weiterentwicklung besteht darin, das System in ein intelligentes Tutorensystem zu integrieren, das beispielsweise im Informatikstudium individuelle Unterstützung bei der Entwicklung von Programmierfähigkeiten bieten und Aufgaben generieren kann (Alouani 2023).

Lehrende

In der intensiven Diskussion über ChatGPT im Hochschulkontext wurden Potenziale zur Erleichterung der persönlichen Arbeit (wie die Entlastung bei routinemäßigen Kommunikationsaufgaben), aber auch zur Verbesserung des Unterrichts und der Lehre identifiziert (Gimpel et al. 2023; Kasneci et al. 2023; Mohr et al. 2023; allgemein zum Einsatz von KI für Lehr- und Lernzwecke: Europäische Kommission 2022). Die Beteiligten an der Debatte sind sich weitgehend einig, dass es nicht darum geht, ChatGPT und ähnliche Systeme aus dem Bildungsbereich (Sekundar- und Tertiärbereich) zu verbannen, sondern vielmehr als Herausforderung anzunehmen.

Lehrende können mit Hilfe von ChatGPT den Unterricht oder Lehrveranstaltungen planen und Anregungen dafür erhalten. Es können Aufgaben zu einem bestimmten Thema vorgeschlagen und entsprechende Materialien erstellt werden (z. B. Impulse, Fragen, Beispiele, Quizze oder Anregungen) (Blume 2023; Mohr et al. 2023). Es wird erwartet, dass diese Art der Unterstützung von Routineaufgaben entlastet und Effizienzgewinne bringt (Gimpel et al. 2023; Kasneci et al. 2023). Auch die Auswahl der richtigen Erarbeitungsaufträge ("Prompts") spielt eine wichtige Rolle für die Qualität und Passgenauigkeit der Ergebnisse (Mollick/Mollick 2023).

Über die Unterrichtsplanung hinaus kann ChatGPT auch – unter Beachtung des Datenschutzes – während des Unterrichts oder der Lehrveranstaltungen eingesetzt werden (Mohr et al. 2023, S. 10). Dies wird insbesondere in sprachlichen Fächern diskutiert und bereits praktiziert (Brandstätter 2023; Meyer/Weßels 2023). Mit PEER wird schon eine spezialisierte Anwendung zur Unterstützung des Schreiblernens auf Basis von GPT-3 getestet (Mohr et al. 2023, S. 10). Auch in den Gesellschaftswissenschaften gibt es Anwendungsmöglichkeiten, beispielsweise zur Entwicklung von Argumentationen aus verschiedenen Perspektiven. Dabei ist es jedoch wichtig, die Ergebnisse des KI-Systems kritisch zu reflektiere. Dadurch kann gleichzeitig die kritische Medienkompetenz im Umgang mit KI-Systemen geschult werden (Mohr et al. 2023, S. 10). Der Einsatz sprachverarbeitender KI-Modelle im Unterricht und in der Lehre wird teilweise bereits wissenschaftlich evaluiert und erforscht (Mohr et al. 2023, S. 10). Darüber hinaus könnte ein stärkerer fachlicher Austausch der beteiligten Praktikerinnen und Praktiker über ihre gesammelten Erfahrungen sinnvoll sein, der sich beispielsweise an den Leitfragen zur ethischen und verantwortungsvollen Nutzung von KI-Systemen der Europäischen Kommission (2022, S. 22ff.) orientieren könnte.

Prüfungen

Texterzeugnisse spielen in den meisten Fachgebieten eine grundlegende Rolle bei der Bewertung des Lernfortschritts. Die sprachliche Ausdrucksweise wird vorläufig verwendet, um die Entwicklung von Wissen und (z. B. geistigen) Fähigkeiten

beurteilen zu können, die nicht direkt beobachtbar sind (Mahowald/Ivanova 2022). Die Anwendung von ChatGPT relativiert diese angenommene Verbindung sich und stellt damit die bisherige Praxis der Prüfungen insbesondere an Hochschulen (wo die Distanz zwischen Lehrenden und Lernenden größer ist) vor große Herausforderungen.

Im Gegensatz zu Plagiaten ist es bisher nicht möglich, Texte, die mit sprachverarbeitenden KI-Systemen generiert wurden, automatisch und zuverlässig zu erkennen. Es wurden bereits verschiedene Anwendungen zur Überprüfung entwickelt, die ebenfalls auf KI-Technologien basieren (Polomski 2023), sich jedoch bisher als nicht wirksam erwiesen haben (Gao et al. 2022). Eine Kennzeichnung der Texte, die von KI-Modellen generiert wurden, wird daher auch durch die Verwendung von Wasserzeichen diskutiert (Heikkilä 2023b). Stellenweise wird davon ausgegangen, dass ein Wettlauf zwischen KI-Systemen zur Erzeugung und zur Entdeckung künstlicher Texte stattfindet (Heidt 2023).

Ein Verbot von ChatGPT als unzulässiges Hilfsmittel dürfte in der Praxis kaum durchsetzbar sein, insbesondere weil eine Nutzung nur unter bestimmten Umständen nachweisbar ist. Es gibt auch Bedenken gegenüber Maßnahmen wie handschriftlichen Prüfungen, da diese einige Lernende benachteiligen könnten (Heidt 2023). In einigen Fällen könnten nur mit erheblichem Aufwand gesicherte Prüfungsumgebungen geschaffen werden (auch für Online-Prüfungen mit Videoüberwachung), die eine

Kontrolle ermöglichen (Besner et al. 2023). Stattdessen werden didaktische oder organisatorische Lösungen diskutiert, wie zum Beispiel die explizite Einbindung von ChatGPT als Hilfsmittel, die Protokollierung oder Erläuterung des Arbeitsprozesses als Teil der Aufgabe oder ergänzende mündliche Prüfungsleistungen (van Dis et al. 2023; Gimpel et al. 2023, S. 31ff.; Haverkamp 2022).

1. Einsatz für Prüfende bei Leistungsbewertungen

Es wird auch darüber diskutiert, inwieweit KI-Modelle zur Sprachverarbeitung genutzt werden können, um schriftliche Leistungen von Studierenden zu bewerten (Kasneci et al. 2023, S. 3). Dies wirft prüfungsrechtliche Fragen auf, da Prüfungsordnungen in der Regel die Rolle eines Prüfers oder einer Prüferin vorsehen (Hoeren 2023, S. 36). Daher scheint die Vorstellung, dass es zu einem vollständigen Kreislauf maschineller Kommunikation kommen könnte, weit hergeholt zu sein, bei dem Lernende Texte von einem KI-System generieren lassen und diese von einem anderen KI-System (teilweise) automatisch korrigiert oder bewertet werden (de Waard 2023).

2. Medienkompetenz

Eine Herausforderung im Zusammenhang mit ChatGPT besteht darin, dass den Lernenden neue Kompetenzen vermittelt werden müssen. Durch Suchmaschinen wie Google haben sich bereits grundlegende Recherchekompetenzen verändert. Für die (kritische) Bewertung der Funktionsweise und Ergebnisse von ChatGPT (Dolderer 2022) sowie für das (kritische) Hinterfragen der KI-Technologie und -Industrie werden ebenfalls neue Kompetenzen benötigt (Floridi/Chiriatti 2020, S. 692f.). Gleiches gilt die kompetente Auswahl von Anregungen für eine effiziente Nutzung des Systems (van Deyzen 2023).

Diese Kompetenzen sollten im Bildungsprozess vermittelt werden und sollten auch Teil von Fort- und Weiterbildungen für Lehrende sein (Salden et al. 2023, S. 19) - nicht nur für diejenigen, die diese Kompetenzen selbst vermitteln, sondern für alle, die mit KI-Modellen zur Sprachverarbeitung konfrontiert sind. Darüber hinaus könnte sich die Bedeutung bisheriger Kompetenzen verschieben - neben dem Faktenwissen, das für die Beurteilung der Ergebnisse von KI-Systemen wichtig bleibt, gewinnt die Anwendung von Wissen weiter an Bedeutung (Blume 2023).

In Zukunft wird es für die Teilhabe an der digitalen Gesellschaft eine Rolle spielen, Systeme wie ChatGPT kompetent nutzen zu können, zum Beispiel als

Anforderung in vielen Berufen. Gleichzeitig steigt mit der Verbreitung digitaler Anwendungen der Anspruch an menschliche Tätigkeiten. Stellenweise wird davon ausgegangen, dass dies (möglicherweise) zu einem "Schereneffekt" führt (so jedenfalls Honegger 2023a, b). KI-Systeme wie ChatGPT könnten jedoch auch einen ausgleichenden Effekt in Bezug auf Bildungsungleichheiten haben, indem sie Hilfe anbieten, wo beispielsweise im familiären Umfeld keine solche zu erwarten ist (Blume 2023).

II.
Zusammenfassung


Zu erwarten ist, dass Anwendungen wie (Chat-) GPT zur Erstellung und Überarbeitung von Text bald in gängige Programme zur Textverarbeitung integriert werden. Es ist davon auszugehen, dass die Anwendungen vielfältige Aufgaben in Bezug auf die Texterstellung übernehmen können.

Über die Möglichkeiten und Einsatzszenarien von (Chat-) GPT hinaus seien beispielhaft erwähnt:

  • Textkorrektur (Grammarly und DeepL Write),
  • Paraphrasieren (QuillBot) & Umschreiben (PolitePost),
  • Übersetzen (DeepL, Google Translate),
  • Tools zum kreativen Schreiben (NovelAI),
  • Literaturrecherche (Elicit, ResearchRabbi),
  • Textbewertung.

III.
Schlussfolgerungen


In Studium und Lehre an Hochschulen erscheint ein generelles Verbot derartiger Anwendungen nicht als zielführend. Stattdessen sollten die Hochschulen definieren, wann und unter welchen Voraussetzungen KI-Anwendungen von Mitarbeitenden in der Lehre wie auch von Studierenden eingesetzt werden dürfen.

Dies erfordert die Definition von Lernzielen in Bezug auf KI-Anwendungen und ihre Integration in Lehr- und Lernumgebungen einschließlich einer Beratung dahingehend, ob und in welchem Maße eine Anpassung schriftlicher Prüfungen notwendig oder angebracht erscheint.

B. Konsequenzen

für den Einsatz an Hochschulen in Lehre und Prüfungen

I.
Grundsätzliche Überlegungen zum Einsatz von KI-Anwendungen


  • „Terms of Use“ oder etwaige andere Lizenzvereinbarungen
  • Datenschutzrechtliche Gesichtspunkte
  • Urheberrechtliche Aspekte („Schöpfungsprinzip“; Urheberrecht der KI, Verletzung des Urheberrechts durch Datenverwendung/durch Wiedergabe) - Beachte das Wahrscheinlichkeitsprinzip der KI

II.
Konkrete Maßnahmen – Was Hochschulen aktuell tun sollten


  • Analyse des (erwarteten) Ausmaßes der Veränderungen

Aus didaktischer Perspektive betrachtet, ist es wichtig, Prüfungen nach ihrer Funktion im Lernprozess zu unterscheiden. Es gibt formative und summative Prüfungen: Formative Prüfungen konzentrieren sich auf das Feedback während des laufenden Lernprozesses und können auch ohne Benotung erfolgen (z.B. Studienleistungen), während summative Prüfungen eine verbindliche Entscheidung über den weiteren Fortschritt im Studium treffen. Obwohl klassische Formate wie Klausuren immer noch deutlich im Prüfungswesen an Hochschulen dominieren, hat in den letzten Jahren ein Umdenken stattgefunden. Ein Begriff, der dafür besonders steht, ist "kompetenzorientiertes Prüfen": Dieser besagt, dass Prüfungen nicht nur flüchtiges und auswendig gelerntes Wissen überprüfen sollten, sondern dass Prüflinge stattdessen zeigen sollen, dass sie handlungsfähig in fachspezifischen Anforderungssituationen sind.


  • Hieraus folgt eine Neudefinition von Lernzielen (Hinzutreten zu bestehenden Lernzielen): Didaktische Unterscheidung nach Funktion im Lernprozess - formative (z.B. Studienleistungen)und summative Prüfungen: Prüfungen orientiert am Prüfungsziel und -zweck: „kompetenzorientiertes Prüfen“.
  • Anpassung von Bewertungskriterien (Hervorhebung des Fachdiskurses, kritische Auseinandersetzung mit Meinungen, Quellenarbeit)
  • Anpassung von Prüfungsaufträgen (Beurteilung von KI-durchgeführten Aufgaben/Arbeitsaufträgen)
  • Stärkung kompetenzorientierter Prüfungen
  • Kennzeichnungspflicht in Lehre (Wissenschaftskontext) und Prüfungen (Plagiat/Täuschungsversuch/Wissenschaftliches Fehlverhalten)
  • Eigenständigkeitserklärungen für Prüflinge / Regeln guter wissenschaftlicher Praxis
  • Täuschungs-/Plagiatsprävention

III.
Konsequenzen: Keine Richtlinien, sondern normative Rechtsgrundlage


Es besteht eine dringende Notwendigkeit der Anpassung hochschulbezogener Rechtsvorschriften für einen rechtssicheren Umgang mit entsprechender Software (Grundordnung, Prüfungsordnung, Studienverträge).

Derzeit erlassen Hochschulen in einem – sicher gut gemeinten, aber schlecht umgesetzten – Aktionismus „Richtlinien“, um den Einsatz von KI durch Studierende regeln zu wollen. Vielfach heißt es auch, dass die Lehrenden zu Beginn der Veranstaltung festlegen würden, ob und gegebenenfalls welche KI-Anwendungen von Studierenden eingesetzt werden dürften.

Von derartigen „Regelungen“ ist abzuraten, sie dürften einer rechtlichen Überprüfung kaum standhalten und im Ergebnis mehr Probleme schaffen als lösen.

Zunächst muss zwischen Lehrenden und Prüfenden sowie der Prüfungsbefugnis und der Prüfungsberechtigung unterschieden werden: Nicht alle Lehrenden sind prüfungsbefugt und die prüfungsbefugten Personen werden regelmäßig erst durch den „statusbegründenden Verwaltungsakt“ der Prüfendenbestellung (z.B. durch den Prüfungsausschuss) auch prüfungsberechtigt.

Darüber hinaus sind die Prüfenden nicht vollkommen frei in der Festlegung der Prüfungsinhalte, sondern sie stellen die Prüfungsaufgaben im Rahmen des normativ vorgegebenen zulässigen Prüfungsinhaltes.

Richtig ist zwar, dass auch die Entscheidung über die Frage, ob und welche Hilfsmittel eingesetzt werden sollen, grundsätzlich durch die Lehrfreiheit geschützt ist [Thieme, in: Deutsches Hochschulrecht, 2. Aufl., Rn. 66.].

Andererseits ist es in der Rechtsprechung (insbesondere des Bundesverwaltungsgerichts) und in der Literatur anerkannt, dass der durch Art. 3 Abs. 1 GG verfassungsrechtlich verbürgte Grundsatz der Chancengleichheit im Prüfungsrecht die Prüfungsbehörde verpflichtet, gleiche Prüfungsbedingungen auch in der Auswahl der Hilfsmittel zu gewährleisten, deren Gebrauch den Studierenden zugestanden wird.

Je stärker dabei die eingesetzten Hilfsmittel nach ihrer Art und ihrem Umfang zur Entfaltung des in der Prüfung zu messenden Leistungsvermögens der Studierenden beitragen, umso strikter hat die Prüfungsbehörde auf die gleichmäßige Verteilung gleichartiger oder für die Bewältigung der Prüfungsaufgaben zumindest gleichwertiger Hilfsmittel zu achten [Vgl. schon BVerwG, Beschluss vom 19. September 1978 – 7 B 19/78 –, juris Rn. 7; Verwaltungsgerichtshof Baden-Württemberg, Urteil vom 23. März 1982 – IV 605/79; Fischer/Jeremias/Dieterich Prüfungsrecht, 8. Auflage 2022 Rn. 442.].

Die Prüfungsbehörde ist dann, wenn sie selbst Hilfsmittel zur Verfügung stellt, dazu verpflichtet, dies gleichmäßig zu tun und dadurch gleichartige Prüfungsbedingungen für alle zu schaffen [Oberverwaltungsgericht Berlin-Brandenburg, Beschluss vom 21. April 2010 – OVG 10 N 33.09 –, juris Rn. 3.].

Bei einem so weitreichenden Hilfsmittel wie dem Einsatz von Chat-GPT (oder anderer KI-Anwendungen) ist daher nach unserem Dafürhalten eine normative Regelung zwingend erforderlich. „Richtlinien“ stellen keine derartige normative (satzungsrechtliche) Grundlage dar.

IV.
Ausblick


Um Rechtsunsicherheiten zu vermeiden und zugleich den gerade im Prüfungsrecht im besonderen Maße geltenden Grundsatz der Chancengleichheit zu gewährleisten, erscheint es perspektivisch unabdingbar, die

§ Bereitstellung von KI-Anwendungen in einer sicheren, kontrollierten und skalierbaren (Software-) Umgebung

anzustreben.

Microsoft investiert übereinstimmenden Medienberichten zufolge mehrere Milliarden US-Dollar in die Anwendungen ChatGPT und Dall-E von Open AI und stellt diese aktuell ausgewählten Unternehmen auf einer eigenen Plattform im Rahmen einer solchen Umgebung auch für das Training mit eigenen Daten bereit (azure Open AI Service).

Hierbei soll grundsätzlich das Microsoft DPA (Product-and-Services-Data-Protection-Addendums) für den azure Open AI Service gelten. Anfang 2023 hatte Microsoft eine neue Version seines DPA veröffentlicht. Das Unternehmen geht damit den eingeschlagenen Weg konsequent weiter, die strengen (und auch unter Fachleuten stellenweise unterschiedlich ausgelegten) datenschutzrechtlichen Vorgaben, unter anderem die der DS-GVO, zu erfüllen.

Zwar führt die Arbeitsgruppe „„Microsoft-Onlinedienste““ der Datenschutzkonferenz (DSK) in ihrem Beschluss „Bewertung der aktuellen Vereinbarung zur Auftragsverarbeitung, Stand 2. November 2022“, Rn. 1032 bis 1038 aus:

„Aufgrund der bestehenden gesellschaftsrechtlichen Befugnisse der Muttergesellschaft – und sei es nur zur Auswechslung einer lokalen Geschäftsführung, die sich unter Verweis auf die DSGVO weigert, Daten herauszugeben – und aufgrund des Umstandes, dass auch die Geschäftsführer der Tochtergesellschaft persönlich Verpflichtete nach FISA 702 sind, denen im Weigerungsfall persönlich Sanktionen drohen, ist die datenschutzrechtliche Zuverlässigkeit einer EU-Tochtergesellschaft im Sinne des Art. 28 Abs. 1 DSGVO im Hinblick auf FISA 702 nach Ansicht der Arbeitsgruppe zunächst nicht anders zu bewerten als die der US-Muttergesellschaft.“

Hierzu ist aber festzustellen, dass sich diese – im Übrigen unseres Erachtens nicht begründete - Rechtsansicht nicht auf das DPA 2023 bezog. Darüber hinaus ist anzumerken, dass die Rechtsprechung zuletzt herausgearbeitet hat, dass das bloße Risiko der Anweisung durch Muttergesellschaften oder staatliche Stellen in Drittländern, personenbezogene Daten, die von EU-/EWR-Unternehmen verarbeitet werden, in ein Drittland zu übermitteln, noch keinen Datentransfer i. S. d. Art. 44 ff. DSGVO begründen kann.

[OLG Karlsruhe, Beschluss vom 7. September 2022 – 15 Verg 8/22 –, juris Rn. 34 f.; folgend Vergabekammer München, Beschluss vom 28. Februar 2023 – 3194.Z3-3_01-22-42 –, juris Rn. 40 f.]

Die DSK hat ausweislich des Protokolls ihrer 1. Zwischenkonferenz 2023 unter TOP 09 am 31. Januar 2023 beschlossen,

dass eine Neubewertung der Rechtslage erforderlich ist. Im Mittelpunkt der Neubewertung stehen das Microsoft EU Data Boundary als europäische Cloud-Lösung von Microsoft sowie das DPA 2023. Mit der Neubewertung wurde die DSK-Arbeitsgruppe „Microsoft-Onlinedienste“ beauftragt. Die Ergebnisse sollten „möglichst“ bis zur 105. Datenschutzkonferenz am 10. und 11. Mai vorgelegt werden.

Ausweislich der Homepage der DSK, die nicht über eine Suchfunktion verfügt, ist dies bislang (Stand: 6. Juni 2023, 13.27 Uhr) nicht geschehen.


Die nachfolgenden Grafiken illustrieren den Unterschied von open AI zu Azure Open AI (Microsoft) und visualisieren die Anwendung von (Chat-) GPT auf azure auch mit eigenen Daten:

Quelle: Horst Urlberger, Azure Business Group; Business Lead – Data Modernization (Microsoft Deutschland)

Bald verfügbar: Sandbox

Die Bereitstellung von GPT auf einer sicheren, kontrollierbaren und skalierbaren Plattform für Lehrende und Studierende. Lern- und Lehrplattformen wie Moodle, ILIAS, Canvas usw. können problemlos eingebunden werden, Daten z.B. aus Vorlesungen (egal, ob es sich um eine Präsentation, ein Textdokument, eine .pdf Datei oder .html handelt) können für die jeweilige Prüfung als Quelle in Form von automatisiert umgewandelten Vektordaten bereitgestellt werden (hier: Daten, die als Satz numerischer Werte oder „Vektoren“ dargestellt werden und zur Beschreibung der Eigenschaften eines Objekts oder Phänomens verwendet werden können.). Ein angenehmer Nebeneffekt dürfte sein, dass klassische Täuschungsversuche damit nahezu vollständig unterbunden werden können: Selbst wenn Studierende auf einem Parallelrechner den Chatbot ChatGPT einsetzen würden, wäre dies nicht zielführend, da ChatGPT (bzw. GPT 3.5/4) die zur Verfügung gestellten Daten nicht kennt (und auch nicht kennen kann). Zudem ließen sich etwaig anderweitig gewonnene Erkenntnisse nicht in die Prüfung importieren. Durch die optionale Skalierung der prompts (inhaltliche Vorgaben, Volumenbeschränkung etc.) kann eine weitere Steuerung im Hinblick auf Lernerfolge erfolgen. Der Einsatz von Proctoring-Software dürfte damit weitgehend obsolet werden.

Für die
Lehre

Nutzen Sie KI, um Lehre zu planen, zu gestalten und zu organiseren. Stellen Sie Vorlesungsinhalte in Vektordaten bereit. 

Für das
Lernen

Verwenden Sie bereitgestellte (Vorlesungs-) Inhalte, um KI-gestütztes Lernen, beispielsweise mit Avataren, zu ermöglichen und überwinden Sie geographische und sprachliche Barrieren. 

Für die
Prüfungen

Gestalten Sie mit KI Ihre Prüfungen. Behalten Sie die Daten- und Quellenhoheit, indem Sie nur eigene Daten bereitstellen. Verunmöglichen Sie damit auch Täuschungsversuche. 

Für die Rechtsabteilungen

Profitieren Sie von tranierten und verifizierten Daten und lösen Sie auch komplexe Rechtsfälle verlässlich. Reduzieren Sie Personal- und Zeiteinsatz.


Quellen

[01] Alouani, N. (2023): Why You’re the Biggest Loser in the AI Wars.

https://medium.com/geekculture/why-youre-the-biggest-loser-in-the-ai-wars-62824a5f1786

[02] Bayer, L. (2023): Introducing Q-Chat, the world’s first AI tutor built with OpenAI’s ChatGPT.

Introducing Q-Chat, the world’s first AI tutor built with OpenAI’s ChatGPT | Quizlet

[03] Besner, A.; Gerstner, M.; Strasser, A. (2023): Erste Einschätzungen zum Umgang mit ChatGPT in Fernprüfungen an bayerischen Univeristäten. Bayerisches Kompetenzzentrum für Fernprüfungen, Technische Universität München, München

[04] Choi, J.H.; Hickman, K.E.; Monahan, A.; Schwarcz, D.B. (2023): ChatGPT Goes to Law School. Minnesota Legal Studies Research Paper No. 23-03 (DOI:10.2139/ssrn.4335905)

[05] Blume, B. (2023): Das Ende vom Lernen wie wir es kennen.

https://deutsches-schulportal.de/kolumnen/chatgpt-das-ende-vom-lernen-wie-wir-es-kennen/

[06] Brandstätter, P. (2023): Hausaufgaben aus der Maschine.

https://taz.de/ChatGPT-loest-Bildungskrise-aus/!5920652/

[07] Deutscher Bundestag, Ausschuss für Bildung, Forschung und Technologiefolgenabschätzung, Ausschussdrucksache 20(18)109: „ChatGPT und andere Computermodelle zur Sprachverarbeitung – Grundlagen, Anwendungspotenziale und mögliche Auswirkungen“ (Steffen Albrecht).

[08] van Deyzen, B. (2023): Education experts discuss ChatGPT: An extra classmate has joined the class«.

https://communities.surf.nl/en/ai-in-education/article/education-experts-discuss-chatgpt-an-extra-classmate-has-joined-the

[09] van Dis, E.A.M.; Bollen, J.; van Rooij, R.; Zuidema, W.; Bockting, C.L. (2023): ChatGPT: five priorities for research. In: Nature Bd. 614

[10] Dolderer, M. (2022): AI transforming higher education? How a chatbot might bring the change we’ve all been waiting for.

https://hochschulforumdigitalisierung.de/en/blog/ai-transforming-higher-education

[11] Europäische Kommission (2022): Ethische Leitlinien für Lehrkräfte über die Nutzung von KI und Daten für Lehr- und Lernzwecke. Luxemburg

[12] Finnie-Ansley, J.; Denny, P.; Becker, B.A.; Luxton-Reilly, A.; Prather, J. (2022): The Robots Are Coming: Exploring the Implications of OpenAI Codex on Introductory Programming.

https://www.researchgate.net/publication/358590775_The_Robots_Are_Coming_Exploring_the_Implications_of_OpenAI_Codex_on_Introductory_Programming

[13] Fischer/Jeremias/Dieterich Prüfungsrecht, 8. Auflage 2022

[14] Floridi, L.; Chiriatti, M. (2020): GPT‑3: Its Nature, Scope, Limits, and Consequences, in: Minds & Machines 30.

[15] Gao, C.A.; Howard, F.M.; Markov, N.S.; Dyer, E.C.; Ramesh, S.; Luo, Y.; Pearson, A.T. (2022): Comparing scientific abstracts generated by ChatGPT to original abstracts using an artificial intelligence output detector, plagiarism detector, and blinded human reviewers.

https://uosc.primo.exlibrisgroup.com/discovery/fulldisplay?context=PC&vid=01USC_INST:01USC&search_scope=MyInst_and_CI&tab=Everything&docid=cdi_proquest_journals_2758451830

[16] Gimpel, H.; Hall, K.; Decker, S.; Eymann, T.; Lämmermann, L.; Mädche, A.; Röglinger, M.; Ruiner, C.; Schoch, M.; Schoop, M.; Urbach, N.; Vandirk, S. (2023): Unlocking the Power of Generative AI Models and Systems such as GPT-4 and ChatGPT for Higher Education: A Guide for Students and Lecturers. Hohenheim

[17] Haverkamp, H. (2022): Ein Lehrer lässt KI bei Klassenarbeiten zu – das hat er dabei gelernt.

https://the-decoder.de/ein-lehrer-laesst-ki-bei-klassenarbeiten-zu-das-hat-er-dabei-gelernt/

[18] Heidt, A. (2023): »Arms race with automation«: professors fret about AI-generated coursework. Nature Technology Feature

https://www.nature.com/articles/d41586-023-00204-z [paywall]

[19] Heikkilä, M. (2023a): Could ChatGPT do my job?

https://www.technologyreview.com/2023/01/31/1067436/could-chatgpt-do-my-job/

[20] Hoeren, T., in: DIDAKTISCHE UND RECHTLICHE PERSPEKTIVEN AUF KI-GESTÜTZTES SCHREIBEN IN DER HOCHSCHULBILDUNG, Peter Salden & Jonas Leschke (Hrsg.), Zentrum für Wissenschaftsdidaktik der Ruhr-Universität Bochum.

[21] Honegger, B.D. (2023b): Digitaler Schereneffekt.

https://beat.doebe.li/bibliothek/w03389.html

[22] Kasneci, E.; Sessler, K.; Küchemann, S.; Bannert, M.; Dementieva, D.; Fischer, F.; Gasser, U.; Groh, G.; Günnemann, S.; Hüllermeier, E.; Krusche, S. et al. (2023):

ChatGPT for Good? On Opportunities and Challenges of Large Language Models for Education. Position Paper. München

[23] Klinge, J.-M. (2022): Ein Schreib-Workshop durch eine Künstliche Intelligenz.

Ein Schreib-Workshop durch eine Künstliche Intelligenz - Schule, Schulleitung, Familie, DIY (halbtagsblog.de)

[24] Küttner, J; Reckling, C., (teipel) Hochschul-Gutachten Aufzeichnung von Vorlesungen (2023) sowie Hochschul-Gutachten zur Festlegung von Hilfsmitteln bei open-book-Prüfungen (2022) [n.v.].

[25] Kung, T.H. et al. (2023): Performance of ChatGPT on USMLE: Potential for AI-Assisted Medical Education Using Large Language Models.

https://www.medrxiv.org/content/10.1101/2022.12.19.22283643v2

[26] Mahowald, K.; Ivanova, A.A. (2022): Google’s powerful AI spotlights a human cognitive glitch: Mistaking fluent speech for fluent thought.

https://theconversation.com/googles-powerful-ai-spotlights-a-human-cognitive-glitch-mistaking-fluent-speech-for-fluent-thought-185099

[27] Marx, J.P.S. (2023): ChatGPT im Studium: Die Top 10 Befehle für effektives Lernen.

https://www.scribbr.de/ki-tools-nutzen/chatgpt-im-studium/

[28] Meyer, E.; Weßels, D. (2023): Natural Language Processing im akademischen Schreibprozess – mehr Motivation durch Inspiration? In: Schmohl, T.; Watanabe, A.; Schelling, K. (Hrsg.): Künstliche Intelligenz in der Hochschulbildung: Chancen und Grenzen des KI-gestützten Lernens und Lehrens. Bielefeld

[29] Mohr, G.; Reinmann, G.; Blüthmann, N.; Lübcke, E.; Kreinsen, M. (2023): Übersicht zu ChatGPT im Kontext Hochschullehre. Hamburger Zentrum für Universitäres Lehren und Lernen (HUL), Hamburg

[30] Mollick, E.; Mollick, L. (2023): Using AI to Implement Effective Teaching Strategies in Classrooms: Five Strategies, Including Prompts

[31] Ovadya, A. (2021): When we change the efficiency of knowledge operations, we changethe shape of society.

https://aviv.medium.com/when-we-change-the-efficiency-of-knowledge-operations-we-change-the-shape-of-society-d48ca870ff5b

[32] Polomski, J. (2023): KI Texte erkennen – diese 12 Tools helfen dabei.

https://jens.marketing/ki-texte-erkennen-tools/

[33] Roth, M. (2023): ChatGPT: Wie ein KI-Werkzeug Schule in Sachsen-Anhalt verändert.

www.mdr.de/nachrichten/sachsen-anhalt/podcast-digital-leben-ki-chatgpt-schule-bildung-lernen-100.html

[34] Salden, P.; Lordick, N.; Wiethoff, M. (2023): KI-basierte Schreibwerkzeuge in der Hochschule: Eine Einführung. In: Salden, P.; Leschke, J. (Hg.): Didaktische und rechtliche Perspektiven auf KI-gestütztes Schreiben in der Hochschulbildung, Bochum.

[35] Stock, L. (2023): ChatGPT an Universitäten - wie KI Studierenden helfen kann.

www.dw.com/de/chatgpt-an-universit%C3 %A4ten-wie-ki-studierenden-helfen-kann/a-64418962

[36] Thieme, in: Deutsches Hochschulrecht, 2. Auflage.

[37] de Waard, A. (2023): Guest Post – AI and Scholarly Publishing: A View from Three Experts.

https://scholarlykitchen.sspnet.org/2023/01/18/guest-post-ai-and-scholarly-publishing-a-view-from-three-experts/

Diese Internetseiten verwenden Cookies. Alle eingesetzten Cookies sind essenziell und ermöglichen es, die Webseite nutzen zu können. Weitere Informationen über den Einsatz von Cookies: Datenschutz | Impressum