KI in der Lehre – Leitlinien der ETF

Grundsätzliches

  • Die ETF weiß um die wachsende Bedeutung von KI. Sie ermutigt Lehrende und Studierende, sich die Fähigkeiten für einen sinnvollen und verantwortungsvollen Umgang mit verschiedenen KI-Tools anzueignen.
  • Die ETF bittet ihre Lehrenden, auch im Unterricht passende KI-Tools einzubringen, um Studierende mit deren Möglichkeiten, Grenzen und Risiken vertraut zu machen.

Risiken und Empfehlungen für einen kritischen Umgang

KI-Tools bieten neben Vorteilen auch Gefahren, denen man mit einem sorgfältigen Umgang entgehen kann.

  • Grenzen der KI. Bei den gängigen KI-Anwendungen handelt es sich um Chatbots, die sehr gut formulieren, strukturieren und argumentieren können. Sie können Muster erkennen und auf (Text-)Beispiele anwenden. Die Antworten basieren einzig und allein auf Statistik. Chatbots haben kein inhaltliches Wissen, sie können nicht denken und ihnen fehlt die persönliche Erfahrung. Für komplexe theologische Debatten, neue wissenschaftliche Erkenntnisse und Texte mit individueller Note und Tiefgang reicht das (bislang) nicht aus. KI-Tools sind Instrumente, die nur so gut funktionieren, wie die bedienenden Menschen sie beherrschen.
  • Falschinformationen. KI-Tools neigen dazu, zu halluzinieren; unter richtigen Infos finden sich häufig auch falsche, was man aber meist erst erkennt, wenn man selbst gut informiert ist. Informationen, die über KI-Tools generiert wurden, sind von daher nicht blind zu trauen; sie müssen stets kritisch überprüft werden.
  • Manipulation. Wie Informationen im Allgemeinen gehen auch durch KI generierte Informationen häufig mit Werturteilen (Vorurteilen) einher. Um der Gefahr der Manipulation zu entgehen, ist es von daher entscheidend, durch KI generierte Informationen auf solche Urteile hin kritisch zu reflektieren.
  • Verletzung des Datenschutzes. In KI-Tools eingegebene Daten sind in der Regel nicht geschützt, sondern können weiterverwendet werden. Nutzer*innen von KI-Tools dürfen daher keine personenbezogenen Daten in KI-Tools eingeben und auch sonst ist bei sensiblen Informationen Vorsicht geboten. Die Uni Wien bietet Lehrenden und Studierenden einen kostenlosen Zugang zu Microsoft 365, das Copilot (GPT-4) beinhaltet. Hier sind die Daten durch die „Enterprise Data Protection“ geschützt.
  • Verkümmern der eigenen Fähigkeiten. KI-Tools sind in der Lage, auch komplexe Aufgaben zu lösen und gut formulierte (aber häufig oberflächliche) Texte zu verfassen. Das kann für Anwender*innen sehr praktisch sein, weil es Zeit spart. Die große Gefahr dabei ist aber, dass die Denk- und Schreib-Fähigkeiten bei Anwender*innen von KI-Tools zu wenig gepflegt werden und verkümmern. Das eigene Nachdenken (über Texte, Probleme, Fragestellungen, etc.), Recherchieren und Formulieren von Texten sind wesentliche Bestandteile des Lernens und Reifens. Wer das Denken und Schreiben zu häufig an KI-Tools delegiert, verpasst wesentliche Lern-Chancen, macht sich von den KI-Tools abhängig und verlernt dadurch auch die Fähigkeit, diese (wie oben empfohlen) kritisch zu prüfen.
  • Stromfresser. Die Entwicklung und der Gebrauch von KI fressen enorm viel Energie. Im Sinne der Nachhaltigkeit ist der Gebrauch daher auf ein Minimum zu beschränken.

Regeln zur konkreten Arbeit mit KI an der ETF

  • KI-Tools als Hilfsmittel. Für Prüfungsleistungen ist der Einsatz von KI-Tools (höchstens) als Hilfsmittel erlaubt (etwa zum Brainstormen), nicht aber als Ersatz für das eigene Erbringen der Prüfungsleistung.
  • Texte selber verfassen. Die Übernahme von ganzen Passagen, die von KI-Tools formuliert wurden, gilt bei Prüfungsleistungen als Schummeln; es ist eine Form von Plagiarismus.
  • Texte korrigieren lassen. Falls Lehrende/Betreuende es nicht explizit verbieten, ist die Korrektur eigener Texte durch Programme wie DeepL erlaubt. Studierenden wird empfohlen, die Korrekturvorschläge gut anzuschauen, damit sie das nächste Mal auch ohne Gebrauch von KI besser formulieren können.
  • Dokumentation des Gebrauchs. Falls KI-Tools bei Prüfungsleistungen als Hilfsmittel gebraucht werden, muss dieser Gebrauch dokumentiert werden – ähnlich wie der Gebrauch von Sekundärliteratur. Die verwendeten KI-Tools sind in der Bibliographie unter Hilfsmittel aufzuführen; und in den Fußnoten ist anzugeben, welche Ideen durch den Gebrauch von KI generiert wurden.
  • Kein Ersatz für Quellenangaben. Der Verweis auf KI-Tools ersetzt herkömmliche Quellenangaben nicht. Wichtige Informationen müssen aus wissenschaftlichen Publikationen nachgewiesen werden.
  • Prüfungen. Lehrende sind gebeten, Prüfungen so anzulegen, dass sich die Gefahr des Schummelns mit KI-Tools minimiert.
  • Schummeln. Falls Lehrende/Betreuende den Verdacht haben, dass Studierende KI-Tools in illegitimer Weise gebraucht haben, können sie Studierende zu einem Gespräch einladen, um der Sache im mündlichen Austausch auf den Grund zu gehen. Erhärtet sich der Verdacht des Schummelns, wird im Sammelzeugnis in X eingetragen.
  • Lehrende bestimmen die Details des legitimen Umgangs mit KI. Im Einzelnen regeln Lehrende und Betreuende, bis zu welchem Ausmaß der Gebrauch von KI in ihren Lehrveranstaltungen und den von ihnen betreuten Arbeiten erlaubt ist. Studierende sind gebeten, bei Unklarheiten bei den Lehrenden und Betreuenden direkt nachzufragen.

Weiterführende Infos

Die Universität Wien hat viele wichtige Informationen zum Umgang mit KI in der Lehre zusammengestellt; die ETF empfiehlt Studierenden und Lehrenden sich hier weiter zu informieren.

 Beschlossen in der Fakultätssitzung vom 20.1.2025