Die zunehmende Verbreitung von KI (Künstlicher Intelligenz) im Hochschulwesen und an Hochschulen sorgt für viel Aufsehen und beeinflusst zahlreiche Bereiche. Dazu gehören unter anderem Zulassungsverfahren, Lehrprozesse und die Notenvergabe, die auf verschiedenen Plattformen intensiv diskutiert werden. Auch die Rolle von Chatbots im Hinblick auf personalisierte Lehrangebote ist ein wichtiger Diskussionspunkt, hat sich aber im Hochschulbereich noch nicht weiterentwickelt. Mit der zunehmenden Verbreitung von KI-Technologien sind auch KI-Erkennungs-Apps auf dem Markt erschienen.
Im Herbst des vergangenen Jahres wurde die Boston University AI Task Force gegründet, um die Auswirkungen generativer KI auf Hochschulbildung und Forschung zu bewerten und die Richtlinien zu überprüfen, die in den akademischen Instituten, Schulen und Colleges der BU Anwendung finden.
Empfehlungen der BU-Taskforce für einen kritischen KI-Ansatz
Diese Praktiken sind nicht auf die BU beschränkt, da Hochschulen und Universitäten im ganzen Land KI-Technologien und deren Auswirkungen evaluieren und Richtlinien sowie ethische Rahmenbedingungen für deren Nutzung entwickeln. Die Herausforderung besteht darin, dass künstliche Intelligenz noch nicht ausgereift ist und sich ständig weiterentwickelt. Neue Durchbrüche erscheinen so brillant, dass sie uns vorübergehend den Blick verstellen. All dies begann mit dem Start von ChatGPT, das mit seiner KI-Videogenerierungs-App Sora erneut für Aufsehen sorgt.
Angesichts der Fortschritte, die innerhalb nur eines Jahres erzielt wurden, ist es schwer vorherzusagen, was in fünf Jahren auf uns zukommen wird. Zurück zu den Bildungsperspektiven und den Bemühungen der BU: Die Arbeitsgruppe veröffentlichte nach Rücksprache mit Dozenten und Branchenexperten ihren Bericht zu diesem Thema. Der Bericht mit dem Titel „Bericht über generative KI in Bildung und Forschung“ beleuchtet einige wichtige Punkte, konzentriert sich aber hauptsächlich auf einen kritischen Umgang mit generativer KI. Dies wurde den Dozenten empfohlen – was dachten sie sich dabei über diedent? Nun, vielleicht betrifft es alle Beteiligten.
Es wird außerdem empfohlen, dent in ihren Lehrplänen über KI zu informieren und sie über ihre Fähigkeiten und Anwendungsmöglichkeiten aufzuklären. Die BU veröffentlichte auch die Ansichten einiger führender Professoren zur KI-Integration . Professor Yannis Paschalidis vom Fachbereich Ingenieurwesen sagte auf die Frage nach der „kritischen Auseinandersetzung“ mit KI in der Praxis:
„Man muss anerkennen, dass KI gekommen ist, um zu bleiben, und dass sie ein wirksames Werkzeug sein kann, das zur Beschleunigung der Forschung und zur Verbesserung der Lehre eingesetzt werden kann.“
Quelle: Boston University
Er fügte außerdem hinzu:
„In der Praxis bedeutet dies, dass man es mit Vorsicht einsetzen sollte. Da die Universität eine Richtlinie zur „kritischen Auseinandersetzung“ mit KI verabschiedet hat, würden die Fakultäten und Colleges dazu angehalten, ihre eigenen lokalen Richtlinien zu entwickeln, die auf die Bedürfnisse der von ihnen angebotenen Disziplinen zugeschnitten sind.“
Quelle: Boston University
Professor Paschalidis erklärt, dass die Richtlinien mit den universitätsweiten Richtlinien übereinstimmen müssen. Er betont jedoch, dass den Dozenten ein gewisser Spielraum für eigene Entscheidungen eingeräumt werden muss, die sie je nach ihren Lehrveranstaltungen umsetzen können.
KI-Erkennungs-Apps und ihre Unzuverlässigkeit
Der BU-Bericht unterstreicht die Bedeutung von KI-Überwachungsprogrammen, dadentdiese aufgrund der Verfügbarkeit verschiedener Apps und Programme ohnehin nutzen. Dennoch möchte die Universität die akademische Integrität wahren und fördern und mahnt zu Vorsicht im Umgang mit KI. Professor Pasachalidis hält die Apps zur Erkennung von KI-Nutzung nicht für unfehlbar. Er betont, dass diese Programme lediglich eine Schätzung liefern, ob KI zur Erstellung bestimmter Texte, Audio- oder Videodateien verwendet wurde, und nicht hundertprozentig korrekt sind. Daher müssen Lehrende bei der Beurteilung akademischen Fehlverhaltens wachsam sein und sich nicht ausschließlich auf diese Tools verlassen.
Ein weiterer Professor, Wesley J. Wildman vom Fachbereich Philosophie, merkt an, dass Dozenten unddentmöglicherweise dieselbe KI-Erkennungssoftware verwenden und dieselbe Bewertung erhalten wie bei der Plagiatsprüfung. Er erklärt, dass KI-Erkennungssysteme derzeit weder konsistent noch besonders zuverlässig seien. Ihre Genauigkeit und Zuverlässigkeit seien fraglich, da sie bis zu einem gewissen Grad durch Rechtschreib- undmaticmanipuliert werden könnten. Aus diesem Grund wird Dozenten geraten, bei der Verwendung dieser Tools Vorsicht walten zu lassen.
Professor Pasachalidis erläuterte die Bemühungen der BU, einen umfassenden Bericht über den Einsatz von KI zu erstellen. Die Arbeitsgruppe wurde Ende 2023 und im Frühjahrssemester 2024 gebildet. Der Vorstand kontaktierte zahlreiche Experten, Branchenvertreter, Berater und universitätsinterne Experten. Dabei wurden Fachleute aus allen Disziplinen einbezogen, da diese jeweils eigene Perspektiven zum Thema KI einbrachten. Ziel all dieser Bemühungen war es, der Universität einen einheitlichen Rahmen für die Technologie zu schaffen, Ressourcen für Schulungen bereitzustellen und neue Lehrmethoden im Umgang mit der aufkommenden Technologie zu entwickeln.
Zum selben Thema sagte Professor Wildman
„Wir haben Experten aus Disziplinen angehört, die noch nicht in die Arbeitsgruppe berufen wurden.“
Quelle: Boston University
Er ging davon aus, dass die wichtigsten Empfehlungen des Berichts umgehend umgesetzt würden, während die Umsetzung mancher Maßnahmen aufgrund ihrer Natur und des erforderlichen Ressourcenaufwands länger dauern könnte. Der Ansatz, künstliche Intelligenz kritisch zu behandeln, werde jedoch unverzüglich in die Praxis umgesetzt.
Den BU-Bericht finden Sie hier .

