Καθηγητής κόβει ολόκληρη τάξη μαθητών μετά από λάθος ισχυρισμό της τεχνητής νοημοσύνης του ChatGPT

23 Μαΐου, 2023

Η τεχνητή νοημοσύνη (AI) εξελίσσεται με ταχύτατους ρυθμούς και έχει βρει το δρόμο της σε διάφορες πτυχές της ζωής μας, συμπεριλαμβανομένης της εκπαίδευσης. Ενώ η AI έχει τη δυνατότητα να βελτιώσει τις μαθησιακές εμπειρίες και να εξορθολογήσει τις διαδικασίες, οι ηθικές επιπτώσεις της και η ορθή χρήση της παραμένουν κρίσιμα ερωτήματα.

Πρόσφατα, ένα περιστατικό στο Texas A&M University-Commerce έφερε αυτές τις ανησυχίες στο προσκήνιο, όταν ένας καθηγητής κατηγόρησε λανθασμένα μια ολόκληρη τάξη για λογοκλοπή με βάση τη χρήση ενός γλωσσικού μοντέλου τεχνητής νοημοσύνης που ονομάζεται ChatGPT. Το περιστατικό αυτό προκάλεσε συζητήσεις σχετικά με την υπεύθυνη χρήση της τεχνητής νοημοσύνης στην εκπαίδευση και την ανάγκη για σαφείς κατευθυντήριες γραμμές για την αποφυγή τέτοιων παρεξηγήσεων.


Ο καθηγητής (Dr. Jared Mumm) χρησιμοποίησε το ChatGPT για να ελέγξει αν οι φοιτητές του είχαν χρησιμοποιήσει AI για να δημιουργήσουν τις τελικές εργασίες τους, ωστόσο, δεν γνώριζε ότι το ChatGPT δεν λειτουργεί ως εργαλείο ανίχνευσης λογοκλοπής, και αφού έτρεξε τις εργασίες μέσω του ChatGPT, η AI ισχυρίστηκε λανθασμένα ότι όλες οι εργασίες είχαν παραχθεί από την ίδια!
Κατά συνέπεια, η τάξη αντιμετώπισε ισχυρισμούς για λογοκλοπή, με αποτέλεσμα την προσωρινή παρακράτηση των διπλωμάτων τους. Ο Dr. Mumm έδωσε σε κάθε δοκίμιο βαθμό “Χ”, δίνοντας στους μαθητές την επιλογή να υποβάλουν μια άλλη εργασία ή να διακινδυνεύσουν να αποτύχουν στο μάθημα και να μην αποφοιτήσουν. Κάποιοι φοιτητές προσπάθησαν να αποδείξουν τη γνησιότητα της εργασίας τους παρέχοντας timestamps από τα έγγραφα Google, αλλά ο καθηγητής απάντησε αρνητικά λέγοντας: “Δεν βαθμολογώ μαλακίες της AI”.

Παρόλο που ένας φοιτητής κατάφερε να καθαρίσει το όνομά του παρέχοντας αποδείξεις από τα Google Docs, το θέμα έφτασε στη διοίκηση του πανεπιστημίου. Το Πανεπιστήμιο Texas A&M επιβεβαίωσε ότι κανένας φοιτητής δεν απέτυχε στο μάθημα ή δεν εμποδίστηκε να αποφοιτήσει εξαιτίας του περιστατικού. Οι έρευνες βρίσκονται σε εξέλιξη και τα διπλώματα των φοιτητών παρακρατούνται εν αναμονή περαιτέρω ενεργειών.
Η κατάχρηση του ChatGPT σε αυτή την περίπτωση υπογραμμίζει την ανάγκη για σωστή κατανόηση και ευαισθητοποίηση σχετικά με τις δυνατότητες και τους περιορισμούς των εργαλείων τεχνητής νοημοσύνης σε εκπαιδευτικά περιβάλλοντα. Ενώ το ChatGPT μπορεί να παράγει κείμενο, συμπεριλαμβανομένων δοκιμίων συλλογικού επιπέδου, δεν έχει σχεδιαστεί για να ανιχνεύει λογοκλοπή που παράγεται από τεχνητή νοημοσύνη.

Εργαλεία για τον εντοπισμό λογοκλοπής
Τα προγράμματα τεχνητής νοημοσύνης που έχουν αναπτυχθεί ειδικά για την ανίχνευση λογοκλοπής περιλαμβάνουν τα Winston AI, Content at Scale, Writer AI, GPTZero και Giant Language Model Test Room (GLTR). Η OpenAI, η μητρική εταιρεία της ChatGPT, προσφέρει το δικό της εργαλείο ανίχνευσης λογοκλοπής – αλλά η ακρίβειά του θεωρείται περιορισμένη.

Το περιστατικό αυτό έχει προκαλέσει συζητήσεις γύρω από την υπεύθυνη χρήση της τεχνητής νοημοσύνης στην εκπαίδευση και ζητεί σαφέστερες κατευθυντήριες γραμμές σχετικά με τη χρήση εργαλείων τεχνητής νοημοσύνης για την αποφυγή παρόμοιων παρεξηγήσεων και άδικων κατηγοριών. Ενώ ορισμένα σχολεία στις Ηνωμένες Πολιτείες έχουν ήδη λάβει μέτρα για να αποκλείσουν τη χρήση του ChatGPT στις πανεπιστημιουπόλεις, η αντίδραση των ιδρυμάτων παγκοσμίως παραμένει ποικίλη. Είναι σημαντικό για τα εκπαιδευτικά ιδρύματα να εξετάσουν προσεκτικά τις επιπτώσεις της χρήσης της AI και να θεσπίσουν κατάλληλες πολιτικές για να διασφαλίσουν την ακαδημαϊκή ακεραιότητα, αξιοποιώντας παράλληλα τα οφέλη της τεχνολογίας AI.