Addio ai compiti con intelligenza artificiale, l’Università di Sydney è riuscita ad individuare i contenuti prodotti in modo fraudolento da molti studenti. Ben 330 compiti sono stati completati utilizzando l’intelligenza artificiale nel 2023 e l’Università del Nuovo Galles del Sud ha recentemente affermato di aver scoperto una ondata di imbroglioni emergenti.
Secondo Visual Capitalist, il motore ChatGPT di OpenAI, che ha contribuito ad alimentare il boom dell’intelligenza artificiale, è emerso come lo strumento preferito dagli studenti pigri con una quota del 60,2% sul totale delle visite ai siti web del settore.
Lo strumento prende pezzi di testo già scritti da Internet e poi li combina, riformula e parafrasa per rispondere alle domande poste, con diversi livelli di accuratezza e impressionabilità. I sistemi di valutazione hanno faticato a tenere il passo con l’uso dell’intelligenza artificiale in classe, ma i recenti sviluppi combinati con un giro di vite sui voti lassisti, stanno rendendo la vita più dura ai furbetti.
Sebbene la polizia non abbia rivelato quanti sono gli studenti che hanno fatto i compiti con intelligenza artificiale, il rapporto sulla cattiva condotta accademica ha registrato un aumento significativo dei reati nel 2023. Secondo il Sydney Morning Herald, tra gli studenti c’è la convinzione che non è possibile scoprire l’utilizzo dell’intelligenza artificiale, ma l’esperto della Deakin University, il professor Phillip Dawson, ha rivelato che letture accurate del lavoro alterato hanno dimostrato il contrario.
“Efficace solo se lo studente è un idiota”
Il professor Dawson ha affermato che Turnitin, uno strumento software di marcatura basato sull’intelligenza artificiale, è in realtà efficace nel trovare lavori plagiati solo se lo studente è “un idiota. La maggior parte delle ricerche che mostrano buoni tassi di rilevamento si basano sul presupposto che qualcuno si limiti a copiare e incollare e non chieda a ChatGPT di riformulare o parafrasare”, ha affermato.
Una portavoce dell’Università di Sydney ha detto al quotidiano che in realtà è molto più facile individuare le frodi solo con un’ispezione più attenta degli indicatori di assegnazione umani. “Se [un compito] contiene un uso diverso del linguaggio, è irrilevante per la domanda, contiene riferimenti falsi o non risponde alla domanda impostata, indaghiamo e utilizziamo lo strumento Turnitin AI come parte di questo processo insieme a una serie di indicatori di cattiva condotta”, ha detto.
Il vicepresidente regionale di Turnitin, James Thorley, ha convenuto che lo strumento doveva essere una parte del processo di verifica, non il punto finale del rilevamento dell’intelligenza artificiale. L’organismo di vigilanza del settore universitario, la Tertiary Education Quality and Standards Agency (TEQSA), ha chiesto a giugno che tutti gli istituti di istruzione superiore australiani dovessero creare piani d’azione su come eliminare i contenuti prodotti con l’intelligenza artificiale.
Seguici anche su Facebook. Clicca qui
Aggiungi Commento