L’ accordo tra il Consiglio UE e il Parlamento Europeo sul regolamento sull’Intelligenza Artificiale (IA) definisce rischioso l’uso di questa tecnologia nelle scuole, soprattutto nei sistemi di proctoring (monitoraggio durante gli esami) e nella formazione.
Anche il mondo dell’Istruzione e della formazione deve fare i conti con l’Intelligenza Artificiale per poterne sfruttare le potenzialità nel rispetto dei diritti delle persone.
Tra questi fa discutere il tema del “proctoring”, il monitoraggio degli studenti durante gli esami per garantire l’assenza di imbrogli.
Il potenziale impatto di questi nuovi sistemi, utilizzati per valutare risultati di apprendimento e vigilare sugli studenti durante gli esami, è stato etichettato come “alto rischio” nel testo del regolamento. Ciò comporta una sorveglianza attenta, valutazioni continue e, in alcuni casi, l’obbligo di registrazione in una banca dati dell’UE.
L’elenco di sistemi ad alto rischio comprende quelli utilizzati per ammissioni, valutazioni e monitoraggio comportamentale degli studenti. Pur garantendo la supervisione umana, tali sistemi sollevano interrogativi sull’automazione delle decisioni, richiedendo precauzioni supplementari.
Un rischio che non lascia indifferente nemmeno il mondo del lavoro: sistemi di intelligenza artificiale per l’assunzione e la valutazione delle prestazioni, sono soggetti a una rigorosa regolamentazione. Il loro utilizzo in decisioni cruciali, come avanzamenti di carriera e gestione contrattuale, è considerato ad alto rischio per i dipendenti.
In conclusione, il regolamento sull’IA dell’UE presenta significative sfide e obblighi nel settore dell’istruzione e della gestione dei rapporti di lavoro. Comprendere e adottare misure conformi è essenziale per garantire un utilizzo responsabile di queste tecnologie, bilanciando l’innovazione con la protezione degli individui.