In attesa della pubblicazione del nuovo Regolamento Europeo sull'intelligenza artificiale nella Gazzetta Ufficiale dell'UE, un'analisi preliminare del testo legislativo indica che anche il solo uso di chatbot come ChatGPT potrebbe essere classificato come tecnologia ad "alto rischio".

Infatti sebbene i chatbot siano generalmente considerati a "rischio minimo" o "rischio limitato", alcune situazioni particolari potrebbero elevarne il livello di rischio con conseguenti gravosi obblighi normativi per gli utilizzatori. A norma dell’art. 6 e Allegato III del Regolamento IA, appare fondato ritenere che l’uso di un chatbot con dati in materia sanitaria, finanziaria o relativi alla assunzione o gestione del personale, possa integrare un rischio alto. Pertanto, l’inserimento nel sistema di documenti o contratti contenenti i dati sopra indicati, suggerirebbe una verifica preliminare al fine di valutare il grado di rischio e pertanto l’adozione di “policy IA” nella gestione dei dati.

In tal caso le imprese, per evitare sanzioni e rispettare il nuovo regolamento dovranno, tra l’altro (cfr. artt. 26-27 Reg. IA):

  • monitorare le decisioni automatizzate e garantire una supervisione umana sul funzionamento del sistema di IA e, in caso informare i fornitori di eventuali malfunzionamenti;
  • garantire la formazione del personale per assicurare un uso sicuro e conforme alle norme della tecnologia;
  • adottare idonee misure tecniche e organizzative per utilizzare i sistemi conformemente alle istruzioni per l’uso;
  • informare i lavoratori sull’utilizzo di sistemi di IA ad alto rischio;
  • cooperare con le competenti autorità di vigilanza e controllo, ove necessario;
  • effettuare una valutazione dell’impatto sui diritti fondamentali.

Per informazioni scrivere a Questo indirizzo email è protetto dagli spambots. È necessario abilitare JavaScript per vederlo.