Intelligenza artificiale: obiettivo sulle regole specifiche

Regolare l’intelligenza artificiale significa tutelare noi stessi su vari aspetti
Regolare l’intelligenza artificiale significa tutelare noi stessi su vari aspetti
Regolare l’intelligenza artificiale significa tutelare noi stessi su vari aspetti
Regolare l’intelligenza artificiale significa tutelare noi stessi su vari aspetti

La rapida diffusione di soluzioni, anche totalmente gratuite, che consentano a persone e imprese di utilizzare quotidianamente l’intelligenza artificiale sta generando timori, che si auspica saranno sedati da una normazione specifica. Recentemente, Thierry Breton, commissario Europeo per il mercato interno, ha caldeggiato la più rapida adozione di un quadro normativo europeo, chiamato ad affrontare e risolvere le più grandi preoccupazioni legate all’ampio utilizzo di questa tecnologia. La proposta di regolamento presentata dalla Commissione europea nel 2021 è oggi ancora in fase di negoziato. Quali sono i rischi che le norme dovranno arginare e risolvere? Pensare di poter stilare un catalogo da depennare con una certa serie di articoli è fortemente riduttivo. Occorrono principi chiari e lungimiranti, che sappiano adattarsi alle nuove competenze che questa tecnologia, come le altre emergenti, acquisisce di giorno in giorno. Tra questi vi è il principio di trasparenza; per chi possiede una reale e sufficiente educazione digitale, può apparire superfluo specificare che il chatbot è un assistente virtuale e non un essere umano, circostanza non così limpida per chi è sfornito di queste competenze, considerando le capacità di linguaggio verbale ed espressivo di cui un avatar può disporre. Vi sono anche il principio di non discriminazione e il nocciolo duro, implicito o espresso, in ogni quadro normativo, ossia i diritti umani. Regolare l’intelligenza artificiale significa tutelare noi stessi da possibili illegittime intrusioni e limitazioni ai nostri diritti e libertà fondamentali. Ci sono molti altri profili, che possono essere racchiusi entro il confine del principio della non lesività (che qui intendo come violazione di altre norme). Per esempio, l’intelligenza artificiale espone al rischio di violazione del diritto d’autore, perchè il modello è addestrato con enormi quantità di dati, acquisiti da testi e immagini online. A questo si aggiunga il tema delle responsabilità, valido sia per l’intelligenza artificiale, che in generale per tutte le tecnologie emergenti. Essere responsabili significa aver governato i rischi derivanti dall’uso della tecnologia in modo virtuoso, i cui effetti si riverberano direttamente nel nostro tessuto sociale. è una responsabilità multi fattore: digitale, sociale, ambientale ed economica. Rinunciare alle opportunità di questo strumento non è la soluzione. L’equilibrio tra esigenze dell’uomo e abilità della soluzione tecnologica è da ricercare, ma è una sfida a cui non ci si potrà sottrarre. Anche non fare è fonte di responsabilità.

Suggerimenti