La Commissione Europea ha recentemente pubblicato le linee guida per la gestione del “rischio inaccettabile” nell’ambito dell’intelligenza artificiale (IA), definendo le politiche normative future per l’uso di queste tecnologie. Il documento che si estende per 135 pagine con esempi, eccezioni, valutazioni, limitazioni e approfondimenti, intende chiarire quali sono i divieti e le limitazioni riguardanti i sistemi IA considerati pericolosi o dannosi. Il documento fornisce anche una serie di linee guida e indicazioni per le autorità competenti, i fornitori e gli sviluppatori di IA, al fine di garantire un’applicazione uniforme della normativa.

 

Quali sono i divieti principali e quali rischi corriamo?

I divieti dell’AI Act si focalizzano sulla protezione delle persone vulnerabili, imponendo dei limiti sulle pratiche che potrebbero manipolare o sfruttare i comportamenti del singolo individuo. In particolare, sono vietati i sistemi che utilizzano tecniche subliminali, manipolative e ingannevoli per alterare le scelte delle persone, con l’obiettivo di proteggere la loro autonomia e benessere.

  • Tecniche subliminali e manipolative

Le tecniche subliminali, che non sono necessariamente vietate ma devono rispettare precise condizioni, possono influenzare il comportamento dell’individuo senza che esso ne sia consapevole. Ad esempio, immagini o suoni impercettibili che alterano la percezione o emozioni. Le tecniche manipolative, invece, sfruttano vulnerabilità psicologiche per alterare le decisioni, mettendo a rischio l’autonomia della persona.

  • Tecniche ingannevoli e distorsione del comportamento

Le tecniche ingannevoli, pur non essendo completamente definite dalla legge, si riferiscono a pratiche che inducono a scelte errate, minando la capacità di prendere decisioni informate. Ad esempio, l’utilizzo di chatbot che si spacciano per persone reali. L’AI Act vieta l’uso di queste tecniche solo se causano una distorsione significativa della capacità di giudizio del singolo.

  • Sfruttamento delle vulnerabilità personali

Un altro divieto riguarda l’utilizzo dell’IA per sfruttare vulnerabilità di persone specifiche, come anziani o minori. Anche i sistemi che promuovono prodotti dannosi o sfruttano situazioni economiche delicate vengono considerati dannosi. L’obiettivo è prevenire l’indebitamento o la manipolazione di persone vulnerabili attraverso pubblicità mirate o altri strumenti IA.

 

La linea sottile tra persuasione e manipolazione

La Commissione Europea sottolinea anche l’importante distinzione tra persuasione lecita e manipolazione. Infatti, la persuasione, quando è trasparente e rispettosa dell’autonomia dell’individuo, non è vietata, mentre la manipolazione, che sfrutta tecniche subdole per forzare decisioni, è proibita. La legge mira a tutelare l’individuo dalla manipolazione psicologica tramite tecnologie.

 

Quando l’AI è lecita e non dannosa?

Non tutte le applicazioni dell’IA risultano dannose: alcuni sistemi, come quelli utilizzati per migliorare la sicurezza stradale o personalizzare i contenuti presenti in rete per fini pubblicitari, vengono considerati leciti. Anche la generazione di contenuti per migliorare la sicurezza online o educare gli utenti contro minacce informatiche rientra nelle pratiche consentite, purché non vengano sfruttate vulnerabilità con intenti dannosi o manipolativi. Altri esempi sono i sistemi IA che utilizzano i dati degli utenti per erogare servizi bancari come mutui e prestiti e i chatbot terapeutici utilizzati per indurre un miglioramento nello stile di vita degli utenti.

 

Con queste misure l’obbiettivo della commissione europea è quello di regolare il rapporto tra innovazione tecnologica e protezione dei diritti delle persone, senza però ostacolare l’evoluzione dell’intelligenza artificiale, ponendo dei limiti chiari all’utilizzo dell’intelligenza artificiale.