Blog

EU Artificial Intelligence Act: una norma che fa scuola?

L’Unione Europea è stata la prima a normare l’Intelligenza Artificiale. Dopo aver subìto l’ondata dei Social Media e delle OTT (Over The Top), non ha voluto farsi trovare impreparata ed ha provveduto a definire delle regole che, in linea di principio, tendono a definire quali applicazioni dell’Intelligenza Artificiale sono ammesse e quali no.

L’EU Artificial Intelligence Act non è un provvedimento recente, così come non lo è l’Intelligenza Artificiale in generale. Infatti, la Commissione Europea discute l’argomento dal 2021. Come sappiamo una prima definizione di Intelligenza Artificiale è apparsa in ambito scientifico nel 1950 quando Alan Turing si chiedeva, dalle pagine della rivista Mind: “Can Machines think?“, le macchine possono pensare?

In linea generale l’UE lascia campo libero a molte applicazioni dell’Intelligenza Artificiale considerate “a rischio minimo\assente“. In questa categoria ricadono i videogiochi ed i sistemi antispam.

Nella categoria a “rischio limitato” dove vengono inseriti, tra gli altri, i chatbot. In questo caso sono richieste garanzie di trasparenza. Un utente deve essere chiaramente informato che sta interagendo con una macchina e non con un essere umano in modo da poter decidere se continuare o meno la conversazione.

Fino a questo livello non troviamo grandi ostacoli nello sviluppo ed applicazione dell’Intelligenza Artificiale. Situazione che, però, cambia radicalmente appena entriamo nelle applicazioni considerate ad “alto rischio“.

Infatti, in questa categoria troviamo le applicazioni “serie” dell’Intelligenza Artificiale laddove per “serio” intendo applicazioni utili e capaci di migliorare radicalmente la vita degli esseri umani favorendone il lavoro, l’istruzione ed il benessere psicofisico. La conseguenza di tutto ciò è lo sviluppo oppure evoluzione della specie umana.

In questa categoria troviamo, quindi, applicazioni nel campo dei trasporti, della formazione scolastica e professionale, in campo medico, nella selezione delle risorse umane, nel sistema di valutazione creditizia e nell’ampia sfera della giustizia e delle sicurezza e sorveglianza pubblica.

Nella categoria del “rischio inaccettabile” vi sono, invece, le applicazioni di social scoring e giochi che possono essere dannosi per l’essere umano. Per social scoring si intendono applicazioni che tendono ad attribuire un punteggio alle persone che, proprio in base a tale punteggio, si vedono posizionati in una graduatoria. Un po’ come un esame continuo che dura 24 ore al giorno. Sull’argomento è senz’altro illuminante guardare l’episodio “Caduta libera” della serie Netflix Black Mirror (stagione 3; puntata 1) che spiega nel dettaglio il funzionamento di questa tipologia di app ed eventuali conseguenze.

La mia personale perplessità nasce da un semplice fatto. Si ha paura che i sistemi basati sull’Intelligenza Artificiale possano sbagliare la valutazione ed identificare, ad esempio, una persona come colpevole di un reato pur non essendolo. A tal fine si richiede che i sistemi siano privi di errori di valutazione e che, quindi, vengano addestrati prima di essere messi in azione. Questo tipo di approccio non tiene in considerazione il fatto che i sistemi di Intelligenza Artificiale, proprio come gli esseri umani, apprendono svolgendo un determinato compito. Imparando dall’esperienza e talvolta anche dagli errori commessi. L’impressione è che si tenda a non perdonare all’Intelligenza Artificiale ciò che da sempre viene accettato e perdonato agli esseri umani: l’errore.

Quindi, meglio lasciare determinati compiti agli esseri umani che sbagliano da secoli piuttosto che affidare quei compiti ad un’Intelligenza Artificiale che, statisticamente, ha una percentuale di errore nettamente inferiore all’essere umano.

Un approccio più avveduto avrebbe suggerito una coesistenza di umani e macchine dove l’IA avrebbe svolto una sorta di “praticantato“, quindi, senza potere decisionale. Ciò al fine di poter confrontare le conclusioni degli esseri umani con quanto previsto dall’Intelligenza Artificiale. In questo modo gli algoritmi avrebbero potuto svolgere il lavoro sul campo senza interferire con la giustizia umana.

Un approccio come quello tracciato dall’UE lascia precludere, ancora una volta, allo sviluppo di tali tecnologie negli altri paesi del mondo quali Stati Uniti, Cina ed Arabia Saudita. Tali sistemi saranno, con buona probabilità, acquistati ed adottati anche in Europa quando saranno efficienti. Da un punto di vista questo tipo di approccio garantisce i diritti dei cittadini europei e dall’altra li espone a tecnologia straniera che, potenzialmente, potrà sottrarre i dati dei cittadini europei in futuro. Soprattutto frenerà lo sviluppo dell’Intelligenza Artificiale Europea mentre gli altri paesi continueranno nella loro corsa all’Intelligenza Artificiale.

A conclusione di questa breve riflessione voglio presentarvi una mia personale perplessità. Non è che la politica, che ha legiferato sull’Intelligenza Artificiale, ha paura di perdere il controllo sulla giustizia e sulla sicurezza? L’Intelligenza Artificiale non ha figli, cognati, amici o altri tipi di legami ed è democratica. La politica e le lobbies in generale rischierebbero di perdere buona parte del proprio potere. E non è detto che in determinate stanze, in qualche parte del mondo, non si parli proprio di questo.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *