Scenario

L’Unione Europea e il confine tra algoritmo e intelligenza artificiale

L’UE ha recentemente proposto l’AI Act: una cornice regolamentativa che definisce dove è lecito e dove no fare uso di questo nuovo e potente strumento che è l’intelligenza artificiale. Plauso all’Unione Europea per l’essere pioniere (ne avevamo già scritto) e per l’impegno nel definire con precisione i contorni del problema. Molti hanno parlato e discusso lungamente dell’AI Act e ora tutti siamo in attesa di vedere cosa gli Stati membri metteranno a terra.

Tuttavia, chi scrive, vorrebbe proporre uno spunto di riflessione aggiuntivo. Non una critica, ma un suggerimento per estendere l’analisi con una prospettiva leggermente diversa.

Un po’ di storia

Nell’ottobre del 1993, trent’anni fa, John Horgan pubblicò su Scientific American (Vol. 269, No. 4) un articolo di 10 pagine intitolato “The Death of Proof”. L’articolo fu poi ripreso in lingua italiana sul numero 304 di Le Scienze con il titolo “Morte della dimostrazione“. La dissertazione era lunga, ma il concetto era piuttosto semplice: le teorie matematiche erano arrivate a una tale complessità da rendere molto difficile, se non impossibile, una dimostrazione formale per passi.

Poco dopo, se non contemporaneamente, anche l’informatica (figlia un po’ bistrattata della matematica) iniziò ad affrontare problemi sempre più complessi che, oltre a essere difficilmente formulabili, diventavano sempre più difficili da tradurre in algoritmi e poi, a loro volta, in codice. Per chi non fosse tanto avvezzo all’argomento, un algoritmo è una sequenza di passi ben definiti e inequivocabili, per risolvere un problema.

Le prime applicazioni dell’intelligenza artificiale

Nasce quindi un nuovo approccio scientifico. Da una parte alcuni matematici dimostravano le loro teorie un po’ per forza bruta, provando numericamente tutti i casi significativi. Dall’altre, gli informatici hanno iniziato a descrivere procedimenti troppo complessi con strutture dati che, un passo dopo l’altro, evolvono verso una soluzione non sempre perfetta, ma molto spesso accettabile.

Stava iniziando a emergere il fenomeno dell’intelligenza artificiale. Fenomeno che, siamo onesti, non era per nulla nuovo. Alan Turing aveva affrontato l’argomento già nel 1950 nel suo celebre lavoro “Computing Machinery and Intelligence“. Quello che mancava all’epoca, però, era la potenza di calcolo sufficiente per poter gestire le enormi strutture dati necessarie a questo nuovo approccio alla soluzione dei problemi.

Oggi, questa capacità di calcolo quasi sconfinata esiste e si chiama Cloud Computing. Ed è per questo che adesso, più di 70 anni dopo Alan Turing, parliamo così tanto di intelligenza artificiale; e ne deve parlare anche la UE. Perché è diventata una tecnologia alla portata di tutti.

intelligenza artificiale complexity

L’AI Act

L’AI Act della UE, per chi non lo avesse ancora letto, classifica una serie di casi d’uso in base al livello di rischio per la privacy del cittadino o di una organizzazione e pone dei vincoli all’uso dell’intelligenza artificiale in quel contesto.

Quindi, molto semplicemente, ci sono dei contesti dove, per salvaguardare informazioni riservate di persone e istituzioni, non è possibile fare uso di tecniche che ricadono sotto il dominio dell’intelligenza artificiale.

Ora, però, proviamo a guardare queste limitazioni tenendo conto della succinta storia che abbiamo raccontato prima.

Se dovessimo riuscire a semplificare il problema di uno dei casi d’uso al punto di poterlo risolvere con un algoritmo inteso in senso classico anziché fare uso di tecniche di intelligenza artificiale, allora non ci sarebbe problema?

Se dovessimo trovare un paradigma di computazione diverso (qualcuno sta pensando al Quantum Computing per caso?) con cui ottenere lo stesso risultato, sarebbe tutto a posto?

Un esempio: il social scoring

L’UE ha definito, giustamente, inaccettabile l’uso dell’intelligenza artificiale per la valutazione avanzata degli individui.

In termini teorici, il social scoring equivale a classificare l’individuo in base al suo comportamento. Visto il quantitativo di parametri che governano un essere umano e il numero di classificazioni possibili, il problema è inaffrontabile con metodi classici. Qualunque algoritmo, anche implementato sul sistema di calcolo più potente, impiegherebbe un tempo inaccettabile per fornire una risposta. Sicuramente più di quanto ci metterebbe l’individuo a cambiare comportamento e, a volte, anche più della sua aspettativa di vita. L’intelligenza artificiale, invece, utilizza l’esperienza acquisita nelle classificazioni precedenti ed elimina subito i casi inutili per dirigersi velocemente verso una classificazione molto probabile.

Tuttavia, questo discorso è valido solo a patto che l’algoritmo classico continui a impiegare un tempo inaccettabile per risolvere il problema. Un tempo che cresce esponenzialmente con i parametri del problema stesso.

Senza addentrarci in tecnicismi, basti dire che l’informatica moderna non è ancora in grado di dimostrare che non esistono problemi a tempo esponenziale che non possono essere semplificati. Al momento non ne siamo capaci, ma nessuno può dire con certezza che le cose non cambieranno in futuro. Gli studiosi amano definire questo problema irrisolto come “P = NP”.

Quindi, se dovessimo trovare un algoritmo per risolvere il problema del social scoring in tempo lineare, i nostri dati sarebbero in pericolo? Ovviamente no, perché la cosa non avverrebbe in un solo giorno. Ma sicuramente avremmo bisogno di una nuova normativa per evitare di essere classificati contro la nostra volontà.

Un orizzonte ancora da definire

La riflessione che abbiamo voluto proporre con questo articolo è che l’AI Act dell’Unione Europea risolve sicuramente un problema, ma lo fa guardando unicamente all’intelligenza artificiale. E questo va bene, ma non è completo. Perché assume che l’intelligenza artificiale sia l’unico strumento tecnico in grado di mettere in serio pericolo i nostri dati personali. Assunzione oggi corretta, ma che potrebbe non reggere i test del tempo e dell’evoluzione tecnologica.

Dal punto di vista normativo, sarebbe come vietare un crimine solo se commesso con un preciso strumento. In realtà, se ci pensiamo, la legge vieta sempre il crimine indipendentemente da come viene commesso. Se poi, però, tutti gli indiziati hanno in mano lo stesso strumento perché oggi c’è solo quello in commercio, allora è un discorso diverso.

Da non perdere questa settimana su Techbusiness

🔝LinkedIn pubblica il report Top Companies Italia 2024: al primo posto Intesa Sanpaolo
 
🍪Il futuro della privacy online: Google dice addio ai cookie di terze parti
 
🪪Parliamo di SASE: intervista a Aldo Di Mattia di Fortinet
 
💡AMD e i data center energeticamente sostenibili. Intervista ad Alexander Troshin
 
✒️ La nostra imperdibile newsletter Caffellattech! Iscriviti qui 
 
🎧 Ma lo sai che anche Fjona ha la sua newsletter?! Iscriviti a SuggeriPODCAST!
 
📺 Trovi Fjona anche su RAI Play con Touch - Impronta digitale!
 
💌 Risolviamo i tuoi problemi di cuore con B1NARY
 
🎧 Ascolta il nostro imperdibile podcast Le vie del Tech
 
💸E trovi un po' di offerte interessanti su Telegram!

Dario Maggiorini

Si occupa di tecnologia e di tutto quello che gira attorno al mondo dell'ICT da quando sa usare una tastiera. Ha un passato come sistemista e system integrator, si è dedicato per anni a fare ricerca nel mondo delle telecomunicazioni e oggi si interessa per lo più di scalabilità e sistemi distribuiti; soprattutto in ambito multimediale e per sistemi interattivi. Il pallino, però, è sempre lo stesso: fare e usare cose che siano di reale utilità per chi lavora nel settore.

Ti potrebbero interessare anche:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back to top button