L'intelligenza artificiale sta rapidamente ridefinendo ogni aspetto della nostra società, e le stime più autorevoli prevedono che l'80% dei lavori nel prossimo futuro subiranno cambiamenti più o meno importanti per via dell'AI. Ultimamente si usa dire "
l'America innova, la Cina copia, l'Europa regola", e vista questa crescente pervasività e la capacità, per ora solo potenziale, di generare cambiamenti dirompenti nel nostro stile di vita, è emersa la necessità di
bilanciare il potenziale illimitato dell'AI con
garanzie etiche e legali solide. L'AI Act è la prima legge al mondo sull'intelligenza artificiale, ed attualmente è anche allo stesso tempo la più completa e la più complessa. Con queste premesse si è svolto l'incontro "
Ai Act: si o no?" organizzato da IAB Italia in collaborazione con la startup Fintech Altermaind e lo studio legale PedersoliGattai.
L'AI Act è quindi un problema? Abbiamo un
eccesso di regolamentazione che può frenare la ricerca di nuovi modelli a livello europeo? Secondo l'avvocato
Licia Garotti, partner dello studio PedersoliGattai, l'attuale regolamentazione è tendenzialmente positiva: "l'AI Act può essere uno strumento per andare a valorizzare quelle che sono le implementazioni della tecnologia a
tutela dei diritti fondamentali delle persone. Lo abbiamo visto sia sotto un profilo di terzo settore, con Claudia Segre, presidente di Global Thinking Foundation, che ha proprio illustrato la necessità di andare ad educare in maniera consapevole sul tema. Allo stesso modo, nell'ambito della tecnologia finanziaria, quindi del Fintech, l'implementazione di sistemi di intelligenza artificiale richiede comunque in maniera positiva una normativa che possa andare a far spiccare quelli che sono gli
esempi virtuosi".
Se l'aspetto legale sembra quindi positivo, anche secondo gli operatori del settore tecnologico la
regolamentazione è sicuramente
indispensabile, ma anche nel caso dell'AI Act ci sono alcuni aspetti a cui prestare particolare attenzione, come sostiene Filipe Teixeira, CEO della startup Fintech Altermaind: "
Non è tanto l'AI Act sì o no, ma come. Credo che siamo arrivati tutti alla conclusione che l'intelligenza artificiale sia una tecnologia dirompente, che progredisce con una velocità incredibile. Il volume di innovazione è talmente ampio per la nostra società, in continuo cambiamento, che mettere nelle
mani dei cittadini o delle aziende questa tecnologia senza normarla minimamente
non sarebbe sicuramente una scelta corretta. La vera domanda è:
normarla come?".
Il mondo legale e il mondo tech sono quindi d'accordo sulla necessità della normativa, ma quali sono i punti su cui prestare più attenzione? Secondo Teixeira il più importante è relativo alla
formazione, sia tecnica che culturale: "Quello che è fondamentale per le aziende è capire cosa cambia con l'AI generativa, non solo da un punto di vista tecnologico, non solo da un punto di vista normativo, ma anche relativamente l modello operativo ed alla formazione delle risorse umane. Bisogna partire dai concetti più semplici, dalle basi del
prompt engineering, per capire come si parla con una macchina; grazie all'AI
il rapporto con i computer non è più deterministico (ad un input corrisponde un output, come nella programmazione) ma relazionale, è come avere un nuovo collega, che è un collega basato sull'AI. Facendo questo passo, e dopo mettendone in sicurezza l'utilizzo, in regola con quello che è richiesto dall'Unione Europea, dall'AI Act, da tutte le normative già in vigore, potremo avere un'innovazione realmente scalabile in sicurezza all'interno delle aziende".
(Foto: Rappresentazione artistica dell'approccio relazionale all'informatica)