Da quando, sul finire del 2022, OpenAI ha reso disponibile al pubblico il suo ChatGPT, è tornato in auge il dibattito sull’impatto che l’Intelligenza Artificiale (da qui in avanti IA) potrà avere nei vari aspetti della società: lavoro, istruzione, sicurezza, etica e anche democrazia.
Una tecnologia “critica”
Il rischio di un’IA che diventi più intelligente dell’essere umano è, al momento, molto basso “dal momento che queste tecnologie possono essere solo il risultato della rielaborazione (per quanto complessa e abnorme) di quello che già siamo e conosciamo”. Sebbene i testi di ChatGPT ci appaiano di senso compiuto e argomentati nei vari ragionamenti, di fatto il software non ha la minima idea di cosa stia scrivendo; le parole sono messe in fila solo per mero calcolo di correlazione statistica. Le IA generative sarebbero quindi in grado di sostenere il tutto ed il rispettivo contrario, in base agli input che vengono forniti dagli individui e dai dati che esse raccolgono.
La principale criticità che l’IA porta con sé è certamente quella della disinformazione e dei falsi che essa può generare a qualsiasi livello: a partire dai semplici esami scolastici o universitari, sino ad arrivare all’informazione di massa. L’esperienza di Brexit e Trump ci hanno mostrato che nell’epoca dei social media le fake news non solo hanno il potere di influenzare il processo democratico, ma se opportunamente costruite, potrebbero perfino metterlo a rischio.
Il secondo punto critico riguarda gli impatti che l’IA avrà sul mondo del lavoro. Mentre l’informatizzazione è stata storicamente confinata nei domini delle attività di routine (eseguite secondo regole esplicite che possono essere “rispecchiate” in un codice di programma), oggi i progressi tecnologici mostrano che l’automazione rischia di minacciare non solo i lavori più semplici, ma anche i lavori caratterizzati da attività non routinarie, se non addirittura creative.
In aggiunta, l’IA potrebbe anche essere utilizzata determinare l’accesso a servizi assistenziali, al credito, alle assicurazioni o al lavoro stesso; in breve, avrebbe implicazioni reali per la giustizia sociale.
Infine, si pone anche il tema della futura evoluzione dell’IA. Mentre oggi stiamo principalmente sperimentando software basati su large language models (LLM), gli sviluppatori si stanno concentrando sulla realizzazione della prima Artificial General Intelligence (AGI), un computer super intelligente che impara e si sviluppa in maniera autonoma, che comprende l’ambiente circostante senza bisogno di supervisione e che è in grado di modificarlo.
Quanto scritto sopra non fa quindi che confermare un assioma che accompagna l’evoluzione tecnologica dell’umanità: il vero rischio non è tanto nel tipo di tecnologia che viene sviluppata, ma nel modo in cui essa viene impiegata e indirizzata. Il nucleare, per esempio, ci ha portato le tragedie di Hiroshima e Nagasaki e la paura dell’Armageddon nucleare; tuttavia, ci ha anche permesso di produrre una delle fonti energetiche più pulite di cui disponiamo. Lo stesso principio è quindi applicabile all’IA.
Il necessario governo della trasformazione
Una rivoluzione tecnologica di questa portata richiede una riflessione critica sui pericoli e sulle potenzialità che prospetta, rifuggendo atteggiamenti luddisti (come la richiesta di moratoria di sei mesi avanzata da alcuni imprenditori tecnologici, o di totale cancellazione dei programmi di sviluppo) così come di totale abbandono del tema nelle mani delle aziende private attualmente impegnate negli sviluppi.
Nel primo caso, si tratta di idee difficilmente applicabili nel pratico e che bloccherebbero anche gli sviluppi virtuosi dell’IA (ad esempio nella ricerca medica). Nel secondo, lasciare che siano gli spiriti del capitalismo attraverso il mercato ad autoregolarsi si sta già dimostrando un’idea fallace. Di fatto, l’evoluzione dell’IA non è solo un argomento di mera allocazione efficiente delle risorse, ma anche di prospettive etiche e sociali. Sebbene le aziende sostengano di essere impegnate anche nello sviluppo etico e sicuro dell’IA, non c’è alcuna garanzia che questo resti un obbiettivo primario dinanzi alla corsa per accaparrarsi quanti più profitti nel nascente mercato.
Si pone dunque il tema della concentrazione di questa tecnologia nelle mani di poche imprese private, con l’implicazione che alternative pubbliche alla tecnologia IA aziendale, come modelli e set di dati, diventino sempre più scarsi. Il rischio è che le future applicazioni dell’IA siano principalmente guidate da obiettivi commerciali e strategici di queste aziende, piuttosto che dall’interesse pubblico più ampio.
Ecco che quindi si rende auspicabile la definizione di una regolamentazione che sia in grado di tutelare gli individui dai bias che possono affliggere alcuni algoritmi, la loro privacy e la proprietà intellettuale. Si tratta di elementi che compongono la sfera delle libertà dell’individuo: quella della libera espressione della propria personalità, libera da vincoli o condizionamenti esterni; il diritto ad una sfera privata che non sia monitorata da nessuno; ed infine la proprietà privata, che si esterna anche con il riconoscimento dei proventi dal proprio lavoro creativo.
Un primo segnale positivo sono stati rilievi mossi dal garante della privacy nei confronti di ChatGPT. Lungi dall’essere un’azione oscurantista, il provvedimento può essere letto come l’affermazione di un principio: i dati e la privacy degli individui non sono utilizzabili a scatola chiusa e senza il consenso.
Occorre però fare altro per tutelare la sfera individuale. Il Parlamento Europeo sta finalizzando una proposta che mira a definire gli ambiti in cui sarà vietato l’utilizzo dell’IA (es: riconoscimento biometrico, social scoring) e a creare maggiore trasparenza riguardo al materiale utilizzato per il training dell’IA (al fine di riconoscere un opportuno compenso ai detentori di diritti d’autore), o a quando un’opera è realizzata tramite l’impiego di IA.
Data la peculiarità di questa tecnologia, non si potrebbe escludere l’introduzione di un iter approvativo di pre-commercializzazione simile a quello dei farmaci: costituzione di un organo regolatore transnazionale, trasparenza sull’algoritmo sviluppato, test severi e pre-approvazione prima del rilascio. Per forme di IA più avanzate (come l’AGI), un’idea ambiziosa sarebbe la costituzione di un organo simile al CERN che si occupi di investigare in merito alla sicurezza e all’etica degli sviluppi effettuati.
I dati raccolti da questi organi pubblici verrebbero quindi messi a disposizione del pubblico, in modo da ridurre la concentrazione in mano alle principali aziende del tech. Nuove norme che agevolino la competizione dovranno essere definite, senza escludere – ad esempio – la necessità di tenere separate la componente hardware (es. i server del cloud), dalla componente IA, da chi raccoglie i dati, e dalle piattaforme su cui l’IA viene implementata (es. motori di ricerca, programmi per la produttività).
Non è tempo di laissez-faire
Di fronte a dinamiche che riguardano l’innovazione e l’economia la risposta più semplice che si potrebbe dare in ambito liberale è che sia il mercato ad autoregolarsi e a definire la traiettoria dell’innovazione stessa. Tuttavia, le implicazioni dell’IA vanno a toccare aspetti che fuoriescono da quelle del mero commercio e affondano su questioni etiche e sociali. In questi ambiti, non c’è garanzia che l’interesse privato coincida con quello sociale. Quelle poste dall’IA sono questioni di ampio respiro che mettono a rischio aspetti della libertà degli individui. Lasciando che sia il mercato – con gli interessi privati – a determinare le nostre libertà, si corre il rischio di creare nuovi mostri.