Il lato oscuro dell’Intelligenza Artificiale

Algoritmi e algoretica. A un anno dalla "Rome Call for AI ethics" di papa Francesco, i recenti sviluppi dell'algoritmo GPT-3 fanno discutere, soprattutto per il fatto che, se usati male, possono manipolare l'opinione pubblica. È tempo di pensare a un’etica per l’intelligenza artificiale.

«Ricorre oggi [il 28 febbraio scorso, n.d.r.] un anno dalla firma della #RomeCall per l’intelligenza artificiale e mi auguro che sempre più gli uomini di buona volontà cooperino per la promozione del bene comune, la protezione degli ultimi e lo sviluppo di un’algoretica condivisa». Così papa Francesco ha ricordato via Twitter l’evento promosso lo scorso anno dalla Pontificia Accademia per la Vita, riguardante la Rome Call for A.I. Ethics: «un documento nato per sostenere un approccio etico all’Intelligenza Artificiale e promuovere tra organizzazioni, governi e istituzioni un senso di responsabilità condivisa con l’obiettivo di garantire un futuro in cui l’innovazione digitale e il progresso tecnologico siano al servizio del genio e della creatività umana».

L’augurio di papa Francesco è ben condivisibile se pensiamo a cosa può significare, oggi, avere a disposizione una intelligenza artificiale (IA) in grado di superare brillantemente il test di Turing (che consiste in un insieme di criteri da soddisfare per determinare se una macchina è in grado di simulare un comportamento intelligente).

Con l’introduzione di Gpt-3 – algoritmo sviluppato dall’organizzazione non-profit “OpenAi” e ora di Microsoft – ci troviamo solo all’inizio di un’epoca in cui noi umani non possiamo essere in grado di stabilire se un determinato testo (un comunicato stampa, un articolo di giornale, un post virale sui social ecc.) sia stato scritto da una intelligenza umana o da una artificiale. Lo sviluppo di sistemi per la comprensione del linguaggio e per l’elaborazione testuale ha fatto passi da gigante negli ultimi anni e il potenziale di questa tecnologia è immenso. Se ne parla da tempo, ma la questione è tornata in luce dopo che il Guardian ha pubblicato pochi mesi fa un intero articolo creato con questa intelligenza artificiale.

Lo sviluppo di agenti automatici in grado di interpretare correttamente il linguaggio e colloquiare con gli umani, auto-apprendendo e auto-aggiornando le proprie conoscenze, è una tecnologia in grado di rivoluzionare le interfacce uomo-macchina e anche vari tipi di mercati. Siamo ancora lontani dalle figure di robot senzienti a cui ci ha abituato la filmografia hollywoodiana, ma il fatto di avere davanti a sé, già in atto, uno scenario di contenuti creati artificialmente e indistinguibili dall’opera umana apre a riflessioni ampie e importanti, perché oggi ogni nuova tecnologia digitale – e ormai l’abbiamo capito bene – ha un suo lato oscuro.

Non stupisce che la questione entri in gioco anche nella partita fra le superpotenze in campo economico e militare. Il recente report della NSCAI (National Security Commission on Artificial Intelligence – commissione composta da 15 esperti in varie discipline istituita negli USA per vincere strategicamente la gara della supremazia tecnologica) spiega chiaramente come l’IA possa impattare sull’economia, il welfare e la sicurezza nazionale, ma altrettanto chiaramente mette l’accento sui termini difesa e competizione, intendendo implicitamente il timore di un “attacco” e la ricerca di una supremazia, soprattutto contro avversari del calibro della Cina, destinata a diventare leader anche in questo campo.

Gianluca Maruzzella, ceo e co-fondatore di “Indigo.Ai” (società italiana attiva nel campo delle tecnologie in grado di elaborare interfacce basate sul linguaggio naturale) sottolinea che «Il lato oscuro di un potenziale così ampio è nell’utilizzo che se ne può fare. La capacità di Gpt-3 di imparare così rapidamente e facilmente lo rende un’arma letale per chi volesse farne uno strumento di propaganda. […] Serve un compromesso tra la libertà d’espressione e la difesa della libertà altrui, ma ancora di più un modello per costruire una tecnologia che sia a sostegno dell’uomo e non una minaccia costante. Per questo dobbiamo investire nella costruzione di norme sociali e politiche pubbliche, ma anche iniziative educative, che aiutino a prevenire la disinformazione e la propaganda realizzata dalle macchine prima che sia troppo tardi».

Etica, appunto. La “Rome Call” ci ricorda che l’etica deve essere messa alla base dello sviluppo di tutti gli algoritmi, cioè tutti quei processi di elaborazione dei dati che girano dentro ogni sistema digitale e dietro ognuno dei nostri schermi. Gli algoritmi decidono per noi, dal modo di ordinare le informazioni che cerchiamo su Google, alla composizione delle bacheche dei nostri social network… e tanto altro.

È vero che possiamo sempre esercitare la nostra libertà di scelta e configurare tutto in base ai nostri interessi, ma è altrettanto vero che gli algoritmi hanno il potere di influenzare le nostre decisioni, le nostre opinioni, le nostre scelte. L’etica degli algoritmi ci riguarda da vicino, perché ognuno di essi è progettato e programmato non da qualcosa, ma da qualcuno, e troppo spesso noi stessi dimentichiamo di agire in modo virtuoso. Da qui l’importanza dell’algor-etica (neologismo azzeccatissimo, introdotto da Paolo Benanti nel 2018 e ripreso da papa Francesco durante la Rome Call for AI Ethics).

I sistemi in grado di auto-apprendere un po’ ci assomigliano: per poter essere educati bene hanno bisogno di buoni maestri. Per l’IA quei maestri siamo noi, perché siamo gli unici a poter innescare un meccanismo virtuoso in grado di rendere la macchina uno strumento che, a sua volta, possa aiutarci a prendere decisioni etiche.

Siamo incamminati verso un futuro in cui le macchine non saranno più percepite solo come freddi calcolatori, ma come compagni di viaggio: occorre quindi, da subito, uno sforzo educativo per indirizzarne eticamente lo sviluppo, sapendo che un arricchimento reciproco fra intelligenza naturale e intelligenza artificiale è possibile se la prima guida la seconda in questo cammino.

È ampiamente condiviso il fatto che una IA non potrà mai essere considerata come una persona umana, ma allo stesso modo si riconosce che un equilibrio etico fra i due può portare ad effetti benefici per l’intera società. Proprio per questo il manifesto della Rome Call for AI Ethics sottolinea che «i sistemi di IA devono essere concepiti, progettati e realizzati per servire e proteggere gli esseri umani e l’ambiente in cui vivono».

A un anno dalla sua promulgazione, l’adesione intorno al progetto ècresciuta coinvolgendo anche il dialogo fra le religioni e questo mette in luce come la via per la fratellanza universale – e in futuro ce ne renderemo conto sempre più – passa anche dallo sviluppo di una intelligenza artificiale che sappia mettere eticamente al centro la persona umana.

 

 

Edicola Digitale Città Nuova - Reader Scarica l'app
Simple Share Buttons