Gli economisti avvertono che l’intelligenza artificiale aumenterà la disuguaglianza e solleverà domande difficili sull’umanità

Gli economisti avvertono che l’intelligenza artificiale aumenterà la disuguaglianza e solleverà domande difficili sull’umanità
Yingying Lu, ricercatore associato presso il Center for Applied Macroeconomic Analysis, Crawford School of Public Policy e Economic Modeler presso CSIRO, è coautore di un articolo sull’intelligenza artificiale (AI) e sui suoi potenziali impatti sulla società e sull’economia. La sua analisi si basa su una revisione della letteratura economica sull’argomento, nonché su recenti esempi di innovazioni e controversie relative all’IA. Presenta le opportunità e i rischi che l’IA pone alla produttività, alla crescita, all’occupazione, alla disuguaglianza, all’etica e al ruolo degli esseri umani.

Inizia ricordando il contesto storico e attuale del cambiamento tecnologico e suggerisce che per quasi mezzo secolo i lavoratori di tutto il mondo hanno visto diminuire la loro quota di reddito totale nel loro paese, mentre la crescita della produttività ha rallentato. Questo periodo ha visto anche enormi sviluppi nella creazione e implementazione della tecnologia dell’informazione e dell’automazione.

Gli economisti avvertono che l’intelligenza artificiale aumenterà la disuguaglianza e solleverà domande difficili sull’umanità

La tecnologia dovrebbe aumentare la produttività, spiega Yinjing Lu, ma l’apparente fallimento della rivoluzione informatica nel fornire questi guadagni è un rompicapo che gli economisti chiamano il paradosso di Solow. Si chiede se l’intelligenza artificiale tirerà fuori la produttività globale dalla sua lunga crisi e, in tal caso, chi ne trarrà vantaggio.

Ricercatore associato B Centro per l’analisi macroeconomica applicataCrawford School of Public Policy Quindi cita il caso di ChatGTP, un chatbot AI sviluppato da OpenAI e lanciato nel novembre 2022, che ha abilitato l’ultima generazione di tecnologia AI su larga scala. Descrive le reazioni contraddittorie che questa innovazione provocò, tra entusiasmo e ansia.

Mentre l’Italia ha già vietato ChatGPT, dopo aver avviato un’indagine sulla conformità di OpenAI al Regolamento generale sulla protezione dei dati (GDPR), la Germania sta valutando la possibilità di vietare l’uso di ChatGPT, a causa di una presunta violazione delle norme sulla privacy.

READ  Italia: parziale allentamento della moderazione e cautela delle politiche di DW

Le autorità di regolamentazione tedesche hanno contattato le loro controparti italiane dopo il divieto in quel paese. Secondo quanto riferito, gli organismi di vigilanza sulla privacy dei dati in altri paesi dell’UE, come Francia e Irlanda, hanno contattato l’autorità di regolamentazione dei dati in Italia per discutere i loro risultati.

Yingying Lu, anche modellatore economico presso CSIRO (Commonwealth Scientific and Industrial Research Organization), ricorda che ChatGPT ha suscitato reazioni contrastanti sin dal suo lancio nel novembre 2022, tra entusiasmo e preoccupazione. Cita esempi dall’Italia che vietano ChatGPT per problemi di privacy, luminari della tecnologia che chiedono di fermare lo sviluppo di sistemi di IA e rinomati ricercatori che affermano che dobbiamo prepararci agli attacchi aerei sui data center collegati all’IA dannosa.

Yingying Lu sottolinea che il rapido dispiegamento dell’IA e i suoi potenziali impatti sulla società e sull’economia sono ora sotto i riflettori. Solleva le seguenti domande: cosa significherà l’IA per la produttività e la crescita economica? Inaugurerà un’era di welfare automatizzato per tutti o semplicemente intensificherà le disuguaglianze esistenti? Cosa significa questo per il ruolo degli esseri umani?

Dice che gli economisti hanno studiato queste domande per molti anni. Dice di aver esaminato i loro risultati con il suo collega Yixiao Zhou nel 2021 e di aver scoperto che siamo ancora molto lontani dalle risposte definitive. Le principali argomentazioni e ipotesi degli economisti sugli effetti dell’IA, fornite da Yingying Lu, sono le seguenti:

  • L’intelligenza artificiale può aumentare la produttività e la crescita economica, ma aumenta anche la disuguaglianza ed elimina milioni di posti di lavoro;
  • L’intelligenza artificiale può sollevare la produttività globale dal suo lungo crollo, ma c’è un dilemma economico chiamato Paradosso di Solow, che si riferisce all’apparente fallimento della rivoluzione informatica nel fornire guadagni di produttività;
  • L’intelligenza artificiale solleva difficili questioni etiche e sociali sul ruolo degli esseri umani, la responsabilità delle macchine, la protezione dei dati personali e la regolamentazione degli algoritmi.
READ  Lamia: “Operazione Coniglio” dei vigili del fuoco (foto) | uno sconosciuto

Per Yingying Lu, la più grande fonte di cautela è l’enorme incertezza che circonda il futuro sviluppo della tecnologia AI. Dice che ci sono diversi scenari possibili, che vanno da una stagnazione continua a un’esplosione esponenziale.

Gli effetti dell’IA appariranno in modo non uniforme per settori, compiti e competenze. Alcuni lavori saranno automatizzati, altri saranno resi più produttivi o creativi e verranno creati nuovi posti di lavoro. I lavoratori poco qualificati e meno istruiti saranno i più vulnerabili all’intelligenza artificiale, afferma Lu.

Il ricercatore conclude dicendo che la rapida diffusione dell’intelligenza artificiale e i suoi potenziali effetti sulla società e sull’economia sono ora sotto i riflettori, e dobbiamo stare attenti di fronte all’incertezza sullo sviluppo futuro della tecnologia.

Fonte: Yinjing Lu, ricercatore associato, Center for Applied Macroeconomic Analysis

E tu?

L’analisi di Yingying Lu è appropriata?

Quali pensi che gli standard e i principi etici dovrebbero guidare lo sviluppo e l’uso dell’IA?

Guarda anche:

La Germania intende seguire l’Italia nel vietare l’uso di ChatGPT, adducendo una presunta violazione delle regole sulla privacy da parte del chatbot di OpenAI.

Il garante della privacy italiano ha dichiarato venerdì di aver bandito il controverso Chatbot ChatGPT perché non rispettava i dati degli utenti.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *