Quali sono i principali problemi etici nello sviluppo dell’intelligenza artificiale?

dic 6, 2021 0 comments


Di Francesca Rossi

L’IA è una scienza ed una tecnologia che viene applicata in più o meno ogni ambito della vita di tutti i giorni. La utilizziamo quando strisciamo una carta di credito, quando cerchiamo qualcosa su internet, quando scattiamo una foto con le nostre fotocamere, e quando interagiamo con molte app e piattaforme social. Compagnie di ogni dimensione e modello aziendale, da ogni parte del mondo, stanno adottando soluzioni IA per ottimizzare le loro operazioni, creare nuovi servizi e modelli di lavoro, ed aiutare i loro professionisti a prendere decisioni migliori e più consapevoli.

Dunque, non c’è dubbio che l’IA sia una potente tecnologia che si è già fatta strada positivamente fra i nostri stili di vita e che continuerà a farlo per molti anni a venire. Allo stesso tempo, i cambiamenti che apporta alle nostre vite personali e professionali sono molto significativi e rapidi, e questo fa sorgere domande e preoccupazioni sull’impatto dell’IA sulla nostra società. I sistemi IA devono essere progettati per conoscere, e seguire, importanti valori umani cosicché la tecnologia ci possa aiutare a prendere decisioni migliori, più sagge, che siano allo stesso tempo in linea con i valori umani.

Rivediamo alcune delle problematiche etiche dell’IA:

Governance dei dati

L’IA necessita di molti dati, quindi i dubbi sulla privacy, l’archiviazione, la condivisione e la governance dei dati sono cruciali per quanto riguarda questa tecnologia.
In alcuni paesi del mondo come l’Europa, ci sono normative specifiche che stabiliscono i diritti fondamentali sulla “questione dati”, ovvero sull’essere umano che rilascia informazioni personali ad un sistema IA che può poi utilizzarle per prendere decisioni che riguardano la vita dell’essere umano in questione (vedi per esempio il regolamento europeo GDPR).

Correttezza

Dal momento che si basa su enormi quantità di dati che circondano qualsiasi tipo di attività umana, l’IA è in grado di avere intuizioni ed ottenere informazioni sulla base delle quali prendere decisioni circa gli individui, o raccomandare decisioni ad un individuo. Tuttavia, dobbiamo essere certi che il sistema d’intelligenza artificiale capisca e segua i valori umani relativi al contesto in cui tali decisioni vengono prese. Un valore umano molto importante è quello della correttezza: non vogliamo che i sistemi IA prendano (o raccomandino) decisioni che potrebbero discriminare o perpetuare danni nei confronti di gruppi di persone (per esempio basati su razza, genere, classe o abilità). Come facciamo ad essere sicuri che l’IA possa agire secondo la nozione più appropriata di correttezza (o di ogni altro valore umano) in qualsiasi contesto in cui viene applicata?
Gli strumenti software sono importanti, ma non sono tutto: anche l’educazione ed il training degli sviluppatori, la diversità del team, la governance e le consultazioni fra le più parti coinvolte sono cruciali per poter individuare e porre rimedio ai limiti dell’intelligenza artificiale.

“Spiegabilità” e fiducia

Spesso, le tecniche d’intelligenza artificiale che hanno maggior successo, come quelle basate sull’apprendimento automatico profondo, non lasciano che i loro utilizzatori possano comprendere in modo chiaro le modalità attraverso cui esse traggono le loro conclusioni dai dati di input. Questo non aiuta nel percorso di costruzione di un rapporto di fiducia tra umano e macchina, quindi è importante far fronte in modo adeguato alle preoccupazioni riguardanti trasparenza e spiegabilità.
Senza fiducia, un medico non seguirebbe i consigli di un sistema di supporto decisionale che possa aiutarlo a prendere decisioni migliori per i suoi pazienti.

Responsabilità

L’apprendimento automatico è basato su dati statistici, e per questo ha un margine d’errore, anche se limitato. Ciò può accadere anche quando nessun programmatore abbia effettivamente commesso un errore nello sviluppo di un sistema IA. Dunque, quando si verifica un errore, chi ne è responsabile? A chi dovremmo chiedere un rimborso o un indennizzo? Tale questione solleva interrogativi legati alla responsabilità.


Profilazione e manipolazione

L’intelligenza artificiale interpreta le nostre azioni ed i dati che condividiamo online per creare un nostro “profilo”, una sorta di caratterizzazione astratta di alcuni dei nostri tratti, preferenze e valori, che viene poi utilizzata per personalizzare una serie di servizi (per esempio, per mostrarci post o pubblicità che è più facile siano di nostro gradimento). Senza appropriati limiti, questo approccio può distorcere il rapporto tra gli individui e colo che forniscono servizi online, se questi ultimi vengono progettati in modo da rendere le nostre preferenze individuabili in modo più chiaro, e di conseguenza la personalizzazione calcolabile in modo semplice.

Tutto ciò solleva problematiche dal punto di vista dell’azione umana: abbiamo davvero il controllo delle nostre azioni, oppure l’intelligenza artificiale viene utilizzata per darci delle piccole spintarelle fino al punto di manipolarci?


L’impatto sulle professioni e la società in generale

Dal momento che l’IA permea il funzionamento del nostro posto di lavoro, non può che avere un impatto sulle professioni (dato che può portare a termine dei compiti cognitivi che solitamente venivano svolti dagli uomini); tali ripercussioni vanno comprese più a fondo ed affrontate in modo che gli uomini non ne siano svantaggiati. Come menzionato poco fa, l’intelligenza artificiale è molto pervasiva e le sue applicazioni si espandono molto rapidamente, quindi ogni impatto negativo di questa tecnologia potrebbe essere estremamente nocivo per gli individui e la società. Al livello in cui l’IA viene ora applicata nei luoghi di lavoro (e al di fuori di essi), fa preoccupare che persone ed istituzioni non abbiano abbastanza tempo per comprendere le reali conseguenze del suo utilizzo ed evitare un possibile impatto negativo.

Controllo ed allineamento dei valori

Sebbene l’IA abbia tanti impieghi, è comunque molto lontana dal raggiungere forme d’intelligenza simili a quella umana (o anche animale). Nonostante ciò, il fatto che questa tecnologia sia perlopiù sconosciuta al pubblico generico solleva dubbi (solitamente ingiustificati) sull’essere in grado di controllarla e tenerla in linea con i nostri più ampi ed a volte disparati valori sociali nel momento in cui dovesse raggiungere una più alta forma di intelligenza.

Molte organizzazioni (compagnie, governi, società professionali, iniziative multilaterali) hanno già passato anni al lavoro per identificare le problematiche etiche più rilevanti legate all’intelligenza artificiale, definire principi ed impegni, trarne linee guida e procedure migliori, ed infine renderle operative nei loro settori. IBM è stata l’azienda leader di questo ambito, con i suoi strumenti, le sue iniziative a livello educativo, il suo modello di governance interno (guidato dal comitato IBM AI Ethics) e le numerose partnership strette con altre aziende, organizzazioni civiche e responsabili politici. Un approccio multidisciplinare e multilaterale è l’unico che possa effettivamente guidare uno sviluppo ed un uso responsabile dell’IA nella nostra società.

FONTE: https://it.insideover.com/tecnologia/quali-sono-i-principali-problemi-etici-nello-sviluppo-dellintelligenza-artificiale.html

Commenti

Related Posts

{{posts[0].title}}

{{posts[0].date}} {{posts[0].commentsNum}} {{messages_comments}}

{{posts[1].title}}

{{posts[1].date}} {{posts[1].commentsNum}} {{messages_comments}}

{{posts[2].title}}

{{posts[2].date}} {{posts[2].commentsNum}} {{messages_comments}}

{{posts[3].title}}

{{posts[3].date}} {{posts[3].commentsNum}} {{messages_comments}}

Search

tags

Modulo di contatto