Post di Franco Zarattini, psichiatra
Quali sono le implicazioni etiche dello sviluppo scientifico e tecnologico? È un interrogativo che nel caso dell’Intelligenza artificiale deve essere posto con particolare rigore e lucidità, valutandone attentamente opportunità e rischi. Mary Gray, antropologa americana con alle spalle solidi studi sulla comunicazione, è esperta in una tematica su cui pochissimi finora sanno qualcosa: l’Intelligenza artificiale e l’etica che ne regola i confini. È ormai evidente, infatti, che serve un patto globale per evitare che l’Intelligenza artificiale agisca quando la libertà è a rischio.
Nel 2012, la Gray ha operato in un laboratorio di Microsoft Research nel New England (Usa), indagando come le tecnologie e l’informatica modellino la società e la cultura, venendone a loro volta trasformate. In collaborazione con Siddharth Suri – scienziato informatico – ha scritto Ghost Work, un libro di ricerca sui “lavoratori nascosti” che nella Silicon Valley “addestrano” l’Intelligenza artificiale. Assieme hanno studiato per cinque anni la vita di questi dipendenti impegnati a portare a temine i servizi di informazione quando l’Intelligenza artificiale non completava il suo compito. Quest’ultima, infatti, continua ad avere bisogno di un gran numero di persone in carne e ossa, i cosiddetti “etichettatori”, che spesso lavorano in condizioni precarie, tanto da essere definiti i “nuovi mezzadri” della Silicon Valley.
A fronte di queste situazioni, è lecito domandarsi: può esistere un’Intelligenza artificiale che sia anche socialmente responsabile?
Le sfide per il futuro
Si tratta anzitutto di far comprendere al pubblico come l’Intelligenza artificiale abbia una capacità limitata, non in grado di “rubare” posti di lavoro, perché è un semplice software che non può prendere decisioni complesse, essendo queste ultime difficili da automatizzare. Serve invece il lavoro di molti esperti per giungere a un software in grado di simulare le decisioni di un essere umano.
Come ogni software, anche l’Intelligenza artificiale può sbagliare. Ne deriva che dobbiamo riflettere, come esponenti della società civile, se sia giusto attribuire all’Intelligenza artificiale un ruolo decisionale sulle nostre vite. Affidarle la facoltà di decidere sulle iscrizioni scolastiche, di redigere sentenze in Tribunale o di coordinare gli attacchi con droni durante una guerra sarebbe pericoloso, trattandosi di situazioni in cui sono necessarie capacità di scelta e di giudizio prettamente umane: i diritti, la libertà e l’incolumità personali potrebbero essere messi a rischio a causa di un errore tecnico o per la rigidità di un algoritmo.
Dal punto di vista dei lavoratori, l’Intelligenza artificiale potrebbe rivelarsi sia una minaccia, sia un’opportunità. Finora non è stata ancora perfezionata al punto di essere in grado di accrescere la capacità decisionale di una persona. Qualora lo divenisse, potrebbe inserirsi con profitto nell’attività produttiva, aiutando i lavoratori in ciò che più è necessario: trovare il modo migliore per concentrare le proprie energie.
Pronti per le nuove tecnologie?
Anche se non siamo preparati a questo nuovo mondo del lavoro, lo saremo presto. Allo scopo sono funzionali alcuni interventi sociali, educativi e formativi.
# Si deve chiedere più trasparenza per la catena dell’approvvigionamento dell’Intelligenza artificiale, affinché ciascuno sappia e valuti quanto siano importanti le persone per lo sviluppo delle informazioni che si ricevono.
# Nessuno dovrebbe conseguire un titolo di studio senza avere frequentato un corso sul funzionamento dei media e sui limiti tecnici dei programmi di software.
# La scuola è il luogo dove si investono le risorse per il futuro. Insegnare a pensare e a riflettere per decidere è il suo autentico valore, che ci differenzia come esseri umani dai computer, incapaci di farlo.
Il futuro dei medici
Da molti ritenuta una minaccia, l’Intelligenza artificiale deve invece essere considerata una risorsa anche per i professionisti della salute. Ricorrendo a una metafora, si pensi all’attività subacquea: le bombole di ossigeno oggi permettono di andare più agevolmente in profondità rispetto a quando ci si doveva immergere solo in apnea, mentre non hanno fatto scomparire chi si tuffa in mare.
Parimenti nella pratica professionale progressivamente verranno introdotte applicazioni informatiche utili a fare diagnosi più precise, con maggiore velocità di quanto sia attualmente possibile, senza che i medici per questo vengano messi da parte. Sarebbe un errore contrastare l’evoluzione dell’Intelligenza artificiale, perché – occorre ribadirlo – è un puro software che non può prendere decisioni complesse. Per questo, non potrà mai essere più intelligente degli esseri umani!
Filed under: Intelligenza Artificiale |
Rispondi