top of page
  • incomprovisional

Ètica i Intel·ligència Artificial (2/4)

Per Redacció OCC InCom-UAB


Hem de deixar que els algoritmes controlin totes les àrees de la nostra vida? Aquesta és la pregunta general que es va formular a la segona sessió del cicle El biaix dels algoritmes, dedicada a l’ètica dels algoritmes i celebrada el 15 de setembre al Palau Macaya de Barcelona. Al debat -que com el primer va tenir una gran acollida- hi va participar Idoia Salazar, presidenta de l’Observatori de l’Impacte Social i Ètic d’Intel·ligència Artificial (OdiseIA), i Karma Peiró, periodista TIC i directora de la Fundació Visualització per la Transparència.


La directora científica i coordinadora del cicle Carmen Domingo va moderar la jornada i, al començar, va apuntar que “els experts en drets humans adverteixen de l’ús cada vegada més gran de la Intel·ligència Artificial per part de les forces de seguretat per aplicar les lleis. Els algoritmes de reconeixement facial s’han estès en tasques de vigilància, es fan servir per identificar perfils potencialment perillosos, la possible reincidència d’un pres o establir zones amb més potencial de criminalitat”. Domingo, com a punt de partida, també va advertir que “el gènere, el color de la pell o l’origen familiar són consideracions que els algoritmes tenen en compte”.

Són els algoritmes o som les persones que hem de canviar?


Aquesta és la primera pregunta que Domingo va adreçar a les dues expertes en Intel·ligència Artificial convidades a la sessió.


Salazar: “La responsabilitat no és dels algoritmes, és de les persones”


“Tots convivim el dia a dia amb sistemes d’Intel·ligència Artificial. Però no hem de deixar que els algoritmes ens condicionin. Hi ha algú darrera els algoritmes”, alerta Idoia Salazar. Al final, “un sistema d’Intel·ligència Artificial no és més que un software immaterial i, per tant, no té ètica. Som les persones les que hem de prendre decisions i les que hem de seguir mantenint l’ètica sobre els algoritmes d’Intel·ligència Artificial. La responsabilitat no és dels algoritmes, és de les persones que els desenvolupen” remarca. “L’ètica de les dades és una qüestió humana, no de les màquines”, puntualitza l’experta. Salazar no és del tot pessimista: “Cada vegada som més conscients dels problemes ètics que poden aparèixer quan usem els algoritmes d’Intel·ligència Artificial”, però insisteix: “Uns problemes ètics que segueixen sent humans".


Peiró: La Intel·ligència Artificial no té valors humans


Karma Peiró exposa que “la Intel·ligència Artificial que tenim actualment és encara molt poc intel·ligent. No té res a veure amb la intel·ligència humana. La Intel·ligència Artificial que tenim ara és el que es denomina Intel·ligència Artificial específica, que pot ser molt potent i està preparada per fer una única acció. Però si després ensenyes aquella màquina que faci una altra acció s’oblida de tot, no té memòria”. De vegades confiem en excés que la Intel·ligència Artificial que tenim ara ens resoldrà tot el futur, opina la periodista especialitzada.


Peiró coincideix amb Salazar que “la Intel·ligència Artificial no té valors humans. Si no en té, imagineu si una màquina té capacitat de decidir un diagnòstic mèdic o una sentència a un tribunal i el risc que això pot comportar”. I, alhora, Peiró apunta una qüestió important: “El que s’entén per ètica aquí a Catalunya o l’Estat Espanyol pot variar del què és ètica a l’Afganistan, Rússia, Xina o Estats Units i el mateix pels valors humans”. És a dir, quan parlem d’ètica es pot estar parlant de coses molt diferents.





Les màquines són eines que generen conclusions seguint una lògica diferent a la humana


Salazar es pregunta: “per què a aquesta tecnologia, i no a una altra, se li vol inculcar aquestes peculiaritats humanes com intentar ser ètica o ser responsable? És necessari?. Fins ara només els essers humans preníem decisions”, remarca.


Les persones al llarg de la vida han anat acumulant experiència que, al final, són dades. El sistema d’Intel·ligència Artificial s’entrena amb bases de dades i crea conclusions i decisions. I aquí rau l’error per Salazar: “La decisió implica una responsabilitat i l’algoritme no ha de perquè tenir una responsabilitat que afecta un ésser humà”.


Salazar substitueix la paraula “decisió” per la paraula “conclusió” perquè l’algoritme és una tecnologia que ha d’existir perquè ens ajuda en el procés de gestió de dades, però és una eina. “És un deure utilitzar avui en dia els sistemes d’Intel·ligència Artificial però hi ha decisions, com que et concedeixin un préstec o que entris a una universitat, que requereixen molt més que dades”, afegeix.


“El sistema ha de servir d’ajuda per prendre millors decisions però no hem de deixar a la màquina autonomia perquè prengui la decisió final. Al final és una màquina. No hi ha d’haver algoritmes no supervisats amb qüestions que afecten la vida humana” diu categòricament Idoia Salazar.


En aquest sentit, Peiró també pensa que “seria poc intel·ligent prescindir d’aquesta tecnologia per fer coses que ens faciliten la vida”, però el problema és que no sabem que darrera hi ha un algoritme d’Intel·ligència Artificial que està actuant, com per exemple quan et donen hora per quiròfan, i les dades amb les que s’ha entrenat poden estar esbiaixades. Peiró alerta que “fa falta que qui els programa o els dissenyi faci un bon estudi de com mitigar els biaixos de les dades, com el del gènere. Segons com es van recollir les dades al passat, tenen un biaix i si les utilitzem al present, els biaixos del passat s’amplifiquen al futur”, sentencia. Seguint el fil, Salazar diu que “ara estem prenent consciència de que les dades poden tenir biaixos”.


“El problema dels algoritmes és que no expliquen. Directament prenen grans conclusions però no coneixem la lògica algorítmica”, aclareix Idoia Salazar. I afegeix que “un dels grans reptes es desvetllar-ho. Però seríem capaços d’entendre la lògica dels algoritmes d’Intel·ligència Artificial? Possiblement, no entendrem el seu raonament perquè és completament diferent de la manera com els humans prenem decisions.”


Legislació europea que unifiqui algoritmes i garanteixi la transparència


Pel que fa a la necessitat d’una legislació europea que intenti unificar els algoritmes, Peiró dona una pinzellada positiva: l’aforament de la sala ja és una prova de la presa de consciència ciutadana. Idea que també comparteix Salazar. La Intel·ligència Artificial és transversal, ens toca a tots a la nostra vida. I això sembla que s’està entenent molt bé.

Sobre els riscos amb la llei, s’ha de donar un vot de confiança al treball legislatiu que s’està fent a Europa. La llei de protecció de dades ja ens empara. I també hi haurà agències reguladores per tal què la llei es compleixi. Hem d’estar informats i saber si haurà mecanismes per reclamar si s’incompleix la llei.


La llei ens dona dret a exigir transparència d’aquesta Intel·ligència Artificial. La transparència ha de vetllar en aquesta era digital tant per part de les empreses com dels governs, remarca Idoia Salazar. “A tots els ciutadans ens afecta la tecnologia i, per tant, s’ha de transmetre de forma senzilla i comprensible, i això és possible. No has de saber de programació per saber com t’afecta la Intel·ligència Artificial i s’han de poder exigir totes les explicacions de forma transparent”. I a aquest punt Peiró demana sobre com s’ho faran perquè s’expliqui de forma senzilla si no sabem programar. Salazar respon dient que són les persones que han programat l’algoritme qui han de donar explicacions. Peiró insisteix en la necessitat d’explicacions clares i senzilles.


Per Salazar, la base és l’educació i la formació. La presidenta de OdiseIA aposta per “aprendre a conviure deixant de banda prejudicis “. Coincideix amb Peiró: “tots tenim el dret de tenir una explicació sobre la presa de decisió que ha pres un sistema d’Intel·ligència Artificial”.


Per evitar la manipulació, la ciutadania ha d’estar preparada (conscienciada i formada)


Peiró pensa que “falta recorregut però és molt bo que ens plantegem quins són els nostres drets perquè la Intel·ligència Artificial ja la tenim aquí i decideix en alguns casos”. “L’esser humà ha de ser al centre de la presa de decisions i cadascú de nosaltres ha d’adquirir la seva responsabilitat a través d’educació i formació”, insisteix Salazar, qui afegeix que “és molt important adquirir consciència per tenir més criteri per poder afrontar-ho amb èxit i no deixar-nos manipular”. La manipulació és un dels grans riscos del futur.


Per acabar, Peiró recomana l’article “Intel·ligència artificial: de la màgia a la realitat”, de Ramon López de Mántaras, membre del Consell Superior d’Investigacions Científiques (CSIC).


bottom of page