top of page
incomprovisional

Els algoritmes no són empàtics (3/4)

Per Redacció OCC InCom-UAB


Els algoritmes estan canviant la manera com ens comportem. És evident que influeixen a la nostra vida. Però els algoritmes estan per ajudar-nos i fer-nos la vida més fàcil? O, més aviat, ens la compliquen? El títol de la tercera sessió del cicle El biaix dels algoritmes, que es va desenvolupar el 22 de setembre al Palau Macaya de Barcelona, va ser: L’algoritme sense empatia. Per què s’equivoquen els algoritmes? El debat es va centrar en el seu poder.


A aquesta sessió, la principal ponent va ser l’economista Lucía Velasco, exdirectora de l’Observatori Nacional de Tecnologia i Societat del Govern d’Espanya (ONTSI) i autora del llibre ¿Te va a sustituir un algoritmo? El futuro del Trabajo en España (2021). Amb la seva retòrica, Lucía Velasco va aconseguir la plena atenció per part de tota l’audiència.


La sessió la va presentar Esther Grávalos, periodista experta en comunicació i apassionada de la tecnologia. Grávalos és també professora associada a la Facultat de Comunicació i Relacions Internacionals Blanquerna, de la Universitat Ramon Llull.


“La intel·ligència artificial (IA) no és una cosa del futur, és el present. Està aquí. I segur que ja has interactuat amb algun algoritme”, va explicar Lucía Velasco. Segons l’experta, hem de ser conscients que això ja està a les nostres vides. I, per il·lustrar la seva idea, va posar un exemple: Netflix utilitza entre 15 i 20 algoritmes que analitzen les preferències i les cerques dels seus usuaris. Saben quan parem la reproducció o l’avancem, quins dies veiem cada cosa, en quines dates, a quines hores, quins continguts s’abandonen més, les puntuacions que atorguem, les cerquem que fem i segurament saben molt més.





Els algoritmes no tenen sensibilitat


Grávalos va presentar la sessió apuntant les següents idees. El poder que tenen els algoritmes en la publicitat és cada vegada més gran fins al punt que poden arribar a adaptar el producte que ens mostra segons el comportament que tenim a les xarxes. Els algoritmes ens recomanen quina sèrie veure, quins productes comprar o a on viatjar. Saben les pàgines que visitem i intueixen els temes que ens interessen. Cada vegada que naveguem deixem unes petjades que els algoritmes van seguint per conèixer les nostres preferències.


“Però, els algoritmes no són sensibles, no tenen empatia i poden cometre errors”, va recordar Esther Grávalos, qui va continuar apuntant el següent. Els algoritmes influeixen també en els nostres sentiments i en l’estat d’ànim. Igual que a la vida analògica ens influeix un comentari d’algun amic, a les xarxes el nombre de likes s’esperen amb certa ansietat. Com més likes tenim, més populars som. Segons com escrivim, segons quines paraules usem, l’algoritme també pot interpretar el nostre estat d’ànim. Els humans som emocionals per naturalesa. I, fins i tot, els algoritmes poden canviar les nostres opinions sense necessitat d’una reflexió. És podrà substituir l’empatia per un algoritme? Grávalos és de la opinió que això serà difícil.


La participació de la societat al debat sobre l’avanç tecnològic pot contribuir a fer desaparèixer les desigualtats


Lucía Velasco: “La majoria de les persones que treballem a l’àmbit tecnològic sense ser enginyeres ho fem perquè pensem que el futur serà millor i la tecnologia ho farà possible”. Ara bé, “és molt important la perspectiva crítica. No podem seguir fomentant un avanç tecnològic sense fer-nos preguntes. A més, és important obrir la conversa a tot el món i no només a les persones que tècnicament saben d’aquests temes”, reflexiona Velasco. Per l’experta, “és fonamental fer partícip a la societat del que són els algoritmes i com estan impactant a la nostra vida. Totes les opinions compten, no només les dels que en saben”.


I com ens veuen els algoritmes? Velasco considera que ara mateix estem en un moment de tensió: ells (els robots) contra nosaltres (els humans), que fa que tinguem el que es coneix com “ansietat tecnològica” i que no estiguem tranquils amb la tecnologia. I això està tant estès que “existeix una percepció cada vegada més contundent sobre l’efecte del canvi tecnològic sobre la desigualtat social”.


Velasco afegeix que “les dones sentim que estem pitjors preparades per enfrontar-nos a aquesta tecnologia que tampoc coneixem del tot bé. També som més reticents a l’ús de la tecnologia: no veiem clar el seu ús per part de la medicina, en els espais laborals...”. I, dit això, Velasco adverteix que de res serveixen aquests avanços, si les persones tenim por de les màquines i pensem que generaran un futur pitjor per nosaltres. Velasco considera que alguna cosa estem fent malament i no estem abordant.


Lucía Velasco va descriure així el perfil standard dels programadors dels codis dels algoritmes: homes (de moment és una indústria masculina), blancs, joves i amb una elevada formació universitària com enginyers, matemàtics... És a dir, aquesta és una tasca assumida per una petita part de la població. Quan aquestes persones programen algoritmes, què saben de la gent gran? o amb quins valors associen la pell negra? L’experta admet que tot això és un problema molt greu.


La influència dels algoritmes a la nostra salut mental


Si et recomanen un contingut que no t’agrada, en principi no passa res. El problema és que els algoritmes estan canviant com ens comportem i estan influint a la nostra vida i això -segons Velasco- sí es greu. Arran la gran interacció permanent que permeten les xarxes socials, que estan dissenyades per a crear addictes, estan canviant molts comportaments fins al punt que hi ha adolescents que van al metge dient: “Doctor, vull assemblar-me al meu selfie”. “I el teu selfie no té res a veure amb tu, perquè l’algoritme t’ha canviat el color de la pell, el nas, ha generat pestanyes més llargues i no ets tu!”, dialoga Velasco amb el públic.


Aquests trastorns de l’autopercepció en edats quan la construcció de la persona no és sòlida pot tenir gran impacte, sobretot entre les nenes. Tenim ja molts estudis que admeten que xarxes com Instagram malmeten l’autoestima corporal, sobretot entre les adolescents. Velasco explica que això comporta riscos molt perillosos, atès que poden destruir emocionalment.


“Els algoritmes que ara estan dissenyats per les xarxes socials tenen efectes amb la qualitat de la son, l’autopercepció i imatge del cos o assetjament online”, explica Velasco, qui considera que s’ha donat “un augment molt preocupant de la depressió entre la joventut i, sobretot, entre les noies. Hi ha estudis que relacionen el temps dedicat a xarxes socials amb un augment de suïcidi”. Un tema tabú del que no se’n parla.


“Els algoritmes s’estan utilitzant per viralitzar toxicitat. I això és un tema que ens afecta a tots: estem creant societats malaltes a través de contingut tòxic. I per això necessitem entendre el que està passant”, remarca l’economista.


“És impossible crear societats inclusives i que integrin al diferent si estem constantment reben missatges de perfecció i d’homogeneïtat. És molt important el món que veiem i com el veiem. Per això, cada ciutadà ha d’entendre què són els algoritmes i què ens estan fent. Es perpetuen els errors i aquí està el risc”, explica l’experta, qui sembla percebre que els sistemes en els que confiem no sempre funcionen bé, ni sempre encerten.


Què cal fer?


Per acabar la sessió amb un to optimista, però tocant de peus a terra, l’ex-directora de l’ONTSI aporta sis claus per ajudar a entendre els algoritmes com a societat:

  • desmitificar la intel·ligència artificial.

  • obrir un debat sense limitacions ni prejudicis.

  • una alfabetització digital extensiva (educar, alfabetitzar, compartir i explicar-ho als nens i nenes a les escoles i als més grans) perquè tots som part de la societat.

  • regular de forma intel·ligent, ràpida i àgil.

  • diversitat cultural en els equips de dissenyadors i igualtat en la industria.

  • creació de sistemes de control, d’auditoria, d’assaigs i de transparència.




Lectures recomanades:


David García Puertas (2020): Influencia del uso de Instagram sobre la conducta alimentaria y trastornos emocionales. Revisión sistemática. REVISTA ESPAÑOLA DE COMUNICACIÓN EN SALUD, 11(2), 244-254. https://doi.org/10.20318/recs.2020/5223


Comentarios


bottom of page