Helena Matute: «Encara no sabem quin és l’algoritme de l’aprenentatge humà»

«Fèiem aprenentatge artificial jugant al mus. Som de Bilbao. I quan arribàvem als òrdagos, era impossible per a la màquina»

Helena Matute: «Encara no sabem quin és l’algoritme de l’aprenentatge humà»
  • «No concebo necessàriament la intel·ligència artificial general com una cosa que hagi de devastar la humanitat»
  • «La meva reacció fa deu anys, sense ChatGPT, va ser de por. Mai no vaig pensar que arribaríem tan lluny»
  • «Hi ha gent que vol flexibilitzar la regulació europea de la IA i jo la faria encara més forta»
  • «Quina IA volem? La pregunta fonamental és què volem. Fem que sigui beneficiosa per a les persones»

Aquest número 92 del butlletí Algoritme Transparent també està traduït al castellàanglèsfrancès i italià. Entrevista publicada a El Punt Avui, en català.
I estrenem el canal de YouTube d’Algoritmo Transparente amb aquesta entrevista.

Helena Matute Greño (Bilbao, 1960) és psicòloga, catedràtica de Psicologia Experimental a la Universitat de Deusto, on dirigeix el Laboratori de Psicologia Experimental. És membre de Jakiunde, l’acadèmia de Ciències, Arts i Lletres del País Basc, i de l’Acadèmia de Psicologia d’Espanya. Ha estudiat i fet recerca a Bèlgica, Austràlia i els Estats Units. Recentment ha participat a la presentació, a la Universitat de Barcelona, del llibre del doctor Juli PonceEl Reglament d’Intel·ligència Artificial de la Unió Europea de 2024, el dret a una bona administració digital i el seu control judicial a Espanya, del qual Helena Matute és prologuista.

Ets una de les primeres psicòlogues que treballa la psicologia vinculada a les noves tecnologies?
En la meva àrea hi ha molt poca gent. En altres branques sí que hi ha més psicòlegs, per exemple els que investiguen l’assetjament a les xarxes socials o els problemes psicològics lligats a Internet, però en la meva especialitat som pocs.

La teva especialitat és la psicologia i la intel·ligència artificial?
Diria més aviat que la meva especialitat és la funcionalitat cognitiva: com funciona la ment humana, els biaixos cognitius, la presa de decisions… Fa anys que em centro en la il·lusió de causa-efecte, un biaix molt comú que genera molts problemes. L’altre gran tema, molt relacionat, és com la IA i les noves tecnologies afecten processos com la presa de decisions.

Abans havies estudiat altres aspectes?
Sí. Vaig estudiar teories de l’aprenentatge. Gran part de la meva feina està vinculada a com aprenen les persones i els animals. Als anys noranta vam començar també a estudiar l’aprenentatge de les màquines, simulant processos naturals.

La humanitat i l’avenç tecnològic t’han posat en l’escenari ideal. Amb l’impacte de la IA, estàs en el teu gran moment?
La veritat és que sí, és al·lucinant. D’una banda és apassionant; de l’altra, fa bastanta por. A principis dels noranta volíem desenvolupar una teoria de l’aprenentatge natural prou bona per codificar-la en un ordinador. En aquells anys es parlava de sistemes experts, però nosaltres buscàvem bases naturals encara que això introduís biaixos i errors. Molts ens deien: «Això no serveix, l’empresa vol alguna cosa que funcioni sempre». Vam veure que no arribaríem gaire lluny.

Per què vas decidir que necessitaves aprendre més sobre allò humà?
Perquè les teories de l’aprenentatge humà eren (i continuen essent) molt limitades. No coneixem bé l’algoritme de l’aprenentatge humà. Vam aconseguir algunes curiositats —una màquina que jugava al mus— però, quan arribàvem a l’órdago, era impossible: l’endemà la tornàvem a guanyar. Vam provar amb aprenentatge animal i vam avançar simulant coloms, però també hi havia límits. Vam concloure que calia reforçar primer la recerca psicològica.

Parles de finals dels noranta.
Sí, les publicacions que vam fer van de 1990 a 1998.

Com has viscut aquests darrers 25 anys d’evolució tecnològica, sobretot en IA?
Fa deu anys vaig tornar al tema i la meva reacció principal —molt abans de ChatGPT— va ser la por. Mai no vaig imaginar que arribaríem tan lluny. Vaig veure possibilitats enormes. Vaig començar a fer conferències: alguns enginyers em deien que exagerava; altres admetien que tenia raó però no s’atrevien a dir-ho.

Encara tens por?
Sí, potser més. El que avui es pot fer és apassionant, però als noranta mai no vaig contemplar riscos. Entenc els enginyers que tampoc els veuen ara. Avui els riscos són pertot arreu.

Et fa més por l’arribada d’una Intel·ligència Artificial General o les eines actuals que afecten l’aprenentatge, l’ensenyament o les relacions humanes?
Em fan por totes dues. No crec que una AGI hagi de venir necessàriament a arrasar la humanitat, però se’ns pot escapar de les mans si no està alineada amb els nostres valors. Ara hi ha una cursa boja per aconseguir-la i em pregunto: per a què? En paral·lel, les eines quotidianes ja influeixen en la nostra vida: educació, salut, decisions… tot.

I les eines d’IA pròpiament dites?
En medicina, indústria, etc., són utilíssimes, però han d’estar molt regulades. Quan la IA interactua amb persones cal extremar la precaució. Amazon ja condiciona les nostres lectures; les xarxes, la nostra informació. La influència és enorme.

Quin grup poblacional veus més vulnerable: joves digitals o grans analògics?
Els joves confien massa: fan servir les aplicacions sense qüestionar-se res. Els grans som més desconfiats perquè intuïm els interessos corporatius. En qualsevol cas, la regulació europea hauria de ser encara més estricta.

Algunes empreses presenten els seus xatbots com a “raonadors” amb “consciència” o “sentiments”. Què en penses?
És pur màrqueting. Avui aquests sistemes només encadenen paraules amb la màxima probabilitat de coherència. El problema és que resulten molt convincents i, si no domines el tema, t’ho creus. Això és perillosíssim.

En què es diferencia parlar amb un xatbot que sembla saber-ho tot d’una conversa de bar amb gent que opina sense saber?
Amb els amics sabem que cadascú expressa emocions, i tu decideixes què creure. Amb la IA hi ha un biaix d’automatització: atribuïm a la màquina objectivitat i absència de biaixos, com si fos una calculadora infal·lible. Encara no hem assumit que pot inventar i equivocar-se.

Recomanes allunyar-se de la IA, acostar-s’hi amb precaució o utilitzar-la sense por?
Cal acostar-s’hi, però amb molta prevenció. Hauríem de llançar campanyes massives de sensibilització. El llançament de ChatGPT va ser irresponsable: el van deixar anar sense informar i aviat van aparèixer casos greus. A l’empresa li interessava: «Aquí el teniu, entreneu-lo gratis».

Has fet recerca a Bèlgica, Austràlia i els Estats Units. Què hi has vist en altres països?
Hi ha de tot. Als EUA molts envegen la protecció europea i estan descontents amb la barra lliure per a les grans corporacions.

Et preocupa que Europa faci marxa enrere en la seva regulació?
Seria una llàstima, amb tot el que ha costat. La qüestió no és «garantisme o endarreriment», sinó quina IA volem. Igual que regulem el trànsit per salvar vides, hem de regular la IA perquè sigui beneficiosa per a les persones. Europa podria liderar aquesta altra lliga.

És la IA una oportunitat per a llengües i cultures com l’euskera o el català?
Sí, és una gran oportunitat. El tema lingüístic és dels que avui està millor resolt i els riscos són mínims. Si es combina amb una regulació adequada i un enfocament cultural, pot ser fantàstic.

Articles relacionats

Estigues al dia. Subscriu-te al butlletí