Ricardo Baeza-Yates, referent mundial en IA: "Hi ha terapeutes il·legals basats en ChatGPT"

Ricardo Baeza-Yates, referent mundial en IA, alerta: "Hi ha terapeutes il·legals basats en ChatGPT" // Què passa quan un adolescent en crisi busca ajuda en un chatbot i aquest l'incita al suïcidi? És legal o ètic que una Intel·ligència Artificial actuï com a terapeuta sense llicència? Per respondre a aquestes preguntes urgents, parlem amb Ricardo Baeza-Yates, un dels referents mundials més importants en Intel·ligència Artificial Responsable.

En aquesta entrevista crucial per a Algorisme Transparent, el catedràtic i exdirector d'investigació de Yahoo! Labs defineix el concepte d'IA Responsable: la càrrega legal i ètica ha de recaure sempre sobre el creador de la tecnologia, no sobre l'usuari. Baeza-Yates analitza amb cruesa els perills més immediats de la IA actual, des dels casos documentats de suïcidis de joves després d'interactuar amb chatbots, fins a l'auge de la desinformació que amenaça l'estabilitat de les democràcies.

En aquesta conversa fonamental amb el periodista Saül Gordillo descobriràs:

  • LA GRAN ALERTA: Per què l'existència de "terapeutes" basats en ChatGPT és una bomba de rellotgeria ètica i legal.
  • EL PERILL ORIGINAL: El risc de confondre aquests sistemes amb persones, una advertència que es remunta al primer chatbot, Eliza.
  • LA RESPONSABILITAT: De qui és la culpa quan la IA falla i causa dany, i per què les empreses han de monitoritzar i intervenir.
  • LES DUES URGÈNCIES: La crisi de salut mental i la desinformació com els dos fronts més crítics.
  • BIG TECH SOTA LA LUPA: La seva anàlisi sobre quines companyies ho fan millor (i pitjor) en IA responsable i per què la recerca de la "superintel·ligència" és una distracció perillosa.
  • REGULACIÓ vs. INNOVACIÓ: Per què una bona regulació com l'AI Act europea no frena la innovació, sinó que l'encarrila per evitar desastres.

Una entrevista imprescindible per entendre els riscos reals que ja són aquí i les solucions que hem d'exigir abans no sigui massa tard.

Capítols del vídeo:

  • Què és la Intel·ligència Artificial Responsable?
  • La crisi de la IA i la salut mental: "Terapeutes" il·legals i suïcidis.
  • El perill més gran: Confondre un chatbot amb una persona.
  • El cas contra OpenAI: Qui és el responsable legal?
  • Desinformació: L'altra gran amenaça per a la societat.
  • L'AI Act Europea: Fre a la innovació o garantia de seguretat?
  • Quina Big Tech ho està fent millor en IA responsable?
  • Per què la "superintel·ligència" és una ximpleria perillosa.

Aquesta entrevista forma part del butlletí #104 d'Algorisme Transparent. Pots llegir l'anàlisi completa també en altres idiomes.

SOBRE ALGORITMO TRANSPARENTE

Anàlisi i entrevistes sobre Intel·ligència Artificial, tecnologia, poder i democràcia.

LLEGEIX I SUBSRIU-TE ALS NOSTRES BUTLLETINS EN EL TEU IDIOMA:

CONNECTA AMB NOSALTRES EN ALTRES PLATAFORMES:

Estigues al dia. Subscriu-te al butlletí