ChatGPT, Gemini, DALL-E y otras herramientas han revolucionado el mundo con sus capacidades. Sin embargo, estos modelos son muy complejos y muchas veces no entendemos todo lo que pasan en ellos, incluyendo fenómenos extraños que no tienen mucha lógica para los humanos.
En este episodio únete a Jonathan Vásquez y Nolan Gaete para hablar de este tipo de situaciones cuando la IA falla inesperadamente.
Links relevantes:
– Uno de los primeros estudios sobre negación en los LLMs: https://arxiv.org/abs/1911.03343 – The Reversal Curse: https://arxiv.org/pdf/2309.12288.pdf
– El ataque que hace "diverger" al modelo y escupir datos de la base de entrenamiento: https://arxiv.org/pdf/2311.17035.pdf
Sobre nuestro podcast
¿Qué IA está pasando? Es el podcast de Inteligencia Artificial de EvoAcademy. Escúchalo todas las semanas en tu plataforma favorita.
—
(00:00) – Inicio
(00:18) – Introducción
(01:31) – Reverse Curse
(09:40) – Aviso Publicitario
(11:32) – La Respuesta
(14:04) – Posible Solución
(21:23) – La IA no entiende negativos
(25:19) – ¿Por qué no entiende negativos?
(30:11) – ¿Cómo se solucionaría?
(31:50) – ¿Por qué falló?
(37:10) – ¿Por qué la IA se entrena como humanos?
(42:20) – Conseguir información de entrenamiento de los LLM
(50:12) – Conclusión