Las alucinaciones y la falta de conocimiento actualizado son algunas de las principales falencias de los modelos de lenguaje como ChatGPT, Gemini u otros.
Existen muchas técnicas que permiten disminuir los efectos de estas falencias y/o darle nuevas funcionalidades a los modelos de lenguaje para así adaptarlo más a tu caso de uso.
En este episodio únete a Eduardo Fica y Sebastián Cisterna para aprender sobre los pros y contras de técnicas cómo el RAG (retrieval-augmented generation), function calling, fine-tuning y prompt engineering.
====
Links:
– Qué es una API: https://www.youtube.com/watch?v=0TEJgVJoO34
– ChatGPT para principiantes https://evoacademy.cl/libro
– Como entrenar tu LLM https://youtu.be/4Pzv2JburBM
====
Sobre nuestro podcast
¿Qué IA está pasando? Es el podcast de Inteligencia Artificial de EvoAcademy. Escúchalo todas las semanas en tu plataforma favorita.
—-
(00:00) – Inicio
(01:12) – Cómo ajustar tu LLM
(01:35) – Ingeniería de prompts
(06:35) – Libro ChatGPT para principiantes
(06:51) – Cómo agregar información actualizada o personalizada
(07:59) – RAG
(13:02) – Llamadas de función
(22:06) – ¿Cuántas funciones puede llamar un modelo?
(22:29) – Ajuste fino (Fine-Tuning)
(28:06) – ¿Cuántas herramientas puedo usar en un modelo?
(31:11) – Cierre