#51 Cómo personalizar tu modelo de lenguaje (LLM): RAG, Fine-tuning, Prompt engineering y más | Podcast Inteligencia Artificial

Descripción

Las alucinaciones y la falta de conocimiento actualizado son algunas de las principales falencias de los modelos de lenguaje como ChatGPT, Gemini u otros.

Existen muchas técnicas que permiten disminuir los efectos de estas falencias y/o darle nuevas funcionalidades a los modelos de lenguaje para así adaptarlo más a tu caso de uso.

En este episodio únete a Eduardo Fica y Sebastián Cisterna para aprender sobre los pros y contras de técnicas cómo el RAG (retrieval-augmented generation), function calling, fine-tuning y prompt engineering.

====

Links:

– Qué es una API: https://www.youtube.com/watch?v=0TEJgVJoO34

– ChatGPT para principiantes https://evoacademy.cl/libro

– Como entrenar tu LLM https://youtu.be/4Pzv2JburBM

==== 

Sobre nuestro podcast

¿Qué IA está pasando? Es el podcast de Inteligencia Artificial de EvoAcademy. Escúchalo todas las semanas en tu plataforma favorita.

—-

(00:00) – Inicio

(01:12) – Cómo ajustar tu LLM

(01:35) – Ingeniería de prompts

(06:35) – Libro ChatGPT para principiantes

(06:51) – Cómo agregar información actualizada o personalizada

(07:59) – RAG

(13:02) – Llamadas de función

(22:06) – ¿Cuántas funciones puede llamar un modelo?

(22:29) – Ajuste fino (Fine-Tuning)

(28:06) – ¿Cuántas herramientas puedo usar en un modelo?

(31:11) – Cierre