Sebastián Cisterna: ¿Hola, hola, qué tal? Y bienvenidos a un nuevo episodio bonus en Live. ¿Además de qué ya está pasando? Para los que nos están escuchando en Spotify, este episodio fue transmitido en vivo el viernes y va a ser publicado como un episodio Bono. ¿Por qué? ¿Por qué tenemos que hacer un episodio de Bono? Porque han pasado muchas noticias en el mundo de la inteligencia artificial recientemente y tenemos que hacer una pausa y poder recapitularlas para poder hablar porque muchas de esas van a ser impactantes ÿ para el mundo de la inteligencia artificial. Así que como siempre, les traje un material, así que ahora vamos a pasar a la vista de la presentación. Así que ahora deberían estar viendo mi pantalla con la presentación que les traigo hoy día y también además deberían empezar a verme también en la esquina inferior para poder contarles un poco más. Y el primer anuncio es este que se Yama Search GPT.
Sebastián Cisterna: ¿Ya?
Sebastián Cisterna: Yo cuando lo vi pensé que era una broma, pensé que alguien había hecho así como mezclado las dos palabras y haber hecho algo por su cuenta, pero no, es un anuncio oficial de OpenAI en el cual van a permitirte navegar como si fuera google, honestamente, como si fuera el buscador de google tal cual. Vas a poder ir a search GPT, que es la plataforma que anunciaron ahora está en lista de espera, así que te puedes inscribir en la página de ChatGPT, separando OpenAI y vas a poder tener una experiencia en la cual vamos a ver un poco el sitio para poder como sentir la vibra. Acá está el video introductorio y se dan cuenta, yo puedo hacer las mismas típicas búsquedas que hago en Google. ¿Dónde puedo ver esto? ¿Dónde puedo comprar este, aquello? ¿Qué productos me recomiendas? Etc. Y me va a mostrar los resultados de modo muy similar al que hace Google. ¿Pero cuál es la característica? ¿Cuál es la mejora? ¿Que es que además vas a poder conversar con las búsquedas y luego preguntar oye, y de esta alternativa es que encontré? ¿Cuál es la mejor? ¿O no sé qué concepto significa esto? ¿Me puedes decir qué significa? Vas a poder ocupar el buscador tal cual como es la interacción actualmente con OpenAI. Ahora en pantalla están viendo efectivamente algunas capturas que compartió OpenAI para que uno pudiera hacerse una vibra un poco de lo que se viene. ¿Cuáles son las implicancias de esto? Son bastante relevantes. Primero es que igual es como Perplexity. O sea, Perplexity, si algunos lo conocen, lo pueden probar en Perplexity Ai. ¿Es una herramienta que efectivamente hace esto muy igual, pero es de otro proveedor, ok? Así que si ya quieren probar esta experiencia, ya hay un proveedor disponible. Va a ser bien desafiante ver cómo OpenAI trata de diferenciarse de aquella plataforma y no simplemente aprovechar el hecho de que tienen una marca tan grande ya por detrás opera como si fuera un rack, digamos. Para los que no conocen ese concepto, es básicamente una manera en cual tú puedes precargarles tus documentos a un a una base de datos vectorial, la cual es consultada a través de un modelo de lenguaje y te permite hacer backup de las cosas que te está diciendo. Por ejemplo, te va a decir un hecho y puedes referenciar a qué documento pertenece ese hecho. Ya pone el link a las fuentes. Por lo tanto, en el fondo, si te va a decir, por ejemplo, mañana es el partido de tanto, probablemente va a vincularlo a un medio de comunicación que habló de ese partido. Y al igual que como les decía antes, con otro asistente puedes mantener una conversación. A mí una cosa que obviamente quiero destacar es que, porque trabajé muchos años en marketing digital, es que esto es un claro competidor a Google. Y no es menor esto, porque Google, cuando uno va a ver sus cómo se reparte financieramente el ingreso de Google, la mayoría del ingreso de Google viene precisamente de Google Search. Entonces estamos viendo como su principal competidor en temas de IA, porque se dan cuenta que Google también ha sacado modelos de inteligencia artificial. Gemini con muchos resultados como bien polémicos, como hablaba últimamente, pero Gemini compite con OpenAI, pero siempre fue una relación entre que Google era como el segundo, el tercero, incluso el cuarto, según algunos rankings respecto al mercado. Y acá se están dando vuelta los roles en los cuales OpenAI ahora quiere ir directamente a revolverle el gallinero, como dicen en Chile, hacerle controversia, a competirle a la principal fuente de ingreso de Google. ¿Será que por fin vamos a ver de que el término googlear no sea sinónimo con la búsqueda? Eso es interesante, ver qué es lo que va a pasar ahí también. El otro anuncio importante esta semana, hay varios que vamos a compartir hoy día, pero este yo te diría que es más clave, en mi opinión, es que Meta lanzó Lama tres 1. Si han escuchado este podcast, habrán escuchado que tantas veces hablamos de Lama, hablamos mucho de la versión dos, hablamos un tanto de la versión tres también. ¿3 1. Qué es la gran diferencia? No son ni los modelos más livianos de ocho billions, ni el de 70 billions que están ahí en la captura de pantalla, sino el último, el de 405 billions. Ya billions, háganse una idea que es un tamaño, que estos números que son medios en billions son la cantidad de parámetros que tiene el modelo lenguaje y de cierta manera refleja la complejidad y mientras más grande, más complejo y más preciso tienden a ser.
Sebastián Cisterna: ¿Ya?
Sebastián Cisterna: Entonces lamas tres 1 es el modelo de Facebook que lanzan al mercado, pero estos modelos, para los que no conocían los lamas anteriores, son modelos open source, como dice acá en la captura de pantalla. Y estos modelos open source permiten de que tú puedas instalarlos en tu propia arquitectura. ¿Cuál es la implicancia para varios que nos escuchan desde las respectivas de sus respectivas empresas pensando en los usos empresariales? Es que si tú los instalas en tu propia arquitectura, tienes completo control de lo que está pasando con los datos ahí, que no es exactamente lo mismo que cuando uno ocupa por ejemplo ChatGPT o OpenAI y sus modelos. ¿Por qué? Porque uno le manda los datos y la conversación a OpenAI y OpenAI hay veces que te promete que no los va a ocupar, pero simplemente es una promesa que ellos tienen que mantener. Entonces es bastante complicado para algunas industrias, piensen por ejemplo en la industria bancaria que tiene que manejar muchos datos sensibles, en la industria de la salud, el hecho de pasarle sus datos y los de sus clientes a un tercero. ¿Cuál era lo que pasaba hasta el momento? De que hasta el momento habían varios modelos open source. Lama no es el primero, de hecho habían otras versiones de Lama Zweitausendein, pero eran modelos que siempre uno sentía de que estaba sacrificando precisión por elegirlos. En cambio ahora Lama tres 1 llegó a un nivel que es muy alto. Vamos a hablar de esto en las siguientes slides, pero si ustedes ya quieren probar cómo se siente este modelo, uno puede ir a esta página que es meta ai y acá ya está el modelo. Y el modelo además es multimodal. Entonces yo le puedo pedir imágenes, por ejemplo, la típica Zweitausendein crea una imagen de un corgi que siempre nos gusta aquí en la oficina. Entonces vamos a ver que está creando imágenes como lo hace Dalí. Obviamente se está demorando esto un poco en tiempo real, pero ahora pueden ver de que efectivamente salieron esos corgis, hay resultados, no sé si el resultado me convence, pero efectivamente fue súper rápido y no tuve que pagar nada, no tuve que tener una licencia para esto ni nada por el estilo. Ÿousand y además uno puede tener conversaciones como tendría con otro modelo de lenguaje, le puede pedir ideas de un viaje, etc. Así que lo pueden probar ahí en meta Ai, les va a pedir una cuenta de instagram o una cuenta de Facebook. ¿Pero las implicancias que les quería comentar hoy día tienen que ver primero con que dicen que es open source pero es realmente open source? ¿Como que qué pasa? En la industria de desarrollo de software hay modelos que son cerrados y abiertos. Hablamos de esto más en uno de los capítulos pasados sobre gestión de la inteligencia artificial, si es que quieren saber más al respecto. Pero básicamente Open Source quiere decir de que yo te entrego los archivos para que tú puedas eventualmente contribuir al desarrollo de este software o ocuparlo en tus propios casos de uso sin preguntarle a nadie, etc. Etc. En cambio, con los modelos de lenguaje, lo que tenemos en realidad es algo que se le Yama Open Weights. ¿Qué quiere decir eso? De que yo te entrego el resultado del modelo y tú puedes hacer con ese resultado lo que tú quieras. Es como que si yo estuviera tratando de, por ejemplo, hacer una receta en una cocina, cocino luego un queque o una torta, etc. Y después te entrego el plato cocinado y te digo tú puedes hacer el plato cocinado con lo que quieras, pero tú no sabes cómo yo lo hice, no sabes la receta, ni cuánto le puse de harina y de huevos y etc. Etc. Entonces, para que se hagan una idea, así luce los archivos que uno baja del ama, y son solamente tres archivos, uno que pesa 16 gigabytes en este caso, que es el modelo más liviano de ocho billions, obviamente los otros modelos pesan mucho más, y otros dos modelos que describen un poquito cómo poder compilar estos archivos.
Sebastián Cisterna: ¿Ya?
Sebastián Cisterna: Entonces, esto te están entregando el resultado, te están entregando lo que cocinaste, no te están entregando efectivamente todo, que sería lo de Open source. Entonces a esto técnicamente se le Yama Open weights. Ÿousand y otra implicancia es que el desempeño de este modelo es como se le Yama state of the art, o sea, es un modelo competitivo con lo mejor que hay en el mercado y facebook lo está entregando para que uno lo instale en su arquitectura sin tener que devolverle ningún tipo de retribución, ni un tipo de limitación, ni un tipo de displicencia o datos a efectivamente meta, antiguamente conocida como Facebook. Ÿ y esta gráfica está acá, fue hecha por Maxil Labon, que está acá arriba su handle de distintas redes sociales, si lo quieren ir a ver, el LinkedIn postea bastante frecuentemente algunas cosas interesantes por si lo quieren ir a revisar. ¿Pero que lo que está queriendo decir? En la parte vertical de este gráfico hay un indicador, uno de los múltiples indicadores con los cuales se evalúan los modelos de lenguaje, pero piensen que entre más arriba mejor. ¿Eso quiere decir a grandes rasgos, como por ejemplo Cloud DOS es mejor porque está más arriba que Cloud una 3.
Sebastián Cisterna: Ya?
Sebastián Cisterna: Y acá abajo hay una línea de tiempo, básicamente desde mediados de inicios, quizás del 2022 hasta la fecha. Y si se dan cuenta, los modelos que son open weights, que son los que están marcados en verde, en general siempre son peores al mismo tiempo que los cerrados, hasta que esta línea se empezó a cerrar hasta ahora. Si se dan cuenta, Lama acá es bastante competitivo con GPT cuatro o que fue el modelo como que la meta lanzó con bombos y plantillas. O sea, perdón, OpenAI lanzó con bombos y plantillos hace muy poco, pero definitivamente supera GPT cuatro, que es el modelo premium con el cual uno ha pagado suscripción por mucho tiempo y el cual OpenAI se ganó su reputación y mucha gente empezó a ocupar ideas generativas. O sea, en este indicador al menos está pendiente un poco ver qué es lo que pasa con otros indicadores Ÿousand en los respectivos casos de uso de las distintas empresas. Hoy día Lama está siendo bastante competitivo. ¿Entonces, de cierta manera, hoy día queda harto la duda, debiese yo montar esto en mi propio servidor o debiese pagarle a OpenAI lo que me está cobrando por hacer esto? Entonces, en la noticia pasada vimos como OpenAI está tratando de ir a moverle el piso, a desafiar a Google. Y acá vemos como meta está dando en móvil el piso a OpenAI y obviamente también a todo el resto de la industria. También, obviamente, al ser open weights, uno lo puede instalar en su propia arquitectura y eso quiere decir que hay algunos proveedores de arquitectura que han logrado precios bastante competitivos. De hecho, por ejemplo, acá hubo una persona que es Peter Ghosted, que lo pueden encontrar en LinkedIn también, que hizo una comparativa de cómo es correr por consulta. En el fondo, tal como uno lo hace hoy día con los modelos cerrados, el modelo de lama tres 1 y el modelo cuando uno lo ve por distintos proveedores. Hay proveedores que obviamente son más baratos, como estos que quizás mucha gente no conoce tanto, como Deep Infra o como Novita Ai, que nombre más tierno. Pero los otros proveedores como más conocidos, como IBM Databricks u otros ŸOusand o Azure, son un poquito más caro. Pero al fin y al cabo, esto igual sigue siendo competitivo. Vamos a ver una gráfica más adelante con respecto a hacerlo en OpenAI. O sea, sigue siendo como una opción en general más barata que simplemente ir a OpenAI y consultarle si es que tiene las capacidades técnicas de hacerte cargo de instalarlo en tu propia arquitectura. Acá también hay otra gráfica que compartió personas de Oracle, así que es el disclaimer de por qué ellos salen favorables. ¿Pero digamos, lo que hicieron fue cuánto cuesta arrendar una máquina Nvidia H que puede correr este tipo de modelo por hora? Ya no es un modelo barato. El precio por hora, para los que están escuchando y no solamente viendo en Oracle, es el precio más barato que sale $10 por hora. Y después tienen AWS con desde 20 hasta 12, Azure con 12, Google Cloud entre 11 y 14. Entonces, son precios bien altos. ¿Por qué? Porque está arrendando una máquina muy, muy, muy potente para poder correr este modelo. Pero el precio por hora hace de que después ese costo tenga que ser fijo y son las consultas que pueda administrar ese servidor. Entonces, piénsenlo, en una empresa muy grande que tiene que administrar muchas interacciones con los usuarios, muchas consultas durante un mismo día, esto probablemente pueda llegar a ser mucho más barato que tener un modelo como OpenAI. Entonces, no es gratis, como mucha gente dice, es que el modelo al ser abierto es gratis. No, uno se tiene que hacer cargo de esa instalación del servidor. En el fondo uno tiene que instalar esto en algún lado. Pero sí, es muy barato. Además, también no viene exento de polémicas. Lama tres 1 ha tenido bastantes problemas con la Unión Europea. Para los que no están tan al tanto, la Unión Europea generalmente es como líder en regular cosas. 1 de las regulaciones como más conocidas de la Unión Europea, perdón, es el tema de GDPR, que es la ley de protección de datos, que por cierto, Chile está aspirando como a copiar fuertemente y que se aprobó hace un par de días, o si no, si no fue ayer en el Congreso. Por lo tanto, es cosa de tiempo de que Chile tenga una ley muy similar. Pero esa ley en Europa lo que hizo fue que Meta dijo no voy a publicar modelos multimodales porque puede topar mucho con esa ley. Eso ya lo había dicho antes y ahora que sale Lama tres 1 se hace cargo de esas palabras. Pero además también salió otra cosa de que Lama tres 1 bajo la nueva la nueva ley de inteligencia artificial o el acto de inteligencia artificial de la Unión Europea, podría ser clasificado como un modelo que tiene riesgo sistémico. ¿Por qué? Porque dentro del paper técnico, y acá simplemente les puse en la pantalla como la línea en que dice es que ha sido entrenado con cierta cantidad de poder computacional que es mayor al poder computacional que dice la ley europea. ¿Eso qué quiere decir? De que desde ese límite que define esta ley, cualquier cosa que vaya hasta arriba va a ser automáticamente clasificado como riesgo sistémico, a menos que la empresa como que empiece a hacer conversaciones, etc. Entonces, una ley que se aprobó hace muy poco ya fue sobrepasada por algo que en realidad uno podría cuestionarse si es algo tan innovador o algo que representa un modelo sistémico, en el hecho de que ya teníamos otra solución como ChatGPT, que es de poder, de resultados, de precisiones, más o menos similar. Entonces, acá es donde uno se cuestiona si por ejemplo, las leyes al dejar este tipo de cosas tan explícitas, son como a prueba del futuro. Vemos por ejemplo, de que el ama está de cierta manera desafiando leyes que se escribieron hace relativamente poco, porque a mi parecer, y me hago cargo de mi opinión, pareciera de que la Unión Europea está sobre regulando en algunas cosas y colocando algunos límites que van a ser fácilmente pasados por la tecnología actual, ni siquiera con la tecnología de años en el futuro. Otra noticia que tiene que ver mucho con esto es que Meta Ai está disponible ahora en WhatsApp. Ya muchos de ustedes pueden haber visto que cuando van a WhatsApp ya apareció un icono como el que está ahora en la pantalla, que es un icono circular con ciertos degradés y que dice Meta Ai. Y si tú te pones a hablar con él, puedes abrir un chat con ese robot. Y le debo decir que en los grupos que estoy de inteligencia artificial en WhatsApp, uff, fue ayer fue un gran día, hubo mucha conversación. Yo sé que quizás los que nos están escuchando de España pueden decir esto yo lo había visto antes, quizás estaba habilitado en algún momento. Parece que en Europa, obviamente con las restricciones puede ser que ya no lo esté, Ÿousand pero por ejemplo, esto y ahora está habilitado en Chile, en Argentina, en Colombia, en México, en Ecuador, Perú y en otros países, y se estima que también va a seguir expandiéndose y ya la gente está empezando a ocuparlo en WhatsApp. Para la gente que tenía números estadounidenses, por ejemplo, ya lo podía haber probado. Nosotros hicimos unas pruebas con Jonathan que está en el extranjero, cuando yo también tenía mi número de EE.UU. no es como que esto se lanzó hace poco, pero lo que pasa es que se actualizó con Lama para la gente en Chile con número chileno.
Sebastián Cisterna: ¿Ya?
Sebastián Cisterna: ¿Qué es lo que puedes hacer con esto? Puedes preguntarle como si fuera cualquier otro asistente. De nuevo, estaba potenciado por Lama tres 1, que es equivalente en muchos aspectos a GPT Cuatro, por lo tanto, le puedes preguntar las mismas cosas que puedes preguntarle a GPT cuatro sin una licencia que tengas que pagar directamente desde tu WhatsApp. Eso también quiere decir de que le puedes preguntar por imágenes Ÿousand entonces, si quieres hacer memes en base a las conversaciones de WhatsApp, este es tu momento de tener un editor, un generador de imágenes como relativamente rápido. Así que, amigos míos, los que me tienen en su grupo de WhatsApp, prepárense para los memes. Vamos a la siguiente noticia, Mistral. Mistral, para quienes no lo han escuchado, es una empresa de este rubro de modelos de lenguaje, como OpenAI, como Google, como Amazon, etc. Etc. Que está basada en Europa, que fue fundada por x OpenAI y están tratando de competirle a los grandes. ¿Y en ese sentido lanzaron una actualización de su modelo Mistral Large, ya? Entonces lanzaron Mistral Large dos. ¿Cuál es el tema? ¿Es que, bueno, es levemente peor que ChatGPT, ya? Del cuatro o del nuevo modelo. Levemente digo, porque si ahora ven la pantalla, por ejemplo, ven que en promedio su calificación para distintos códigos de programación, en términos de cómo ayuda a los programadores a generar código, es un porcentaje peor que la que obtiene GPT cuatro. Entonces no está muy lejos. Pero es el este modelo es el modelo más barato de los de gama alta.
Sebastián Cisterna: ¿Ya?
Sebastián Cisterna: En el gráfico que están viendo ahora pueden ver distintos modelos y cuánto cuestan por la interacción.
Sebastián Cisterna: ¿Ya?
Sebastián Cisterna: Yo hice un promedio acá ponderado, basándome en otra metodología que vi en Internet, Zweitausendein, en la cual ponderé en un 80 % el precio del output, 1 20 % el precio del input. Y ahora pueden ver en el fondo en pantalla de que hay ciertos modelos que son baratos, pero esos son los modelos de menor capacidad, como por ejemplo GPT cuatro o mini Gemini flash, GPT tres 5, que son los modelos que son generalmente gratuitos para el usuario, por ejemplo, en ChatGPT. Pero más adelante empiezan los modelos más de gama alta, que son los que las empresas tienden a preferir cuando tienen que analizar datos, resumir, etc. Entonces, cuando vamos a ver acá en el gráfico, el modelo de Mistral Large Dos es el más barato de todos los modelos que están hoy día como en ese Tir, en ese nivel de precisión. O sea, es más barato que Gemini una 5 pro, es más barato que Cloud, de hecho, es significativamente más barato que GPT cuarto, que lama Zweitausendein, con las estimaciones de donde uno puede correrlo en algunas arquitecturas y así ocidamente. O sea, en el fondo ellos se están posicionando en un modelo que no es tanto peor que el tope de gama, pero es significativamente mejor que ese tope de gama. Entonces, es interesante un poco lo que está pasando ahora. También me Yama la atención de que Mistral large dos y no lo tengo acá ahora en la slide, así que se los voy a comentar, bajó como un 25 % en sus precios respecto a la versión anterior. Y ahí es donde uno se pone a pensar en qué otra industria uno ve 25 % de baja cuando lanzan un producto mejor. Es muy extraño lo que está pasando con el dinamismo hoy día. Y también lo pueden ver, por ejemplo, que pasó antes con GPT tres 5. GPT tres 5 era el modelo gratuito de ChatGPT por mucho tiempo y hace poco fue reemplazado por GPT cuatro o mini. Y ese modelo es tres veces más barato que GPT tres 5, el cual el modelo ya era barato, pero este es mejor. Entonces, estos cambios bruscos de precio reflejan también una de mayor competencia. El hecho que esté mistral, el hecho de que esté Yama, el hecho que esté OpenAI, que esté Google, que esté antropic, hace de que esta industria se esté ajustando muy, muy rápidamente y que los casos de uso que uno tiene también sean más aplicables porque el modelo no solamente es más preciso, sino que además los modelos son más baratos. Hablando de GPT cuatro o mini, hay una pequeña actualización respecto a este modelo. Este modelo es relativamente nuevo, es un modelo ligero, es un modelo barato y ahora se puede hacer fine tuning de acá. ¿Qué quiere decir esto? De que yo le puedo pasar mis propios datos para que pueda conocer un poco más de mi caso de uso.
Sebastián Cisterna: ¿Ya?
Sebastián Cisterna: Y además te deja hacer fine tuning gratis, o sea, básicamente hasta finales de septiembre. Y acá están los detalles en el fondo en términos de las restricciones, de millones de tokens, etc. Pero te deja ajustar ese modelo de manera gratuita hasta finales de septiembre como para que puedas hacerte una idea de si te sirve o no. Entonces, esta es una política de precio bien agresiva por OpenAI. OpenAI no es de esos que te regalan créditos, ni que postulan en tu programa de startup y te regalo 100000 ÿousand dólares en premios, etc. No. ¿Siempre ha sido como bien restringido OpenAI y es sorprendente un poco de que hayan abierto esto ya? Así que los que están un poco más avanzados y ocupan técnicas de ajuste fino, esta es una muy buena noticia para que puedan probar si efectivamente GPT cuatro mini es una buena solución para su caso de uso. Y para ir cerrando, no podíamos dejar de lado al [sos/eos] tío Elon o Egon, como le dicen también por sus controversiales contribuciones. ¿Qué pasó ahora? Los equipos de sus empresas ahora hicieron un clúster en Memphis que básicamente son 100000 gpus. Fíjense, 100000 h que son los computadores utilizados generalmente para entrenar modelos de lenguaje enorme, para poder entrenar distintos modelos. Y con eso, como dice acá abajo en el tweet, Elon Musk, [sos/eos] bueno, perdón, en el tweet ya se Yama x, perdón, en el post ya dice que esto es una ventaja significativamente, significativa, perdón, en términos de entrenamiento para los modelos más poderosos de inteligencia artificial y que esperan en el fondo tener un modelo a finales de diciembre que sea bastante competitivo con lo que haya en el mercado. De hecho, él dice de que debería ser el modelo más poderoso en cualquier métrica. Vamos a ver si es que efectivamente Elon Musk puede cumplir su palabra, pero aunque no la pueda cumplir y pueda estar cerca, ya es bastante interesante lo que está pasando. Una industria llena de competidores, nos están llegando más competidores y bueno, hablemos de esto en algún otro capítulo, pero la industria de inteligencia artificial en general, por parte de quienes hacen los modelos, es una industria que tiene bastante cuestionada su rentabilidad. Entonces es interesante ver cómo a pesar de eso se unen más competidores acá a la industria. Eso era lo que les traía por el día de hoy. Voy a verificar ahora con la mesa técnica si es que hay algo que debamos atender. No todo gay. Espero que les haya gustado el capítulo y si están escuchándonos en Spotify, recuerden ir a al software, abrir la aplicación, se tiene que hacer desde teléfonos móviles, ir, colocarnos cinco estrellitas, decirle que les gustó este capítulo. También nos pueden apoyar en YouTube haciéndole like y comentando para poder efectivamente poder hablar más de estas cosas. Y si tienen alguna duda con el anuncio o con otras cosas que quieran escuchar, recuerden escribirnos, acá vamos a estar para poder responderles. Muchas gracias por reunirse a nosotros en este capítulo Bono de Inteligencia Artificial aplicada a los negocios. Así que muchas gracias y nos vemos en un siguiente capítulo. Hasta la próxima.