#72 Justa, los ganadores de la Primera Hackathon de OpenAI en Latinoamérica

Descripción

La semana pasada fue la Hackathon de OpenAI. En este evento, varios grupos de profesionales se reunieron para desarrollar proyectos innovadores utilizando las plataformas de OpenAI. 

Este episodio se centra en la experiencia de uno de estos grupos, liderado por Pablo Cabezas, que creó una plataforma llamada "Justa" destinada a mejorar la eficiencia en los procesos legales en el poder judicial de Chile.

Durante la conversación, Pablo Cabezas describe cómo su equipo trabajó en el desarrollo de Justa, una herramienta diseñada para procesar documentos legales y audios de audiencias judiciales. Este proyecto promete optimizar el trabajo del poder judicial y hacer más accesible la información legal.

 

Únete a nosotros en esta conversación. 

Links:

Presentaciones Demoday AI Hackathon OpenAI

https://www.youtube.com/watch?v=7c9TWxJVF4Y

Pablo Cabezas

https://www.linkedin.com/in/pablo-cabezas-fernandez/ 

Sebastián Silva

https://www.linkedin.com/in/sebasti%C3%A1n-silva-g%C3%B3mez-396819a2/

Aliwen Melillán

https://www.linkedin.com/in/aliwen-melillan/ 

Jorge Díaz

https://www.linkedin.com/in/jorge-anselmo-diaz-norambuena/ 

Sobre nuestro podcast

Inteligencia Artificial para los negocios es el podcast de EvoAcademy. Escúchalo todas las semanas en tu plataforma favorita.
#AI #Inteligencia artificial #2024 #Agosto #OpenAi #Hackathon

Transcript

Este transcript fue generado automáticamente por lo que podría contener errores

Sebastián Cisterna: Hace unos días ocurrió el primer evento de OpenAI en Latinoamérica, el cual fue una hackatón de inteligencia artificial, donde distintos grupos postularon y luego participaron para poder crear proyectos basados en las plataformas de OpenAI. En particular, hoy día hablaremos con Pablo Cabezas, quien es el líder de un grupo que creó justa. En este grupo participaron distintos Profesionales del Poder Judicial de Chile y crearon una plataforma que permite procesar documentos legales y audios de las distintas audiencias, para así hacer más eficientes los procesos que este poder del estado lleva. En particular, hoy día hablaremos de cómo desarrollaron la plataforma, cómo fue participar en un evento tan único como este y de qué es lo que le depara a Justa en los siguientes meses. Bienvenido Pablo a Inteligencia artificial para los negocios, el podcast de Oacademy sobre inteligencia artificial. Como hablamos en la introducción, tu equipo participó y ganó la hackatón de OpenAI, entonces quería consultarte más de eso, pero primero que todo darte la bienvenida y si nos puedes contar un poco más de quién eres tú, qué has hecho, cómo se conformó el equipo, etc. Bueno.

Pablo Cabezas: Genial, agradecer la invitación, la verdad es que para nosotros es un gusto. Hablo con mi equipo, por eso digo, para nosotros hoy día no pueden estar acá, principalmente para el formato, pero somos un equipo. Mi nombre es Pablo Cabezas, yo soy jefe de laboratorio Innovación del Poder Judicial. Particularmente trabajamos en la corporación administrativa del Poder Judicial. Para ponerlo un poco en contexto, el Poder Judicial tiene su Corte Suprema, sus tribunales, sus cortes de operaciones, y adicionalmente está este estamento que administra los recursos financieros, tecnológicos, el talento, los proyectos, y esa es la corporación administrativa del Poder Judicial. Ahí nosotros trabajamos en el departamento de Desarrollo Institucional, y dentro de ese departamento hay un pequeño laboratorio, y ahí está, yo lidero ese grupo humano. Trabajamos en la práctica, con la búsqueda de iniciativas dentro de los tribunales, en las cortes, con los funcionarios y funcionarias a nivel país, y somos un grupito muy pequeño de desarrolladores que estamos ahí prototipando cosas, probando cosas y generando soluciones. Trabaja Conmigo Sebastián Silva, que es uno de los chicos que estuvo en la Hackatón, al igual Melillán, Jorge Díaz, vamos a dejar ahí sus LinkedIn para que los vean, porque son tremendos talentos. También está con nosotros Román Gálvez, que ese día no pudo participar en la Hackatón, y Juan Román que está de vacaciones y no pudo participar en la Hackatón porque se le ocurrió salir de vacaciones Ÿousand así que estamos ahí trabajando. Tenemos, como te decía, muy reducido el equipo para desarrollar, pero con artesana.

Sebastián Cisterna: ¿Buenísimo, entonces todos son desarrolladores en el equipo, en el fondo de partida, a diferencia de otros equipos que participaron en la Hackathon, ustedes trabajaban juntos, no? Entonces y todos son desarrolladores.

Pablo Cabezas: Somos todos desarrolladores. En el laboratorio en sí es 100 % desarrollo. Ahora, el laboratorio está dentro de un subdepartamento, estamos hablando instituciones públicas, entonces la jerarquía y las estructuras son gigantescas. Está el subdepartamento de modernización, de justicia, y dentro de ese subdepartamento hay un equipo multidisciplinario, y que eso también es bien entretenido, porque hay abogados, hay otros ingenieros, hay gente del área psicosocial, entonces tenemos una mixtura de background bien interesante como para poder trabajar proyectos de modernización y de innovación.

Sebastián Cisterna: Entonces, ustedes estaban trabajando y algún día alguien se le ocurrió en el equipo como oye, salió esto, postulemos. ¿Cómo fue esa historia de decir aplicar?

Pablo Cabezas: La verdad es que hace mucho tiempo veníamos con la idea de trabajar con temas de inteligencia artificial, o sea, esto ya viene desde hace un año y algo, por poco menos, en donde, como comprenderás, en las instituciones públicas uno no puede llegar y establecer un cambio tecnológico importante. Intentamos varias cosas, muy calladitos, muy en silencio. Probamos cuánto modelo había, o sea, hemos pasado por un proceso de exploración tecnológica interna bien importante. 1 día vemos la publicación de la hackatón, estaba en mi casa, participemos. ¿Y llegué, los inscribí sin preguntar, no pregunté, después llegué a la oficina y le dije Oye, se animarían a participar en algo? De hecho, sin pedir permiso, nosotros tenemos, insisto, estructura pública, pero tenemos ahí un ministro de la Corte Suprema que es nuestro sponsor de temas de innovación.

Sebastián Cisterna: Ya.

Pablo Cabezas: Entonces dijimos, pidámosle permiso al ministro. Hablamos con nuestros jefes directos y se atreveron, ya vamos, ya vamos. Bien natural el tema y bien de sorpresa. Y teníamos algunas ya ideas de iniciativas de cómo poder integrar inteligencia artificial al proceso interno. Y y como es también el contexto de la hackatón, que tenéis tres días como para poder levantar algo y probarlo, elegimos un caso de uso que es relativamente sencillo, relativamente sencillo, pero que generaba harto impacto. Y creo que eso es súper importante al momento de hablar de inteligencia artificial. O sea, si vas a buscar un área en donde poder implementar tecnología, especialmente en el servicio público, busca algo que genere impacto, tanto interno como externo. O sea, yo no saco nada con buscar una idea que le beneficie a los tribunales del país, sin que eso traiga un beneficio directo a los usuarios. Que la propuesta de valor del poder judicial, a pesar de que estamos muy cuestionados y eso se entiende por toda la contingencia y todo lo demás, es al servicio de todas las personas. Entonces tenemos que buscar algo que genere una solución con impacto para nuestro usuario.

Sebastián Cisterna: Y tú comentabas un poco en tu presentación cuando tuviste que hacer el pitch, digamos, durante la competencia, que también lo vamos a dejar en los comentarios para que la gente pueda ver que hay mucha tensión en torno a que uno se demora más, de que hay más casos, de que obviamente hay más demoras. Y obviamente la inteligencia artificial tiene aquí la oportunidad de poder automatizar mucho esos procesos y no quitar al humano del look. Porque obviamente en cosas tan sensibles como la justicia, siempre tiene que haber un humano, pero el humano no tiene por qué partir desde cero, le pueden preprocesar algunas cosas. Entonces ese es un poco el espíritu de lo que mostraron. Ÿ quería saber en el fondo, si esa idea que mostraron era exactamente la misma cuando llegaron el viernes, o cómo fue el proceso que se fueron encontrando, porque obviamente durante el desarrollo uno encuentra dificultades, oportunidades. No sé si me puedes contar un poco de cómo fue evolucionando la idea durante la hackathon misma.

Pablo Cabezas: O sea, teníamos la idea de que el ingreso de cualquier demanda, independiente de la competencia o de cualquier trámite que ingresa al poder judicial, pudiera ser pre procesado por un modelo. Los modelos en la práctica tienen esa capacidad de identificar una entidad, de identificar parámetros. Por lo tanto dijimos, bueno, aprovechemos la potencia de un modelo para que nos lea el documento, nos pueda hacer un resumen, nos pueda identificar quiénes son las partes, qué es lo que están pidiendo en esta demanda o en esta denuncia. Y partimos con estos típicos papelógrafos gigantes y anotamos Corte Suprema, Corte de Apelaciones, Tribunales de Familia, Tribunales Laborales, vamos a hacerlo todo, dije. Y ahí yo creo fue súper importante el proceso del coach, donde la Hannah, el Rigo. ¿Rigo estuvo ahí, uno de nuestros coaches que estuvo muy pegado con nosotros, la Claudia que vio temas de Ux, dijo Oye, pero céntrense en algo en particular, no se dispersen tanto, cachai? Estábamos con mucha energía, entonces era como no, vamos por todo y no vayan a un caso de uso particular y específico. Y ahí, a pesar de que ya habíamos trabajado un buen rato en la mañana, dijimos bueno, vámonos por ese caso particular que son los divorcios de común acuerdo. Que en Chile hoy día, si tú estás de acuerdo con tu pareja en divorciarte, llegan los dos abogados, presentan una demanda, establecen en lo práctico cuáles son los términos de ese divorcio, llevamos un año separados, si tenemos hijos, vamos a regular la visita, vamos a regular la pensión de alimentos, si habían bienes en común o no. Y eso todo queda estipulado, ordenado en una demanda. Por lo tanto, era el caso perfecto para decirle al modelo Mira, identifica quiénes son los demandantes, identifica quiénes son los abogados patrocinantes, identifícase cuántos se divorciaron ya más de un año o no, llevan más de un año, que eso lo que te dice la ley. Hay un certificado del cese de la convivencia, existe un certificado de matrimonio, y ahí nos lanzamos.

Sebastián Cisterna: Ok. O sea, ahí eso igual es importante para la gente que esté pensando participar en una hackatón, en el fondo de cómo uno tiene que acotar esto. Porque obviamente estás con recursos, principalmente en términos de tiempo súper limitado de fondo. Si uno quiere abarcar mucho, probablemente vas a abarcar poquito. De todos esos muchos, es mejor tomar un caso. ¿Y ahí el criterio que ustedes tomaron fue como qué tan ordenado está para poder probar que efectivamente esta idea funcionara? Porque al menos como yo lo interpreto, es como si no funciona en ese caso, no va a funcionar para ningún otro.

Pablo Cabezas: Ÿousand el foco es vital. Y yo creo que algo de nuestra raza de desarrolladores, que cuando nos gusta una idea, queremos todo claro, y muchas veces ahí perdemos el foco. Y teniendo, como decías, tus tiempos tan limitados de decir oye, tenemos dos jornadas para trabajar y tenéis que tener un producto mínimo viable, que eso en la práctica era lo que nos decían ustedes tienen que llegar al final mostrando algo que sea funcional. Entonces, bueno, la demanda de divorcio era un caso perfecto para poder y lo demás tiene que ver con el relato. Hoy día los modelos, como decíamos anteriormente, tienen la capacidad para poder identificar perfectamente la estructura de un documento. Nosotros podemos, mediante código, extraer las entidades, extraer toda la información común y particular. Genial. El tema también en las hackatones es que lograste poner el foco, lograste el producto mínimo viable. Maravilloso. Y después cómo cuentan la historia. Y eso es súper importante. O sea, tienes que ser capaz de dar a entender ese impacto que puede generar esta solución. Porque podríamos haber hecho algo que no significara nada hacia afuera. Pero si yo te comento que todos los años nosotros como institución del estado, tenemos un aumento que es exponencial en el ingreso de la carga de trabajo, y no logramos entregar una solución que primero, le entrega un valor al usuario externo, segundo, te permite agilizar los procesos internos, la solución no va a tener ningún impacto, pero tenéis que lograr contarlo. Claro, y que también es algo que nos cuesta a los desarrolladores lograr contar la magnitud del trabajo que tú tienes como un desarrollador. Si no lográis armar un relato, la verdad es que no vais a poder vender.

Sebastián Cisterna: De hecho, eso pasa incluso más allá que este problema puntual. O sea, en general lo que pasa con la inteligencia artificial, mucha gente se maravilla de la tecnología, se maravilla del algoritmo, pero no estamos tan alineados en cómo contamos eso. ¿Es decir, oye, esta inteligencia artificial va a venir a reducir tantas horas de trabajo? O va a poder reducir esta cantidad de estrés en nuestros clientes como que en el fondo lo que dices tú es súper importante en cómo correlaciono la solución técnica con efectivamente el dolor humano que hay detrás. Porque los sistemas son una cosa, y realmente a uno le encanta que el código corra, pero pero no necesariamente es lo que va a traer la alegría finalmente, o va a bajar el estrés en el consumidor, que en este caso son la gente que está haciendo divorcio.

Pablo Cabezas: Ahora, eso lo tiene que revisar un funcionario. O sea, la demanda ingresa y después un funcionario el que tiene que leer todo el documento, validar las fechas, validar que viene los certificados, validar que viene certificado de matrimonio, que el acuerdo y completo suficiente cumple. Imagínate sentarte y estar leyendo. Un funcionario tiene que estar proveyendo 60 escritos al día en promedio. O sea, es una carga brutal de trabajo. Y adicionalmente, lo que nosotros incorporamos en la propuesta, que eso no lo habíamos mencionado, es el tema de la transcripción en lo práctico. Hoy día todas las audiencias que se hacen en todos los tribunales del país se graban en audio.

Sebastián Cisterna: ¿Ok?

Pablo Cabezas: Tú tienes, probablemente más de alguno ha visto por ahí las audiencias que se han realizado en último tiempo, han aparecido bastante las noticias y aparece las partes con sus micrófonos, estos micrófonos típicos cuello de ganso y sal hablando ahí el abogado peleando con la magistrada, y en un rinconcito van a ver que hay una personita que está sentada ahí escribiendo, que es como los juicios gringos cuando alguien escribía acá está el funcionario o funcionaria de acta, que es el que tiene y que en la práctica preocuparse de lo que se está grabando en archivos mp y después generar un acta de resumen de la audiencia.

Sebastián Cisterna: ¿Uff, eso es bastante como lo que hemos visto en otras soluciones de inteligencia artificial, no?

Pablo Cabezas: Entonces imagínate, tienes que estar ahí todos los días, un funcionario o funcionaria, tomando 10, 15 audiencias diarias y después tiene que hacer la transcripción. O cuando te llega, no sé, vamos a ver un caso hipotético, me encontraron manejando en estado de herida, espero que nunca me pase, yo no manejo ser alcohol con la llave. Y me sentencian. Sentencian y yo apelo esa sentencia. Si esa sentencia se dictó en audio, se hizo todo este proceso en la audiencia. Después el funcionario o funcionaria tiene que transcribir absolutamente todo lo que se dijo en la audiencia.

Sebastián Cisterna: Auch.

Pablo Cabezas: Imagínate ponértelo audífono y estar transcribiendo punto por punto. Entonces lo que manifestábamos era, bueno, tenemos un modelo como Whisper que hoy día es potente, o sea, la versión V es maravillosa. Tomamos el audio, lo gestionamos en un servicio, tú tomas el audio, le das transcribir y te lo puedo entregar como si fuera un karaoke, o sea, aquí está línea por línea. Si quieres buscar texto dentro de esa transcripción, lo puedes buscar. Si te quieres mover a 1 s, le pusimos un reproductor y todo el cuento ÿ bien bonito. Entonces, ya quiero moverme a este segundo. Te mueves a este segundo y te lleva en el texto a esa parte de la transcripción. La quiero exportar porque la quiero pegar, la quiero llevar a un documento word, o la quiero exportar directamente a Word, o necesito hacer el resumen de la audiencia. Perfecto. Pum, resumen de audiencia.

Sebastián Cisterna: Y ahí como también, porque hay muchas veces que hablamos de OpenAI, pero hablamos del contexto de ChatGPT. Pero entonces mucha gente tiene la idea de que Bobo viene allá y lo único que hace es ChatGPT. Y tú tocaste el tema de Whisper. Whisper, para los que no lo conocen, es un modelo, y ahí me corrige si me equivoco, digamos, pero es un modelo que toma un audio y genera precisamente las transcripciones de audio hacia un texto. Y ustedes lo que hicieron fue procesar efectivamente estos archivos y poder entregarlos en un formato que sea como más usable para estos funcionarios que estábamos hablando anteriormente. Pero también hablabas de, en el fondo, acá hay dos soluciones en el fondo. Transcripción de audiencias y lo de subirle un documento que es una demanda. Y tú le haces algunas preguntas en las cuales chequea ciertos estados, chequea cuál es la persona A, cuál es la persona B, si tiene certificado, si tiene tanto. ¿Pero el formato que entrega ahí es una checklist o no? ¿Cómo funciona eso?

Pablo Cabezas: Teníamos dos opciones principalmente. La primera es el checklist para ver si esa demanda que tú estás ingresando cumple con los requisitos legales.

Sebastián Cisterna: Claro.

Pablo Cabezas: O sea, me quiero divorciar y en la práctica cumplí un año separado, adjunto los certificados, esto cumple con todo el marco normativo. Y por pantalla te entrego un checklist. Cumple, cumple, cumple, cumple, cumple. Y adicionalmente, lo que incorporamos fue que te preparara el proyecto de la sentencia. Porque después el juez o la juez tiene que redactar una sentencia, hacer todo este documento que dice Santiago a 23 de abril se presentó Juanito con Pepita, con los abogados declararon esto, adjuntar todo eso se tiene que hacer a mano también. Por lo tanto, como ya tenemos todos los antecedentes, podemos nosotros embeber con Raj los documentos necesarios, por ejemplo, el contexto de la ley, plantillas de sentencia, y después con un prompt bien sencillo, decirle al modelo Mira, en base a todos estos datos que ya tengo aquí identificados, prepárame una sentencia y propónsela al juez.

Sebastián Cisterna: Tocaste un tema importante. O sea, tocamos whisper como la parte más técnica, como yéndonos un poquito más al terreno de cómo se hizo la solución ÿousand, ocuparon ChatGPT para esta checklist, pero no es el mismo prompt el que después genera la aceptación. Es otra función.

Pablo Cabezas: ¿No? Es otra función.

Sebastián Cisterna: Y ahí hablaste de Rack. Entonces, no sé si puedes explicarle en términos como resumidos en el fondo la gente, qué significa un rack en este contexto en particular.

Pablo Cabezas: Claro, el rack en la práctica es darles contextos a un modelo e información a un modelo el cual no la tiene. Naturalmente. Tú puedes hoy día tener, no sé, ocupar un modelo open source, Mixedral o cualquier modelo que encuentren, hugenface. Nosotros hemos probado una cantidad de modelos facturados y entregarle información paralela para darle un contexto a información que el modelo no es capaz de procesar. Ahora, con OpenAI hay una particularidad que es muy interesante, que son la B de los assistant de OpenAI, en los cuales tú los puedes ir generando entregándoles una característica de comportamiento más los files, que es decirle, mira, a este asistente que yo quiero que se comporte de esta forma, que quiero que ocupe este modelo, vamos a ocupar, nosotros ocupamos el mini para la versión cuatro mini, y aparte de eso, le quiero entregar esta documentación, que es el marco normativo, y aparte de eso, plantillas, por ejemplo, y quiero que cuando generes un prompt de salida, tenía un prompt para identificar las partes, un prompt para analizar el documento, y aparte otro prompt para que te genere el documento haciendo referencia a la plantilla que tú ya le pasaste al modelo con la data que tiene, y para poder desarrollar una solución rápida. Los assistant de OpenAI son una locura.

Sebastián Cisterna: Claro, los asistan como para la gente que no está familiarizado con la parte técnica, se parecen mucho con los GPTs.

Pablo Cabezas: Exacto.

Sebastián Cisterna: Básicamente los GPT cuando para la gente que ha podido navegar por OpenAI, de repente hay algunos como ciertos robots que son especializados en una función. Entonces, por ejemplo, hay gente que lo ocupa para redactar post de redes sociales o como para traducir de un idioma a otro. Pero considerando ciertas particularidades, hay una tienda de GPT dentro de ChatGPT que uno puede ir a buscar las distintas soluciones e incluso en la versión gratuita, con mucha menos cuota que pagando, uno puede ocupar esas soluciones. Pero también cuando uno ya paga la licencia plus o bien por programación ÿousand, uno puede acceder a crear estos asistentes. Entonces, uno al crear el asistente le da un set de instrucciones, le da que si hay detalles también más marketeros, en el fondo le pone un loguito, le pone una descripción, etc. Pero además de repente les da acceso a documentos, que es un poco lo que hiciste tú. Pero en vez de hacerlo en esta interfaz que es de OpenAI, lo hicieron por código para que también pueda hacer algo que se pueda ocupar más allá que solamente en el sitio de ChatGPT.

Pablo Cabezas: Sí, y es una locura lo que puedes hacer. O sea, puedes crear los asistentes por la interfaz, puedes crear los asistentes por código. Si no quieres ocupar los asistentes, igual puedes hacerlos con Lanchain para poder generar todo lo que tiene que ver con que es un framework que te permite manejar digamos en profundidad el comportamiento, un modelo y darle otras alternativas como la base de datos vectorizada y todo lo demás. Pero si puedes hacer con los asistentes cosas que son una locura y muy rápido. Si, ese es el tema, vas, creas el asistente, le das el comportamiento, le entregas la documentación necesaria y con eso los desarrollos, la verdad es que la curva de desarrollo, el tiempo baja pero considerablemente.

Sebastián Cisterna: Buenísimo, buenísimo. Entonces tenían en el fondo, en la parte como de documentos, tenemos la checklist, generamos el generamos este una propuesta de sentencia. ¿Ese ya era como el demo, no?

Pablo Cabezas: Exacto.

Sebastián Cisterna: ¿Entonces después les tocó presentar y cómo fue esto para el equipo? Como estará ahí están, porque en el fondo también te avisan si van a ser finalistas. ¿Cómo fueron esos momentos cuando ya tenían el demo, pero había que ver si es que en el fondo avanzaban o no?

Pablo Cabezas: Una preselección. Estábamos todos los equipos ahí y nos dijeron tienen que exponer primero en la interna y después íbamos a este salón y se daban como los 12 finalistas. Cuando aparecimos entre los 12 finalistas fue como genial. Nosotros estábamos viendo igual los proyectos, los chicos de Protogyay tenían un proyecto maravilloso. Habían otros proyectos que no recuerdo bien los nombres, pero había harta propuesta que generaba harto Harold. Entonces fue como ya pasamos acá, estamos dentro de los 12. Y también es raro porque somos una institución pública.

Sebastián Cisterna: Claro.

Pablo Cabezas: Entonces era como extraño estar compitiendo con talentos de universidades, con pequeñas startups y nosotros intención pública, como que no está muy ligado al desarrollo tecnológico, o por lo menos eso es lo que cree la gente. No se ve hacia afuera. Cuando estuvimos entre los 12, teníamos el pitch relativamente claro. Sabíamos que teníamos que empezar con el impacto. O sea, el año 2022 ingresaron 55 millones de causas, o se tramitaron 55 millones. O sea, no estamos hablando de algo chiquitito, estamos hablando de un volumen Zweitausendein brutal. Imagínate lo que significan las causas de Isapre, que hoy día se transformó todo un mercado de abogados que te dicen oye, tu recurso Isapre, todo lo que pueda haber pasado en Chile, salen leyes, salen leyes, salen leyes, salen leyes. Y nuestro volumen no deja de crecer. Entonces, seguimos, mira, partamos diciendo 55 millones de causas. Y aparte tuvimos esta segunda lectura de decir y aparte de estos 55 millones de causas Ÿousand se toman 15 millones de audiencia. O sea, esos 15 millones de audiencia son 15 millones de actas que tú tienes que preparar. Olvídate de transcribir esos 15 millones de audiencias.

Sebastián Cisterna: Es harto volumen.

Pablo Cabezas: Segura.

Sebastián Cisterna: Claro. Independiente de qué tan buena o mala sea la solución, cualquier mejora que tú hagas, independiente que sea un 2, %, cuando lo estás aplicando en este volumen, igual significa un montón de horas, un montón de de gente trabajando solamente para este tipo de fines, y por ende, también un montón de dinero que se pueda ahorrar el sistema. Porque además, en la medida que aumentan los requerimientos de los usuarios por tener más audiencias, por tener más causa, eso también necesita más gente, necesita más un estado más grande. Entonces, obviamente también es una complejidad importante.

Pablo Cabezas: Sí, y ahí no podemos apostar, o sea, la institución del estado, según mi visión particular, no puede apostar a seguir creciendo, porque finalmente genera $1,01, carga que no es menor. Entonces, lo práctico, tenemos que entregarle a nuestros colegas herramientas que les permitan hacer de forma más eficiente su trabajo, de forma más ágil su trabajo. Y también hay que pensar que esos colegas que se pueden quedar hasta las 10:00 p.m. transcribiendo, nosotros mostramos un caso en el pitch, que era una entrevista que aparecía en la Tercera, un en Mercurio, de una juez que decía que revisaba 200 causas diarias. ¿Entonces, cómo puedes pretender tener una justicia más ágil si efectivamente tú no le entregas herramientas para que esos jueces, esos funcionarios, funcionarias, las juezas que hoy día están muy complicadas con muchos temas, tengan herramientas también para poder trabajar de una forma más ágil?

Sebastián Cisterna: Y ahí es donde yo, como quizás tengo una opinión súper personal, pero en el fondo, como mucha gente que me escribe realmente me dice, o sea, como que tengo miedo de que la inteligencia artificial me vaya a reemplazar. Como que hablamos mucho de que cómo te pueden sustituir. Pero acá, por ejemplo, el ejemplo la jueza, cuando yo lo vi, dije Imagínate lo que esa persona, porque para ser juez tienes demasiada preparación, hay demasiados casos que has visto en tu vida. En el fondo esa persona está muy capacitada para hacer otra cosa que no son leer 200 Causas al Día. En el fondo, ese talento, de cierta manera lo podríamos tener mejor alocado. En el fondo podría haber una contribución Ÿousand en cosas que no son tan automatizables. Entonces, en el fondo, el hecho de esta iniciativa, más que reemplazar a la persona, porque esa persona igual va a tener trabajo, pero va a tener trabajo donde las habilidades humanas, que no son inherentemente tan delegables a la inteligencia artificial, puedan añadir más valor, donde los años de experiencia de esa persona puedan contribuir más al desarrollo de la justicia. En este caso, más que solamente como Ÿousand si tiene el certificado o no tiene el certificado, sí está bien o no, etc. O vamos a redactar este documento desde cero. En el fondo esa persona puede tener un valor mucho más grande en otra parte de la administración pública.

Pablo Cabezas: Nosotros siempre hablamos de darle superpoderes.

Sebastián Cisterna: Claro.

Pablo Cabezas: O sea, tú hoy día puedes hacer cinco y con la tecnología puedes hacer 25. Y eso es lo práctico. O sea, la tecnología, y también lo hablamos dentro de nuestras jornadas de innovación, tenemos un equipo, el laboratorio no solamente desarrolla prototipos, sino que el equipo de modernización completo hoy día está llevando una cruzada por generar comités de innovación en cada una de las regiones, donde se promueva el intraemprendimiento, donde si hay colegas que desarrollan soluciones a nivel local, puedan tener un espacio para probar cosas. Queremos armar un sandbox que les permita a ellos trabajar con distintas tecnologías. Hay un rollo bien simpático que estamos haciendo. Pero lo práctico es decirle Mira, yo te voy a dar una herramienta que a ti te permita ser más ágil, más rápido, más eficiente y que también se preocupe el lado humano. O sea, una persona que tiene que estar revisando 200 causas al día, va a terminar reventadísimo. ¿O sea, y cómo vuelves a trabajar el otro día? Imagínate en el caso de jueces y juezas que tienen que enfrentar situaciones complejas, cargas emocionales. Haz una audiencia de familia donde tú ves violencia, ves problemas con niños, niñas y adolescentes. Te carga emocionalmente. Te carga mucho emocionalmente. Entonces, cómo yo puedo hacer que esas cosas que son de mero trámite, como el divorcio de como un acuerdo, que es algo donde no hay un conflicto evidente. Y hay un montón de cosas más. O sea, hoy día si tú te cambias de domicilio y estáis en una causa, y por x motivo tú tienes que hacer una solicitud para cambiar tu domicilio, presentar un escrito, ese escritor tiene que resolver, un funcionario revisar, o sea, ocupemos la tecnología ahí y hagamos que nuestros jueces, jueces, funcionarios, funcionarios, los ministros se preocupen, y más que se preocupen, pongan sus energías y el talento más humano, donde se requiere un análisis que no es tangible a nivel tecnológico en las causas que realmente son complejas y lo demás, que la tecnología los ayude, no los reemplace, los ayuda.

Sebastián Cisterna: Pasando un poco como estamos en la hackatón, ganaron, felicidades, etc. Y de hecho, en algún momento, antes de avanzar a ese punto, me gustaría también como volver a ciertas preguntas que hicieron los jueces, que me parecieron bastante interesantes. Una fue el tema de la privacidad, porque muchos de estos modelos tratan con datos sensibles, y obviamente acá estamos viendo un caso como súper acotado respecto a cuando funcionan bien las cosas, etc. Pero hay otras causas en las cuales obviamente Zweitausendein, por ejemplo, episodios de violencia o crímenes más serios, donde podría ser problemático el compartir mucha esa información. Y acá obviamente estaba en una hackathon que tenía que ver con OpenAI, por lo tanto se ocupaban esos modelos. ¿Pero cuál es tu visión respecto a poder ocupar estos modelos, que a veces pueden ser un poco más precisos respecto a ocupar algunos otros modelos que puedan ser como más abiertos, pero que puedan ser instalados en su propia infraestructura? Ÿousand en fondo está empezando ustedes ver eso.

Pablo Cabezas: Respecto a la privacidad, nosotros trabajamos 100 % open source. Es primera vez en lo práctico que estamos ocupando un word class. OpenAI hoy día es considerado un word class por donde se le mire, y es una tecnología de pago, pero el core de trabajo del equipo, el Ceba, el Aliwen, Jorge, Román, Juan, siempre han sido amantes del openson igual. Entonces cuando tenemos que desarrollar algo, vamos por nuestras tecnologías que no dependen de un tercero. Montamos todo en máquinas locales muy pequeñas, que recursos no tenemos para nada, hacemos harto con poco, y que eso me parece también importante mencionarlo, no necesitáis muchas máquinas ni mucho hardware para hacer. Y también es algo que nos ha complicado siempre la privacidad, cómo logramos que crear nuestros espacios seguros para poder hacer cosas. ¿Y en el tema de los modelos, un temón, si yo envío información a un Word Class, cómo me aseguro que esa información posteriormente no va a ser procesada por ese Word Class y va a ser parte de su modelo? Claro, ocupo otro proveedor y a ese proveedor le estoy enviando datos tuyos. Ya presentaste una demanda, presentaste un escrito de esto, presentaste temas de salud por tu isabre, y después esa información se entrena y después yo le voy a preguntar a ese modelo que me traiga todas las consultas que hayas hecho tú. Ÿ claro, entonces sería muy complejo a nivel de datos. ¿A qué es lo que postulamos nosotros? Que previo al procesamiento y envío a un word class o envío al modelo, tú puedas anonimizar, y en el contexto nosotros hoy día podemos identificar entidades en el backend, poder anonimizarlas y enmascararlas, y si ocupamos un word class, enviárselas siempre enmascaradas.

Sebastián Cisterna: Déjame poner un ejemplo y tú me corriges si lo estoy entendiendo distinto, pero en el fondo sería como, por ejemplo, si la demanda es entre Juan y Magdalena, yo identifico que Juan es la persona, un y Magdalena es la persona dos, pero ahora en vez de que se llame Juan, se Yama John Cena.

Pablo Cabezas: Exacto.

Sebastián Cisterna: Entonces se lo mando y va y procesa esa información así. Entonces, cuando devuelva el escrito, por ejemplo, esta sentencia resumida que hablamos antes, o la sentencia en el formato que necesite, va a decir, cuando te lo devuelva a OpenAI, te va a decir John Cena hizo esto. Y entonces tú vas a tener que hacer un proceso de nuevo de transformar ese nombre de nuevo a Juan.

Pablo Cabezas: Exacto. Y en el enmascaramiento, generar esa máscara en el backend. Tú ya tienes identificado en tu backend, en tu servicio, bajo tu norma, tienes identificado quién era John Cena. Por lo tanto, para la salida del dato, ya lo puedes volver a enmascarar a su dato original. Y nunca le está enviando datos, digamos, personales, ni el root, ni dirección y nada por el estilo al wordlas que va a ocupar ahora. Eso es utilizando un word class. La otra opción es hacerlo open source.

Sebastián Cisterna: Como decía, es tenerlo open source.

Pablo Cabezas: O sea, nosotros hemos probado Yama tres b, empezamos probando hace mucho tiempo atrás GPT, que fue lo primero que probamos en linterna, Zweitausendein. Hoy día el Seba estaba probando con modelos más pequeños. Tenemos fitres hoy día, que es un pedazo de modelo chiquitito de Microsoft, Gema dos de Google, su versión la B, que también es pequeñita. Entonces, podríamos montarlos localmente y apostar a eso y nunca estar enviando información a terceros. Ahora, eso también tiene sus prisus contras. Tenés que tener una arquitectura 1 hardware que te permita correr esos modelos con cierta potencia para que el servicio sea ágil.

Sebastián Cisterna: Además, también otra cosa compleja que he visto cuando uno ocupa modelos, por ejemplo, Gema dos, que a mí me gusta mucho ese modelo, pero como es más sencillo y no solamente más rápido y se puede correr en mejores máquinas, que son atributos positivos, sino que también de repente se queda corto en algunas cosas, entonces uno le tiene que dar un prompt mucho más detallado. Tiene que ser como las instrucciones, básicamente. Es como cuando uno de repente no sabe tanto de un tema y cuando te quieren instruir para que tú puedas hacer esto, te tienen que decir, bueno, vas a hacer ABCD con mucho detalle, como micro management, por decirlo así. Entonces, pero cuando tienes modelos más fuertes, es como una persona que tiene más experiencia y por ende puede ser más abstracto con la pedia puedes decirle, no, mi objetivo es este y ve tú cómo lo haces. Entonces, también, en el fondo, la elección de open source también les coloca a ustedes también la presión de tener que hacer un prompt más detallado, de tener más prueba y error. Entonces no es tan sencilla la elección.

Pablo Cabezas: No, no, para nada. ¿O sea, en lo práctico es un desafío que también le agrega algo mucho más entretenido en lo práctico, que es decir, cómo yo logro lo que espero de un modelo? Si al final de cuentas eso, o sea, yo tengo un modelo y lo utilizo porque él es capaz de entregarme algo que yo espero. Ahora, como yo ese algo que espero lo logró pre procesar y preparar para obtener el resultado esperado. O sea, este modelo tiene ciertas características, tú sabes que otro modelo tiene otras características. Por lo tanto hay un proceso de estudio de cada modelo. Cada modelo viene siempre con sus buenos papers donde podís entender la lógica y empezar a leer. O sea, requiere un nivel de estudio que es súper importante. Nosotros, el equipo es bastante estudioso. Yo llevo mucho tiempo estudiando por las mías. No es que acá hay un esfuerzo institucional, y aquí yo quiero ser súper franco, no hay una dinámica de la institución que ha dicho chicos, vamos a trabajar con instituciones, inteligencia artificial, acá el laboratorio de innovación y el subdepartamento de Modernización, el DDI, ha tenido, digamos que el empuje individual de equipo para hacerlo. Y son horas de estudio. Y esto es un mensaje para todos. Si te querís meter a esto, ChatGPT no es lo que vas a encontrar. Si quieres meter realmente, estudia, analiza distintos modelos, entiendes la lógica de la respuesta Zweitausendein, comprende cómo se comporta un modelo, porque no todos los modelos se comportan igual. Entiende la lógica y cuáles son las diferencias, que a veces uno dice, no, la diferencia principal entre un modelo de b y de b es la capacidad de lo que te entrega. Y no hay mucho más de fondo entender que son los modelos cuantizados. ¿Por qué un modelo se cuantiza? ¿Cuál es la diferencia? ¿Qué significa que sea de ocho bit y de cuatro bit? ¿Entonces tenés que darte el tiempo de estudiar, de entender y sobre todo lo que si hay tú de probar, cachai? De entender qué es lo que necesito. ¿Esto es solamente un prompt o hay otras características que mi código tiene que tener, que mi bucket tiene que cumplir para que ese modelo me entregue lo que yo espero?

Sebastián Cisterna: ¿Y ahora pasamos un poco como también había una pregunta, dirá, como qué es lo que falta para que este caso de uso se pueda hacer? En el fondo, yo creo que un poco, quizás no es la misma interpretación con la cual lo hizo el juez en el ejercicio, pero mi duda es como, ok, ya vieron que lo probaron, ok, y en el fondo hay una institución, tú dices que la institución pública tiene ciertos procesos, en el fondo hay algo, cuál es lo que se espera como en el fondo ahora tenéis que probarlo como en alguna instancia más chica, hay que pilotearlo internamente como para que esto ya se pueda empezar a utilizar en algunos como más masivamente.

Pablo Cabezas: ¿Ahí quieres la respuesta políticamente correcta o aprovechamos en el podcast de decir las cosas como más de Ÿousand?

Sebastián Cisterna: Lo que sea indicado para ti.

Pablo Cabezas: Lo que se ha indicado para mí, la política correcta, la respuesta políticamente correcta sería que vamos a esperar todo un proceso de autorizaciones, que la práctica es lo que tiene que hacerse. Tiene que aquí haber un análisis institucional. Las instituciones públicas son burocráticas, y eso es importante mencionarlo para todo el talento joven que quiera algún día entrar a trabajar en el mundo público. Nosotros somos extremadamente jerarquizados, por lo tanto tiene que pasar por una autorización superior. Y esa autorización superior tiene que analizar el caso de uso, generar autorizaciones y todo lo demás.

Sebastián Cisterna: Pero se puede, digamos, se puede, obviamente. ¿Lo hace rápido?

Pablo Cabezas: No, no, para nada.

Sebastián Cisterna: Pero en el fondo no es como que esto es como que se queda en un equipo y como que ganan una hackatoni y el día de mañana puede llegar a correr.

Pablo Cabezas: Ahora, la respuesta políticamente incorrecta, que me parece súper importante también para todos los que quieran trabajar en el mundo público, es que yo con el tiempo he aprendido a que es mejor pedir perdón que pedir permiso, especialmente cuando tú tienes espacios de prueba. Entonces, lo práctico, nosotros ya contábamos como con una preautorización, hacer unas pruebas. Hoy día vamos a tener ya un piloto oficial en Mulchen, tenemos un tribunal, que ese tribunal ya ha trabajado con varias soluciones que nosotros tenemos. Nosotros no es la primera solución de alto impacto que hemos desarrollado. Tenemos una solución que se Yama Conecta, que es una ventanilla de atención digital que hicimos 100 % open source y que tiene en este caso ya más de 2 millones de atenciones a nivel país. Es una locura para una plataforma en la cual se gastó cero, cero peso, todo open source. Y ese fue el primer tribunal que empezó a trabajar con nosotros, que confió en Atención digital. Y con ellos ya tenemos una productorización para trabajar con la transcripción y trabajar con traducción en línea. Que lo práctico es que nosotros podemos tener usuarios que no hablan el idioma español, tenemos algunos identificados, tenemos comunidades de personas que no hablan español, por lo tanto, con ellos ya tenemos una autorización para trabajar en eso. Y que lo que nos gustaría a nosotros como equipo, y que lo llevamos pensando un tiempo, yo lo llevo pensando en particular, es tener un tribunal 100 % con integraciones en sus distintos procesos, con inteligencia artificial, que les permita generar estas propuestas de resolución, los procesos de revisión jurídico, todo con inteligencia artificial. Esa es la respuesta políticamente incorrecta, pero.

Sebastián Cisterna: Igual no es tan políticamente incorrecta quizás de pronto. ¿Por qué? Porque creo que hay un buen aprendizaje ahí, que en el fondo, que eso pasa incluso más allá que en instituciones públicas, pasa también en el mundo privado, de que cuando uno quiere implementar una idea, como que tomarse de gente en la cual haya visto tu trabajo antes y empezar a empujar por ahí, es una manera súper como recomendada de poder avanzar. Porque en el fondo, especialmente en culturas como la chilena, nosotros como que queremos tener mucha seguridad. ¿Entonces decimos, oye, quién lo hizo antes? No, mira, lo hicimos con Mulchen, lo hicimos con este juez. Entonces te ayuda un poco como a tomar gente que quizás tiene un enfoque más innovador, que quizás puede ser la persona que estás viendo tú en este en esta división en particular, particular, para que con ellos construir la reputación que se necesita para ir ganando credibilidad como a nivel más general. Y creo que ese consejo, más allá que es solamente colocarlo como un caso como muy específico del ejemplo que están diciendo ustedes, creo que es bastante replicable para otras instituciones, que también en su momento lo hablamos con Orlando de Sencosut, que vino al podcast también, que también a él le pasaba de que hacía casos de uso con inteligencia artificial con ciertas unidades, y después eso provocaba con las otras como Ah, qué bueno, funciona. Ahora vamos a ver cómo lo hacemos con las otras.

Pablo Cabezas: El pasto del vecino siempre es más verde.

Sebastián Cisterna: Exactamente. Como que siento que ese como de liderar a través de ejemplos de otras personas también es interesante.

Pablo Cabezas: Ahora, uno tiene que aprender desde lo más, digamos, conceptual, que muchas veces te vas a encontrar con la resistencia. La resistencia siempre está presente a todo nivel. Yo hago clase en la mayor, igual hago clase de innovación y emprendimiento en la escuela de ingeniería, y siempre digo a los chicos que ellos tienen que hacer las cosas sin esperar primero nada a cambio, sin esperar que otros los empujen a hacerlas. O sea, si tú querías hacer algo, hazlo, forma un equipo, modela tu idea, inténtalo, pero no esperes que alguien te diga oye, dale, no, anda, prueba, encuentra un espacio seguro. Que eso también es muy importante en contexto de inteligencia artificial. O sea, tú no puedes llegar a implementar algo y tirarlo a producción como si nada.

Sebastián Cisterna: ¿Por qué?

Pablo Cabezas: Porque efectivamente hay ciertas cajas negras, por decirlo de alguna forma, siempre van a haber. Y tú tienes que tener el control necesario para saber Mira, lo que yo voy a probar, necesito establecer que estos comportamientos son seguros. El tratamiento de la información es segura, el comportamiento del modelo ya puede catalogarse como seguro, pero eso tenéis que haberlo probado primero en esa cajita de arena que te permite fallar lo más rápido posible y controlar ese fallo. Lo más rápido posible y encontrar también a las personas que te admitan el fallo. Sí, que eso también es un tema. Yo les comentaba Mulchen, en Mulchen está Johana, que hoy día está de cumpleaños. Así que Joana, cuando veas este podcast, muy feliz cumpleaños. Que ella fue una de las primeras que confió en nosotros. Ella es la administradora de ese tribunal. Y ella en las primeras, por ejemplo, primeras pruebas con esa plataforma web de atención digital, fallamos varias veces, nos equivocamos varias veces. Y lo que hicimos ahí fue no solamente tratar el tema con Johana, sino que tratábamos el tema con todo el equipo del tribunal, no solamente con la administración. ¿Y después nos pasó en paralelo, estábamos trabajando con dos tribunales más, con Río Negro, con Calama, y nos juntábamos con toda la gente que trabajaba, con los operadores, cachai? De la plataforma. Y eso lo vamos a tener que hacer también con la integración de inteligencia artificial. ¿Decirles, oye, cómo te respondió el modelo? ¿Se le pasó algo al modelo o respondió algo que en la práctica no te era útil? ¿Por lo tanto, cuando transcribe, qué palabra no logra transcribir? Por ejemplo, nosotros tenemos algo que es el RIT, que es el Rol único de tribunales, que es como un identificador de la causa. Entonces, ese RIT que aparece en todas las causas, cuando Whisper te lo logre transcribir, no necesariamente te lo va a reconocer como rit. Tú vas a tener que tener tu diccionario o feitonear el modelo o hacerle algo al modelo que cuando tú sepas que viene la palabra rit, el modelo logró identificarla y te la transcriba como rig. Ahora, un montón de términos jurídicos nos va a pasar exactamente lo mismo. Y ahí vamos a tener que estar con los funcionarios y funcionarias diciendo que transcribió bien, qué transcribió mal, qué comúnmente no está logrando transcribir. Porque al final de cuentas no es llegar y decir no, ahí está la herramienta de transcripción. No funciona así. Tú tenéis que lograr entregar un producto que cumpla con la calidad que las personas esperan. Ahora, si lo voy a trabajar con un piloto, ese piloto es el que te va a decir todo lo que tenéis mal, todo lo que hay que mejorar. Y se agradece tener gente que quiera implementar estas cosas.

Sebastián Cisterna: ¿Y qué viene para justa? ¿Qué viene para el equipo? ¿En qué están ahora? ¿Porque obviamente el gran logro del premio de OpenAI, pero qué se viene para este proyecto? Algo spoileaste con lo de Mulchen, pero no sé si lo puedes contar un poco más.

Pablo Cabezas: Nunca habíamos tenido tantos recursos. O sea, el tema de los créditos es una locura. Eran 400000 billones de tokens, algo así.

Sebastián Cisterna: ¿Claro, el contexto es que en parte de los premios es créditos en OpenAI, no?

Pablo Cabezas: Exacto. Que es una locura. Nosotros hemos gastado del bolsillo, y esto también no es políticamente correcto que lo diga, pero lo voy a decir porque me parece que es importante para las personas que en algún momento van a trabajar en el mundo público. Yo ese día en el pitch lo dije. Nosotros hemos tenido que, para probar modelos, no teníamos GPU. Cada uno tenía sus máquinas locales.

Sebastián Cisterna: ŸOusand.

Pablo Cabezas: Las máquinas que nos pasaban normalmente son máquinas virtuales, dos core, cuatro gigas, que.

Sebastián Cisterna: Equivalente a un computador muy chico, tenía.

Pablo Cabezas: Más capacidad en mi notebook. ¿Entonces empezamos a comprar Roompod, cachai? Horas de GPU en la nube.

Sebastián Cisterna: Ah, ok.

Pablo Cabezas: Y del bolsillo. O sea, no es que a mí me dijeran oye, ahí tenés, gástate estos $1000 para que quemes [sos/eos] en gpu y prueben los modelos. O sea, todas las pruebas que nosotros hicimos previamente con gpu, o las que hice personalmente yo, las saqué de mi bolsillo sin ni uno. Entonces, ahora que te digan ganaste la hackathon de OpenAI y tienes 400000 billones de tokens, para nosotros es una locura. Ahora, la idea es empezar a probar todo el proceso ya a un nivel un poquito más macro. O sea, empezar a probar con mucha documentación, poder feitunear, quizás que sea una opción, no habíamos entrado en ese terreno, pero quizás feitunear un modelo con sentencias, con información que podamos siempre anonimizada, depurar el modelo de anonimización para que esto pueda funcionar bien, y ya llevarlo a un tribunal.

Sebastián Cisterna: Buenísimo.

Pablo Cabezas: Ya tenemos definido ese primer tribunal. Yo te contaba que venía llegando ahora de Talca, estamos levantando los comités de innovación locales en distintas cortes de apelaciones a nivel país, y probablemente también van a salir ideas asociadas al uso de inteligencia artificial. Entonces, queremos que Justa se transforme en una suite. ¿O sea, Justa puede transcribir, Justa puede analizar tus documentos legales, justa puede prepararte una respuesta de una propuesta de resolución, justa puede analizar sentencias jurídicas para que un juez, en este caso, que necesite Oye, qué habrá pasado con toda esta sentencia o casos similares? Me encuentre los casos similares de manera práctica, sencilla, rápida, y te entregue un análisis jurídico comparativo, que sería una locura también. O que pueda tener un asistente. Los jueces son como los escritores, tienen una mano para poder transcribir, o sea, generar su sentencia. Generar una sentencia no es fácil para nada. Tenéis que mencionar artículos, analizar el caso. Entonces, cada uno puede tener su forma particular de escribir sus sentencias. ¿Por lo tanto, por qué no pensar en asistentes personalizados para que cada juez tenga la posibilidad de tener su propio asistente bajo sus características, bajo su forma? Y es parte de lo que queremos hacer, la suite de soluciones y ahí enterar todo. Pero queremos igual ir paso a paso. Nunca habíamos tenido tantos recursos. Por lo tanto, probar, probar y ya empezar a hacer estas propuestas de solución pequeña como la que ya mostramos, ya la tenemos definida, llevarla a ese tribunal que ya tenemos visto y aprovechar también estas instancias de los laboratorios o las comisiones de innovación locales, porque te aseguro que van a salir ideas con inteligencia artificial. Seguro, segurísimo, segurísimo. Y ahora somos toquien billonarios.

Sebastián Cisterna: ¿Oye, hay algo que no te haya preguntado o algo que quieras decir que no haya salido en la conversación?

Pablo Cabezas: Principalmente yo me queda las gracias primero por la invitación. Felicitarlos también por este espacio. Yo los veo hace tiempo, te lo había comentado antes, y encuentro que estar aquí como en el podcast de Ia número uno de Chile, es bacán, es genial. Y hablar del talento, o sea, yo trabajo con un equipo lleno de talento y que la gente piensa que en el sector público no hay talento. Y cuando tú mencionas que trabajé en el sector público, son todos flojos. El aparato público es horrible. Yo trabajo en un por autónomo molestado, que está pisoteado, que está más que cuestionado. No voy a hacer el análisis si es con justa razón o no. Yo creo que los análisis son personales y la gente puede reclamar porque efectivamente tenga malas experiencias con la justicia. Y eso es lo que nosotros queremos cambiar. Y somos un grupo de personas, esteban Paiva, Mario Lara, que lideran los equipos internos y que son personas que creen en el cambio y que apoyan el talento joven. Insisto, Sebastián Silva va a estar ahí, su Solín Quedín, Jorge Díaz, Ali Wen Belillán Román, Román Gálvez, Juan Román. Personas que han pasado por el equipo, que se nos fueron, porque el equipo de nosotros tiene alta rotación, principalmente porque son chicos que llegan jóvenes talentosos, llega la grúa y se los lleva. Entonces el talento si está en el servicio público, sí hay. Hay talento joven, talento bueno, que no nos dura. Y no nos dura principalmente porque las rentas en el servicio público, aunque la gente no lo crea, para los desarrolladores son malísimas. Los desarrolladores no ganan el costo, mejor dicho, no ganan el sueldo de mercado. Entonces, en el poder judicial hay talento joven, ya lo mencioné. Aparte del equipo, me parece que ha pasado también gente joven que hoy día está en el mundo privado y que algo de escuela hizo ÿousand. Probablemente esto lo vea el Aníbal. Aníbal Jorquera fue parte de nuestro equipo. Aníbal, te extrañamos, te llaman el corazón. Uno de los desarrolladores más talentosos con los que yo he trabajado. ¿Una Máquina del Desarrollo ya está trabajando en el mundo privado, está así tirando billetes, cachai? Pedazo de desarrollador. Y fue talento joven que pasó. ¿Diego Villa, Leo Ibáñez, gente muy bacán que trabaja con nosotros, desarrolladores open source, cachai? Puros y duros, bacanes, muy buenos. Y que se han terminado yendo del servicio público, porque el servicio público no valora y no paga lo que paga el sector privado. Y las lucas se van por otros lados, que está ahí en otros cargos. Y yo creo que cualquier empresa, ojo, las empresas hoy día tienen que invertir en sus ti, en su área de desarrollo, en sus áreas de innovación, tienen que invertir lucas, ÿousand, y muchas lucas. Porque empresa que se queda dormida tecnológicamente, es empresa que se muere. Y las instituciones del estado no pueden no comportarse como se comporta la startup hoy día, que entienden que el desarrollo tecnológico crea servicios tecnológicos orientados a los usuarios, que mejoran la calidad de los servicios. Y todas las instituciones públicas tienen que estar preocupadas de mejorar su proceso interno, de digitalizarlos, de crear experiencias de servicio para que ÿ todo lo que le ofrezcan al ciudadano, como decía, al ciudadano de pie, al ciudadano, sean servicios de calidad. No hay servicio de calidad si no hay talento. Y el talento hay que cuidarlo, hay que pagarle al talento, porque si no el talento se lo lleva la máquina privada. Y sé que con quizás con los LinkedIn que vamos a dejar al Ceba ya lo han contactado, al igual lo van a contactar al Jorge, igual se los van a llevar. Y nos va a pasar lo mismo que nos pasa todos los años, que se nos va gente. Pero es bacán que se nos vaya en el sentido de que yo sé que van a mejores oportunidades laborales. Los sufrimos, lo lloramos, no se nos fue. Pero sí, sepan todos qué talento joven hay. Hay ganas de hacer cosas, nosotros no vamos a parar. ¿Una de las preguntas que hicieron ese día en la Hackathon era qué pasaba o qué seguía con esto si no nos autorizaban? Y yo dije esto se hace porque se hace. Y nosotros sí lo vamos a hacer, vamos a buscar el apoyo, nos va a costar pelea y todo lo demás, pero lo vamos a hacer.

Sebastián Cisterna: Genial, buenísimo. Y también creo que una de las cosas que tocaste es de que el servicio público, mucho se habla en general de como cosas negativas del servicio público, ya sea porque se puedan demorar, etc. Etc. Pero también hay que entender que muchas de estas cosas que el servicio público tiene como restricciones o más procesos, etc. Es también por el fin de hacer los procesos más transparentes para la ciudadanía y todo eso. Y creo que también un poco viene en la línea de lo que tú mencionabas, como que hay talento, hay ganas de hacer es al servicio de las personas. Entonces, claro, obviamente todas las cosas tienen que mejorar, las instituciones privadas también tienen harto que mejorar, pero creo que iniciativas como esta son súper destacables. Y me alegro mucho que hayáis podido venir al podcast. Y también como resaltar el babega del trabajo que están haciendo ustedes, Zweitausendein, tanto tú como que está hoy día como cara visible, pero también el resto del equipo de los que mencionaste también hace un rato.

Pablo Cabezas: Super. Y ahí insisto, si alguien quiere sumarse, nosotros siempre estamos moviendo por ahí posibilidades. El equipo del Laboratorio es un equipo pequeño, pero con hartas ganas de hacer cosas. Nos encanta también el talento joven, nos buscamos experiencia así como brutal laboral. Al contrario, yo creo que el talento que viene saliendo de las universidades ÿousand, como yo te comentaba, yo soy profe de la mayor 1, ve talento súper joven. Y así que si alguien se quiere acercar, trabajar en el servicio público, ahí puede contactar a Pablo, contáctenos que estamos buscando siempre desarrolladores.

Sebastián Cisterna: Y lo importante que está desde y que no pasan todos los trabajos, de que en el fondo la pega que uno está haciendo puede tener un impacto finalmente en las personas. Porque todas las cosas que hablamos al principio, en el fondo la inteligencia artificial hoy día está ayudando un montón de procesos. Y lo que ustedes están haciendo también es súper importante porque tiene un caso de uso irreal y súper tangible. En el fondo, ese significado que muchas generaciones nuevas están buscando en que su pega tenga sentido y que pueda ser un impacto, se puede ver muy reflejado en lo que tú estás haciendo hoy día.

Pablo Cabezas: Ojo, y no solo en Chile, y que me parece importante. Yo también hago clase en un diplomado en Argentina sobre innovación en la justicia. Y tú comparas la justicia chilena, vamos a hablar del contexto, de cómo funciona operacionalmente. Nosotros hoy día tenemos sistemas digitales, todas las competencias, familia, laboral, civil, penal, todas funcionan con plataformas. Hoy día tú no vas a presentar escritos y cosas así. Tú hoy día tienes la oficina judicial virtual en donde ingresas tus demandas por ahí digitales. Hoy día los jueces firman digitalmente, no firman sentencias a mano. Nosotros a nivel tecnológico, el trabajo que ha hecho el departamento de informática es brutal. Ahora, si tú esto lo comparas con Latinoamérica en general, Chile está súper avanzado. Súper, súper avanzado. Entonces, soluciones como justa no solamente deben quedarse en el contexto del poder judicial chileno. Todos los países yo creo que van a empezar a mirar. Chile ya es una referencia en el manejo de su data, en su plataforma tecnológica a nivel judicial. Pero soluciones como justa también podría operar perfectamente en países vecinos y les traería una solución Ÿousand que va a mejorar el aparato de justicia en general. Así que si lo están viendo de otros países, hemos compartido con equipos TI de otros poderes judiciales. Es una excelente forma de poder aumentar las capacidades del sistema de nuestros funcionarios y funcionarias y avanzar por una justicia más eficiente.

Sebastián Cisterna: Oye Pablo, muchas gracias por haber venido hoy día a Inteligencia Artificial para los negocios. También quería decir a las personas que están viendo el podcast que si les gustó este capítulo y quieren capítulos más como este, [sos/eos], y traer más experiencias como la que nos compartió Pablo hoy día, vayan a la aplicación de Spotify, si nos están escuchando ahí, vayan a la parte donde se la valorización y pónganos cinco estrellitas porque eso nos ayuda mucho a poder tener más alcance y que estas historias sean escuchadas por mucha más gente, tanto en Chile como en el resto del mundo. Y si están viendo este podcast en YouTube, dan dedito para arriba y suscribirse porque eso también nos ayuda también a lo mismo.

Pablo Cabezas: Suscribirse es gratis. Suscribirse es gratis, pongan like.

Sebastián Cisterna: Así que eso, Pablo, muchas gracias por haber venido y nos vemos en un siguiente capítulo de Inteligencia artificial para los negocios. Hasta la próxima.