6:50 Buenos días a todos. Les damos la
6:51 bienvenida al ciclo de formación en
6:53 inteligencia artificial en la justicia.
6:56 Me presento, soy Melisa Samudio Reina.
6:58 Los acompañaré durante este espacio
6:59 organizado por el Consejo Superior de la
7:01 Judicatura en coordinación con la Unidad
7:03 de Transformación Digital e Informática
7:06 y en colaboración con la UNESCO a través
7:08 de la Escuela Judicial Rodrigo Lara
7:10 Bonilla. Esta colaboración que se ha
7:13 venido fortaleciendo desde finales del
7:15 2024 con nuestra alianza para la
7:17 promoción del uso,
7:19 aprovechamiento responsable, seguro y
7:21 ético de la inteligencia artificial en
7:23 la rama judicial se consolida con estas
7:26 charlas que ofrecemos de manera abierta
7:28 y gratuita a servidores judiciales,
7:30 abogados, estudiantes y usuarios del
7:32 sistema judicial en Colombia. Al
7:35 implementar este ciclo de formación, el
7:36 Consejo Superior de la Judicatura
7:38 también está cumpliendo con el mandato
7:39 establecido en la sentencia de la Corte
7:42 Constitucional
7:43 T323, la que nos compromete a capacitar
7:46 y formar en estos temas, asegurando así
7:48 que nos alineemos con los principios de
7:50 justicia y equidad.
7:52 En esta charla que hemos denominado uso
7:55 responsable, seguro y ético de la
7:57 inteligencia artificial en la
7:58 administración de justicia, se
8:00 desarrollarán temas como el enfoque de
8:02 derechos humanos en la implementación de
8:04 inteligencia artificial en el sector
8:06 justicia, tanto desde la perspectiva
8:08 nacional como internacional. En eh se
8:12 explorará además los lineamientos
8:14 establecidos por el Consejo Superior de
8:15 la Judicatura de Colombia. Se analizará
8:18 cómo Colombia ha tomado el liderazgo en
8:20 la región al adoptar este
8:23 modelo basado en en derechos,
8:26 diferenciándose del enfoque europeo
8:28 basado en riesgos. Antes de iniciar con
8:31 las conferencias, quiero saludar a todas
8:33 las personas que se conectan a esta hora
8:35 con nosotros a través de la plataforma
8:38 establecida por la Escuela Judicial
8:39 Rodrigo Larabonilla y por nuestro canal
8:42 de YouTube de la misma escuela.
8:44 Asimismo, quiero presentarle a los
8:46 expertos que nos acompañarán en esta
8:48 jornada. Empecemos por las mujeres. Hoy
8:51 nos acompaña la doctora Diana Alexandra
8:54 Remolina Botía, magistrada del Consejo
8:56 Superior de la Judicatura y coordinadora
8:58 de transformación digital de la rama
9:00 judicial. Ella es abogada de la
9:02 Pontificia Universidad Javeriana de
9:04 Bogotá y especialista en derecho
9:06 sustantivo y contencioso constitucional
9:08 de la misma universidad. ha ocupado
9:10 distintos cargos en de direcciones de
9:12 Ministerio de Justicia, desde donde
9:14 impulsó políticas, reformas legislativas
9:16 y reglamentarias en el Estado,
9:19 racionalización también normativa,
9:22 reforma a la justicia, trabajo además
9:24 para la Presidencia de la República, el
9:26 Departamento Nacional de Planeación, el
9:29 PENUT, el Banco Interamericano de
9:31 Desarrollo, entre otros, asesorando y
9:34 participando en la construcción de
9:35 políticas públicas en las mismas
9:38 materias Desde Irlanda nos se conecta
9:41 con nosotros a esta hora la doctora
9:42 Acneris Sampieri, quien es abogada de
9:45 egresada de la Universidad Nacional
9:47 Autónoma de México, actualmente es
9:49 estudiante y becada del Máster e Europeo
9:52 en derecho, datos e inteligencia
9:54 artificial de la Unión Europea. Cuenta
9:57 con más de 10 años de experiencia en
10:00 derecho y tecnología. Actualmente
10:02 trabaja como analista de políticas
10:04 públicas para América Latina en Accessas
10:07 Now y colabora como consultora de la
10:09 UNESCO capacitando a sistemas judiciales
10:12 sobre inteligencia artificial y derecho
10:14 y estado de derecho. Su experiencia
10:16 incluye intervenciones como experta en
10:18 casos relevantes como la sentencia TED
10:21 323 de la Corte Constitucional de
10:23 Colombia, además de impartir
10:25 conferencias en instituciones y
10:27 universidades de Colombia y México sobre
10:29 la intersección entre tecnología y
10:32 derechos humanos. En cuanto a nuestros
10:35 expertos, tenemos a Juan David
10:36 Gutiérrez. Es abogado javeriano con
10:39 maestras en derecho y economía de la
10:41 Universidad de Bol de Bolovna y Erasmus
10:44 de Rotterdam y es doctor en política
10:46 pública de la Universidad de Oxford.
10:49 Actualmente es profesor asociado a la
10:51 escuela de gobierno de la Universidad de
10:53 los Andes, donde investiga sobre
10:56 políticas públicas, gestión pública e
10:58 inteligencia artificial. Es experto de
11:01 la alianza global sobre inteligencia
11:02 artificial. lidera el proyecto sobre
11:05 repositorios de algoritmos públicos. Con
11:08 casi 20 años de experiencia ha asesorado
11:10 a gobiernos latinoamericanos,
11:12 organizaciones multilaterales como
11:13 UNESCO y el BT y entidades de la
11:16 sociedad civil. Y cierro con Santiago
11:18 Pardo Rodríguez. Él es abogado de la
11:21 Universidad de los Andes con maestría en
11:23 derecho. Complementa con una maestría en
11:25 ciencias del derecho, antropología y
11:27 sociedad de la Escuela de Economía y
11:29 Ciencias Políticas de Londres y una
11:32 maestría en ciencias del derecho de la
11:34 Universidad de Stanford. Se ha
11:36 desempeñado como magistrado auxiliar de
11:38 la Corte Constitucional destacando
11:41 redactando sentencias sobre derechos
11:43 fundamentales y trabajo de la
11:44 jurisdicción especial para la paz,
11:47 realizando estudios sobre tutelas.
11:50 cofundó el laboratorio de diseño para la
11:52 justicia de la Universidad de los Andes,
11:54 un espacio interdisciplinario entre las
11:56 facultades de derecho, diseño e
11:58 ingeniería y actualmente es defensor
12:00 delegado para los derechos digitales y
12:02 la libertad de expresión, donde lidera
12:05 eh iniciativas de protección de derechos
12:08 en entornos digitales y promueve el uso
12:10 ético de la inteligencia artificial en
12:12 el sector público. Ya teniendo claro
12:14 quiénes son nuestros magníficos
12:17 conferencistas, quiero que iniciemos
12:20 esta charla de uso responsable, seguro y
12:22 ético de la inteligencia artificial en
12:24 la administración de justicia con la
12:26 doctora y magistrada y coordinadora de
12:29 transformación digital de la rama
12:30 judicial, la doctora Diana Alexandra
12:32 Remolina Botico.
12:41 Bueno, muy buenos días. Gracias, Melisa,
12:43 por la presentación. Eh, muy buenos días
12:46 para todos los que nos acompañan en esta
12:49 sesión. Eh, primero que todo quisiera
12:52 saludar y agradecer especialmente a los
12:55 expertos de la red UNESCO Añeris y Juan
12:57 David que nos acompañan en este ciclo de
13:01 formación de inteligencia artificial en
13:03 la administración de justicia.
13:04 Igualmente, un saludo muy especial a
13:07 Santiago Pardo, defensor delegado de la
13:09 Protección de Derechos Humanos en
13:11 ambientes digitales y libertad de
13:13 expresión de la Defensoría del Pueblo,
13:15 eh entidad con la que venimos desde el
13:17 Consejo Superior de la Judicatura
13:19 articulando muchos esfuerzos en estas
13:21 materias. Eh, de nuevo a todos los
13:24 presentes en esta reesión virtual,
13:26 bienvenidos, bienvenidas.
13:28 Eh, esta es la segunda sesión de las 4
13:32 de este ciclo de formación en
13:33 inteligencia artificial, que es un
13:36 espacio académico que hemos venido
13:37 liderando eh eh en conjunto entre el
13:41 Consejo Superior de la Judicatura y la
13:42 UNESCO que busca generar ese
13:44 conocimiento en torno a este tema que
13:47 aunque estemos hablando tanto en todos
13:50 los escenarios, pues realmente sigue
13:52 siendo novedoso en nuestro ámbito en
13:54 concreto, que es el tema de la
13:56 inteligencia artificial.
13:58 En la primera sesión que tuvimos la
14:00 semana pasada, el viernes, se
14:02 inscribieron
14:04 2,392 personas y asistieron
14:07 efectivamente
14:08 1702, es decir, el
14:11 71% de los inscritos. Eh, lo que muestra
14:15 el interés que tiene la rama y el el
14:18 sector en estos temas de inteligencia
14:20 artificial. El 46% de esos asistentes
14:24 correspondió a participantes
14:26 provenientes de juzgados, de circuito,
14:28 municipales, administrativos, de
14:30 ejecución y de pequeñas causas. E y por
14:35 su parte tuvimos una participación
14:37 también de la academia muy destacada del
14:40 7.5% 5% de los asistentes. En cuanto a
14:44 las ciudades de conexión contaron con
14:47 mayor participación Bogotá, Medellín,
14:49 Barranquilla, Manizales, Bucaramanga,
14:52 Ibagué, Pereira, Pasto, Cali y Armenia.
14:56 Y en YouTube tuvimos 3,000 visitas de la
15:00 grabación y 800 personas se conectaron
15:03 en vivo en
15:05 simultáneo. Esa primera sesión está
15:07 disponible en el YouTube de la Escuela
15:09 Judicial Rodrigo Larailla.
15:12 Y en ella, para hacer un poquito de
15:14 contexto y de recorderis, esa sesión
15:16 estuvo dedicada al tema más básico del
15:19 entendimiento de estas tecnologías y lo
15:21 que está sucediendo alrededor de las
15:23 oportunidades de su uso en distintos
15:25 ámbitos, incluida por supuesto la
15:28 administración de justicia. y el
15:30 presidente, nuestro presidente del
15:32 Consejo Superior de la Judicatura, eh
15:35 nos contó acerca de cuál es esa
15:37 estrategia de inteligencia artificial en
15:39 la rama judicial en nuestro país y el
15:41 trabajo que venimos adelantando con la
15:44 UNESCO. Eh, él explicó muy bien cómo
15:48 esta estrategia está irradiada de unos
15:51 principios, de unos derechos, de unos
15:53 deberes para propiciar que el uso y
15:56 aprovechamiento de estas tecnologías se
15:58 haga de manera responsable, de manera
16:00 ética, de manera segura y respetuosa de
16:02 los derechos humanos. Y justamente sobre
16:05 estos principios es que vamos a hablar
16:08 en esta segunda sesión del ciclo de
16:11 formación. Entonces, para que entremos
16:14 en materia, vamos a decir que Colombia
16:17 es el primer país que adoptó las guías
16:19 de UNESCO para el uso de la inteligencia
16:21 artificial en poderes judiciales. Y eso
16:24 lo hicimos a través del reciente acuerdo
16:25 del 16 de diciembre del año pasado, el
16:27 acuerdo 12 eh
16:30 243, a través del cual adoptamos esos
16:33 lineamientos para el uso y
16:34 aprovechamiento de la inteligencia
16:36 artificial en la rama judicial. El
16:38 acuerdo tiene entonces solo 3 meses de
16:41 vigencia, pero vale la pena decir que en
16:44 el Consejo Superior de la Judicatura
16:46 llevamos trabajando con mucha intensidad
16:48 en este tema de la inteligencia
16:49 artificial desde finales del año 2023,
16:54 cuando el tema de la inteligencia
16:55 artificial empezó a tomar más fuerza en
16:57 todas las agendas del sector público.
17:00 momento también en el cual el gobierno
17:01 nacional empezó a hablar de lo mismo, de
17:03 una política nacional de inteligencia
17:05 artificial que más menos al tiempo
17:08 terminó con lo que con el COMPES, más o
17:11 menos al tiempo, digo, el acuerdo
17:12 nuestro eh terminó con el COMPES 414 que
17:16 se expidió en febrero de este año. Y por
17:20 supuesto, los servicios de
17:21 administración de justicia se han
17:24 visualizado con un gran potencial para
17:26 el uso de la inteligencia artificial,
17:28 pero por la naturaleza misma del
17:30 servicio también ha suscitado unas
17:33 reflexiones éticas y de garantías de
17:35 derecho por las las implicaciones que
17:39 pueda tener este estas tecnologías en el
17:42 acceso a la justicia, en el debido
17:45 proceso, en la igualdad, en la
17:47 protección de datos personales. y
17:49 sensibles y muchos otros derechos
17:50 asociados directamente a la
17:52 administración de justicia. Por eso es
17:55 que eh uno de los propósitos del Consejo
17:58 Superior de la Judicatura durante el año
18:00 2024 fue apostarle a construir la
18:04 estrategia que denominamos justicia LAP
18:07 en la rama judicial, que eh recoge
18:10 distintos propósitos de innovación en el
18:12 proceso de transformación digital que
18:15 estamos adelantando y que incluye, por
18:17 supuesto, a la inteligencia artificial.
18:21 Con estos esfuerzos y como lo iniciamos
18:24 hoy podemos decir con mucho orgullo que
18:27 la rama judicial en Colombia se ha
18:30 convertido en un referente de la región
18:32 por los avances que hemos tenido en esta
18:34 estrategia. eh eh que en lo que se
18:38 refiere a inteligencia artificial en
18:41 concreto gira alrededor de tres grandes
18:43 frentes. Primero, poder promover el
18:46 conocimiento y las capacidades en los
18:49 servidores judiciales en estos temas.
18:51 ciclos como estos o capacitaciones como
18:54 las que hicimos el año eh pasado
18:56 permiten que los servidores judiciales
18:58 estén familiarizados con el tema de la
19:00 inteligencia artificial, que sepan qué
19:02 es y qué no es la inteligencia
19:04 artificial, las potencialidades, los
19:07 riesgos que puede tener aplicarla en en
19:09 el desarrollo de los procesos
19:10 judiciales.
19:12 Y en sesiones como estas y como las
19:14 capacitaciones que hicimos el año pasado
19:16 y como las capacitaciones que esperamos
19:17 seguir adelantando, pues hemos
19:19 aprovechado mucho las alianzas con las
19:22 universidades, con la UNESCO y por
19:24 supuesto que estamos generando nuestras
19:26 propias capacidades para, como les digo,
19:29 promover el conocimiento y las
19:31 capacidades de los servidores
19:33 judiciales. En segundo
19:35 lugar, el otro gran frente de esta
19:39 estrategia es la experimentación y el
19:42 uso de soluciones basadas en
19:44 inteligencia artificial. E por qué?
19:47 Porque si queremos que la inteligencia
19:48 artificial tenga un impacto positivo en
19:51 los tiempos de los procesos, en el
19:54 trámite de los procesos, en el acceso a
19:56 la justicia, tenemos que empezar a
19:58 probar y a ver qué funciona y qué no
20:01 funciona para la rama judicial. Eh, y en
20:04 este punto específico de ensayar, hemos
20:07 trabajado de la mano con aliados como
20:09 Microsoft para para el uso institucional
20:13 del asistente de inteligencia artificial
20:15 Copilot y actualmente estamos trabajando
20:18 con jueces y magistrados en un
20:19 laboratorio de
20:21 experimentación con eh la herramienta de
20:24 asistencia jurídica Ariel.
20:27 Y en tercer lugar, nuestra tercera línea
20:29 de acción tiene que ver precisamente con
20:33 el marco eh regulatorio o los
20:36 lineamientos de uso responsable y seguro
20:38 de inteligencia artificial, que
20:40 seguramente hasta la fecha sea el
20:41 producto más importante en este frente
20:44 que es el acuerdo 12 243 del 16 de
20:47 diciembre de 2024. Los lineamientos que
20:51 se materializaron a través del acuerdo
20:53 fueron producto de un proceso muy
20:57 interesante de construcción
20:58 participativa con distintos actores
21:01 durante todo el año 2024 que lideramos
21:03 desde el Consejo Superior de la
21:04 Judicatura a través de de un equipo de
21:08 trabajo muy comprometido en estas en
21:11 estas en estos temas y en estas tareas y
21:14 tuvimos como referentes principales para
21:17 construir ese ese acuerdo
21:20 Por supuesto, la sentencia de la Corte
21:22 Constitucional, la
21:24 T323 de 2024, que sentó las primeras
21:28 pautas sobre el uso de herramientas de
21:29 inteligencia artificial generativa en
21:32 procesos judiciales. Además, también
21:35 tuvimos en cuenta, como lo decía al
21:37 principio, los estándares
21:39 internacionales, principios y guías de
21:41 la OGDE, de la UNESCO, la Comisión
21:45 Europea para la eficacia de la justicia,
21:47 que fueron unos referentes muy
21:48 importantes porque reflejan la visión no
21:51 solamente internacional, sino el enfoque
21:54 de derechos y garantías que es el que
21:56 queremos hacer prevalecer y en la
21:59 administración de justicia en Colombia.
22:01 Este acuerdo entonces, además de adoptar
22:04 principios tendientes a la aplicación de
22:07 buenas prácticas, a reflejar allí la
22:10 forma como el mismo acuerdo se construyó
22:12 de gobernanza colaborativa y la mejora
22:15 continua en la implementación de la
22:17 inteligencia artificial en la rama
22:19 judicial. Eh, además de eso, entonces,
22:22 eh incluyó principios orientados a la
22:24 primacía de los derechos fundamentales,
22:26 al control humano y la no sustitución de
22:29 la racionalidad. la transparencia y la
22:33 protección de los datos, que fueron los
22:36 elementos que más se resaltaron durante
22:38 el proceso de construcción de la norma.
22:40 Y a partir de ese enfoque y de esos
22:43 seguimientos, el acuerdo empieza a
22:45 desarrollar una serie de reglas,
22:47 deberes, de buenas prácticas para el uso
22:50 en concreto de la inteligencia
22:52 artificial en la actividad judicial. E
22:55 este acuerdo entonces eh en tanto se
22:59 dirige a la actividad
23:00 judicial, aplica de manera obligatoria a
23:04 los magistrados, a los jueces y a los
23:07 empleados de todas las
23:09 jurisdicciones y especialidades de de la
23:12 justicia, así como a los empleados del
23:15 orden administrativo de la rama
23:16 judicial, como somos nosotros en el
23:18 Consejo Superior de la Judicatura, en la
23:19 Dirección Ejecutiva de Administración
23:21 Judicial y en las en los consejos y
23:23 direcciones eh seccionales eh siendo
23:27 obligatorios para nosotros. El acuerdo
23:29 entonces plantea también que esos
23:31 requisitos en tanto esos principios en
23:34 tanto están orientando la actividad
23:36 judicial, también tendrán que servir de
23:38 orientación y referencia para los demás
23:41 actores que están involucrados en los
23:42 servicios de justicia, que eh son los
23:45 abogados, litigantes, entidades con
23:47 funciones jurisdiccionales, por ejemplo,
23:49 las superintendencias o la jurisdicción
23:52 especial para la paz que participaron
23:54 también los invitamos a participar en
23:56 las mesas de trabajo precisamente ente
23:58 porque son actores del sistema de
23:59 justicia y que eh obviamente al igual
24:02 que los jueces estaban esperando estos
24:04 lineamientos como referentes para
24:07 desarrollar las actividades en sus
24:08 propios ámbitos.
24:11 Eh, entonces entrando en concreto sobre
24:15 el contenido del acuerdo, el acuerdo
24:19 prevé una serie de deberes a cumplir por
24:22 los servidores judiciales que decidan
24:24 usar las herramientas de inteligencia
24:26 artificial para el cumplimiento de sus
24:27 funciones. Estos deberes están en línea
24:30 con lo dispuesto en la en la sentencia
24:32 eh de la Corte Constitucional. Eh, y se
24:36 definen estos deberes en relación con,
24:38 primero que todo, vamos a a a ubicarlo
24:41 en en tres grandes bloques. Primero,
24:46 analizar eh sobre sobre la idoneidad del
24:50 uso de la inteligencia artificial,
24:52 analizar si realmente usar la
24:54 inteligencia artificial es lo más idóneo
24:58 para apoyar determinada tarea o
25:00 actividad. Esto es lo que se denominó
25:04 como el desarrollo de la carga de
25:06 idoneidad. Hm. ¿Qué significa esto?
25:08 Entonces, es tener en cuenta que quizás
25:11 en algunas ocasiones eh la inteligencia
25:15 artificial generativa esté sobrevalorada
25:18 frente a otras herramientas que
25:20 seguramente más básicas, pero que aún
25:22 siendo más básicas, de pronto puedan
25:24 ayudar de mejor manera o de mejor de
25:26 manera más eficiente a resolver las
25:29 necesidades que tengan los servidores
25:30 judiciales. Por ejemplo, en temas de
25:33 automatizar flujos o tareas, a veces
25:36 algunas aplicaciones que ya tenemos en
25:39 nuestra su de Microsoft, que es la que
25:40 usa la rama judicial, eh, por ejemplo,
25:43 como Power Automate, puede podría
25:45 funcionar mejor y más rápido que hacer
25:49 todo un despliegue de una herramienta
25:50 compleja de inteligencia artificial. Eh,
25:53 y por eso estos cursos son importantes
25:55 en los ciclos en los ciclos posteriores.
25:57 Seguramente que vamos a a mostrarles hm
26:01 otras herramientas, eh explicar un
26:04 poquito herramientas de inteligencia
26:05 artificial y los mismos servidores
26:07 judiciales ya están empezando a conocer
26:09 cada vez más sobre esto. De tal manera
26:11 que eh el servidor judicial que quiera
26:13 usar oficial tiene que indagar y tiene
26:17 que informarse para ver cuál es la
26:21 herramienta más idónea para solventar su
26:23 problema e identificar si es o no es la
26:26 inteligencia artificial. Y ese análisis
26:29 sí que tiene que ver con el siguiente
26:32 bloque eh de principios que tiene que
26:35 ver o con el uso informado de las
26:38 herramientas de inteligencia artificial.
26:41 Es decir, que los servidores judiciales
26:44 y los usuarios y los abogados, como
26:46 decíamos, se informen sobre para qué
26:49 realmente sirve la herramienta y qué
26:52 limitaciones tienen frente a la tarea
26:55 que voy a a a atender. Por ejemplo, si
26:59 es una herramienta que tenga riesgos de
27:01 errores en sus resultados, pues habrá
27:03 que analizar si esa es una herramienta
27:06 que vale la pena usar o si de pronto la
27:09 puedo usar, pero las revisiones
27:11 posteriores que tengo que hacer son
27:13 complejas, son demoradas, eh de eh o
27:16 riesgosas en realidad con los
27:18 resultados. eh y entonces de pronto
27:20 decir que mejor descarto esa
27:22 herramienta, lo cual implica informarse
27:26 sobre qué es lo que la herramienta hace.
27:29 Eh, y normalmente las herramientas de
27:32 inteligencia artificial en sus términos
27:33 y condiciones de uso traen la
27:35 información sobre eso. Entonces, es muy
27:38 importante que el servidor judicial no
27:40 se deje llevar por salió esta nueva
27:42 herramienta y la empiece a usar, sino
27:43 que eh valore qué es lo que esa
27:46 herramienta puede servir, para qué le
27:48 puede servir, qué limitaciones tiene,
27:51 qué particularidades tiene antes de
27:54 empezar a usar en su actividad judicial.
27:57 Y en tercer lugar, eh una muy
28:01 importante, quizás la más diría yo, es
28:04 que eh se tiene que mantener el control
28:08 humano. Eso es lo que se está diciendo
28:11 en tantos escenarios y es que no podemos
28:14 sustituir la racionalidad humana con la
28:18 inteligencia artificial y eso se traduce
28:20 en que todo servidor judicial tiene que
28:22 contrastar y verificar la veracidad y la
28:26 suficiencia de los resultados que
28:28 obtenga por la herramienta de
28:30 inteligencia artificial generativa que
28:32 decida usar después de haber revisado si
28:34 es la mejor, después de haber revisado
28:36 cuáles son los riesgos y en cualquier
28:38 caso,
28:39 cuando produzca la inteligencia
28:40 artificial el resultado, eh el ser
28:43 humano tiene que validar lo que la
28:45 inteligencia artificial señaló. Eso
28:47 realmente en temas de justicia
28:49 seguramente que sea lo que más garantía
28:52 puede dar al ciudadano que acude al
28:54 sistema de justicia.
28:56 E para continuar, entonces, hm hay unos
29:00 condicionamientos muy importantes en el
29:03 acuerdo, algunos de los cuales sabemos
29:06 que han generado algunas controversias,
29:08 algunas inquietudes. Hay quienes dicen
29:10 que lo que pusimos en el acuerdo eh tal
29:12 vez no, pero nosotros al analizarlo y en
29:15 las mesas de trabajo en las que
29:17 construimos este acuerdo eh encontramos
29:20 que atendidos los fines que la la
29:23 justicia tiene que preservar eh y con
29:26 base en los avances en que nos
29:28 encontramos actualmente en la
29:30 tecnología, pues consideramos que lo que
29:32 se plasmó en el acuerdo es lo que por
29:35 ahora debería regir esta actividad. Sin
29:37 perjuicio, por supuesto, de que más
29:40 adelante eh pueda haber unas análisis,
29:42 unas consideraciones distintas que hagan
29:44 variar eh el acuerdo. Y esto es
29:46 importante porque el acuerdo no es una
29:48 letra eh eh muerta grabada en piedra,
29:51 sino que se tendrá que ir moviendo en la
29:52 medida en que la tecnología se mueva, en
29:54 la medida en que las realidades de la
29:55 justicia cambien. Eh, y sabemos que son
29:58 más rápidos, quizás nosotros más lentos,
30:00 pero eh por ahora lo que está planteado
30:02 en el acuerdo es lo que consideramos lo
30:04 más garantista y eh lo más eh cercano a
30:08 a al servicio de administración de
30:10 justicia. Entonces, ¿qué es eso? Por un
30:14 lado, eh establecimos que se debe evitar
30:19 el uso de chatbots generales o
30:22 comerciales de inteligencia artificial
30:25 en sus versiones gratuitas.
30:27 Eh, porque sabemos que hay versiones
30:30 licenciadas eh licenciadas o pagas que
30:34 pueden ofrecer unas mejores condiciones
30:36 de uso y de seguridad que las versiones
30:39 gratuitas. Entonces, en ese análisis que
30:42 los jueces y los y los servidores
30:43 judiciales tienen que hacer de las
30:45 herramientas, lo que el acuerdo dice es
30:47 trate de evitar los chatbots eh
30:51 comerciales gratuitos. Por otro lado,
30:55 establecimos que es importante
30:58 prescindir de herramientas de
31:00 inteligencia artificial que no permitan
31:02 conocer el origen o procesamiento de los
31:04 datos usados para su
31:06 entrenamiento. Eh, y en muchos
31:09 escenarios se nos ha dicho que eso es
31:11 imposible, que todos los sistemas, eso
31:14 la inteligencia artificial va
31:15 aprendiendo, que nunca vamos a poder
31:17 conocer el origen o procesamiento de los
31:18 datos. Pero también hemos oído expertos
31:20 diciéndonos que dado el el riesgo de
31:24 esta actividad, pues sí hay unos casos
31:27 de uso muy especiales, eh sobre todo los
31:31 que están ligados a los procesos de
31:33 decisiones en donde el origen y el
31:36 procesamiento de los datos eh pues es
31:38 importante para poderlo aplicar a esos
31:41 usos. Y ese fue el camino que seguimos
31:44 desde el Consejo Superior de la
31:45 Judicatura.
31:47 Eh, lo tercero es el deber de
31:50 abstenerse, de introducir datos
31:53 personales o información sensible o
31:55 confidencial, eh, cuando las
31:57 herramientas se apropien de esos datos
31:59 para compartirlos o reentrenar sus
32:01 modelos. E esto lo que lo que lo de lo
32:05 que nos está protegiendo es de de de ese
32:09 riesgo de que los datos de un expediente
32:12 judicial y de las personas que están
32:14 inmersas en un conflicto empiecen a
32:16 rodar por las redes. Y eso es un deber
32:19 muy importante que el servidor judicial
32:21 tiene que estar en la capacidad de eh
32:24 valorar. No es que me llegue a mí como
32:27 jueza, si yo fuera jueza, el expediente
32:29 y yo sin más monto todos los documentos
32:32 en en la inteligencia artificial y le
32:34 digo, "Bueno, con esto que me mandaron,
32:36 ¿usted cómo me proyecta eh el
32:39 autoadmisorio de la demanda?" Y ahí
32:40 están las cédulas, los datos, datos
32:42 personales, direcciones, identificación
32:45 de menores eh de menores de edad, eh y
32:49 bueno, los datos de eh personales de
32:52 quienes están en el conflicto, de manera
32:54 que hay que ser muy cuidadosos. Eh, los
32:57 servidores judiciales tienen que ser muy
32:58 cuidadosos porque sí, la herramienta de
33:00 inteligencia artificial nos permite
33:02 muchas cosas, pero muy cuidadosos en
33:04 meter esas informaciones en los sistemas
33:07 eh de inteligencia artificial con todos
33:09 los datos. Eh eh y por supuesto que
33:12 nosotros estamos en en un ejercicio de
33:14 generar también herramientas de
33:16 anonimización, pero eh
33:18 eh eso eso está pasado también por el
33:22 control y por la responsabilidad que los
33:23 servidores judiciales tienen que tener
33:25 sobre la información personal de las de
33:28 las de las de quienes estén eh en un
33:31 conflicto y estén acudiendo a la rama
33:32 judicial para resolverlo.
33:35 Por otro lado, también en en el acuerdo,
33:38 en el artículo 8, se establecen unos
33:40 deberes de abstenerse, usar la
33:42 inteligencia artificial para temas eh
33:46 temas cruciales, diríamos que terminan
33:48 impactando la toma de decisiones de
33:51 fondo en el proceso judicial. Entonces,
33:53 ¿qué quiere decir esto? Quiere decir que
33:55 no podemos utilizar la inteligencia
33:57 artificial para valorar las pruebas,
34:01 para realizar los juicios de valor y
34:02 para solucionar el problema jurídico del
34:05 asunto. Eh, porque pues eso está pegado
34:07 de de ese otro principio de sustituir la
34:09 racionalidad humana. Eh, y también la eh
34:12 esto es un una deber que tiene que está
34:16 muy bien eh tratado por la sentencia de
34:19 la Corte Constitucional y es que tampoco
34:21 se puede utilizar la inteligencia
34:22 artificial para motivar las decisiones,
34:25 para aplicar la normativa o para adoptar
34:28 las decisiones eh exclusivamente a
34:32 partir de las respuestas de la
34:34 inteligencia artificial.
34:38 Em, lo cual es evidente por todo lo que
34:40 les he dicho, ¿no? Luego es que se
34:43 regula se reguló también en el acuerdo
34:46 un tema fundamental relacionado con la
34:48 manera de materializar el principio de
34:51 transparencia. Es decir, que incluimos
34:54 el deber que tienen todos los servidores
34:56 judiciales de informar expresamente en
34:59 sus decisiones, en sus fallos, en sus
35:01 autos que están usando o que hicieron
35:04 uso de la inteligencia artificial
35:06 generativa. Esto obviamente que fue muy
35:09 debatido en las mesas de trabajo con los
35:11 servidores judiciales, quien quien
35:14 quienes argumentaban que había que tener
35:16 un poquito de equilibrio, que eso era
35:17 muy eh muy exigente eh poner que yo usé
35:22 la inteligencia artificial para hacer un
35:23 resumen o que usé la inteligencia
35:25 artificial para buscar una
35:26 jurisprudencia, bueno, para lo que
35:27 fuera. Eh, y que no se justificaba que
35:31 cualquier uso eventual de la
35:33 inteligencia artificial tuviera que
35:34 manifestarse expresamente en la
35:36 decisión.
35:37 Eh, de manera que con todas las
35:40 discusiones que tuvimos
35:41 finalmente el criterio que se fijó en el
35:45 acuerdo fue que el deber de
35:47 transparencia aplica en especial cuando
35:50 se trate de actividades que terminan
35:53 impactando y reflejándose en los
35:55 procesos de adopción y emisión de
35:57 decisiones
35:58 sustanciales. Entonces, eso qué es, y
36:03 permítanme lo coloquial, ¿eso cómo se
36:05 come? Lo que pusimos en el acuerdo
36:08 fueron esas actividades chiquitas que
36:11 materializan ese eh deber de
36:14 transparencia para eh para tranquilidad
36:18 de de la ciudadanía, de los usuarios y
36:21 para cumplir con las orientaciones que
36:23 nos daba la Corte en la sentencia 323.
36:26 Entonces tienen que hacer tienen los
36:28 servidores judiciales tienen que hacer
36:30 eh explícito en el expediente, en la
36:33 carpeta, en la actuación, en el
36:34 documento, en la decisión, etcétera, lo
36:37 siguiente. El nombre de la herramienta
36:39 usada, modelo y empresa proveedora, la
36:42 fecha en que fue usada la herramienta,
36:45 eso tiene que ver con las distintas
36:46 versiones que van saliendo
36:47 constantemente, entonces incluir la
36:49 fecha en que fue usada. eh manifestar
36:52 que leyeron, entendieron y aceptaron los
36:54 términos y condiciones de uso, que al
36:56 final concreta el el principio que les
36:59 señalaba atrás de eh hacer un uso
37:03 informado de las herramientas,
37:05 manifestar para qué fue empleada y cómo
37:08 fue usada la herramienta eh eh y los
37:11 prompts o las instrucciones que le
37:14 dieron, se le dio a la inteligencia
37:15 artificial para eh para el caso en
37:19 concreto. Y finalmente, identificar
37:22 mediante comillas, negrillas, cualquier
37:24 sistema que nos permita identificar
37:26 claramente cuáles fueron los resultados
37:29 o los productos de la inteligencia
37:31 artificial que se reprodujeron o
37:33 transcribieron en la decisión o en la
37:35 actuación, justamente para no hacer
37:38 pasar como de autoría propia los textos
37:41 elaborados por eh eh las herramientas de
37:44 inteligencia artificial eh
37:47 generativa. Entonces, en el marco de
37:49 esos principios, de esos deberes o
37:51 prohibiciones, como lo quiera ver, el
37:54 acuerdo eh establece, llamémoslo de
37:57 alguna manera, una categorización de los
38:00 usos posibles de herramientas de
38:02 inteligencia artificial por parte de los
38:04 servidores judiciales, jueces y
38:05 empleados en el cumplimiento de sus
38:07 labores. Y no quisiera profundizar mucho
38:11 en esto porque justamente la sesión
38:14 siguiente de este ciclo que es el 11 de
38:16 abril tratará expresamente sobre los
38:19 casos de uso. manera que los invitamos a
38:22 que no se pierdan porque se va vamos a
38:24 detallar mucho más cuáles son los casos
38:25 de uso de la inteligencia artificial,
38:27 pero solo como a manera de abrebocas
38:30 habría que decir que el acuerdo prevé
38:32 una primera categoría de usos muy
38:35 operativos, muy administrativos,
38:38 digamos, los más los más eh sí
38:41 operativos es la expresión correcta. una
38:43 segunda categoría que va más allá de la
38:47 de ese apoyo puramente administrativo y
38:48 que incursiona en unos aspectos más
38:50 ligados a la gestión misma del proceso
38:53 judicial y que en consecuencia demandan
38:56 una mayor atención y una mayor eh
38:58 revisión por parte del servidor
39:00 judicial. y una tercera categoría de
39:03 usos de la inteligencia artificial, eh,
39:06 que es la que exige mayor rigor de
39:08 transparencia, mayor responsabilidad eh
39:12 y muchísimo más eh ojo por parte de los
39:14 servidores judiciales eh que tiene que
39:17 ver
39:21 hiciones de fondo en los procesos
39:23 judiciales.
39:25 El resto del acuerdo del acuerdo del
39:29 consejo se dedica a establecer unas
39:32 directrices para implementar proyectos
39:34 institucionales más transversales en la
39:36 rama judicial que se basen en
39:39 inteligencia artificial. Porque como
39:42 decíamos incorporar en otros escenarios
39:45 decíamos que incorporar la inteligencia
39:47 artificial a la rama judicial exige,
39:50 digamos, una transformación muy grande
39:53 de los procesos, de las herramientas, de
39:55 la manera como estamos pensando. Y
39:58 seguramente eso sean aspectos muchísimo
40:01 más técnicos de los que de los que no
40:03 voy a hablar hoy, porque también tenemos
40:05 una sesión, la última, la del 25 de
40:07 abril, en la que vamos a hablar sobre
40:09 ese modelo de gestión de los proyectos y
40:11 de soluciones de inteligencia artificial
40:13 en la rama judicial con un enfoque de
40:15 innovación, proceso que es liderado todo
40:18 por la unidad de transformación digital
40:20 eh e informática del Consejo Superior de
40:22 la Judicatura, que al final es la unidad
40:24 a la que le encargamos la tarea de
40:26 articular de coordinar y de hacer
40:28 seguimiento a todo este tipo de
40:30 proyectos
40:31 institucionales. Eh, y eso justamente lo
40:34 hacemos para poder asegurar un proceso
40:36 uniforme en toda la rama judicial, que
40:38 se basa en buenas prácticas, que
40:41 aproveche las alianzas estratégicas que
40:43 estamos movilizando con distintos
40:45 actores y sobre todo para que podamos
40:49 cumplir con todas estas directrices para
40:51 el uso de las herramientas de
40:52 inteligencia artificial. En todo caso,
40:56 eh el acuerdo que estamos mirando es eh
40:59 ese primer instrumento de gobernanza de
41:02 la inteligencia artificial en la rama
41:04 judicial, que como les decía al
41:06 principio, eh está en constante proceso
41:09 de mejoramiento. Estamos reflexionando
41:12 cada vez más sobre en esos escenarios.
41:14 Los expertos nos hacen eh unas unas
41:17 reflexiones que estamos valorando, que
41:19 seguimos discutiendo eh porque sabemos
41:22 que estos temas son evolutivos, no se
41:24 quedan ahí y como les digo, la
41:25 tecnología va muchísimo más rápido que
41:27 nosotros, de manera que eh eh este
41:30 primer acuerdo eh siempre será posible
41:34 eh mejorarlo eh y estar más más a tono
41:38 con lo que se vaya eh discutiendo en el
41:41 mundo y en Colombia sobre el tema de la
41:43 inteligencia. artificial. Entonces, eh
41:46 dejo hasta acá mi intervención para
41:48 darle paso a Juan David, Juan David
41:50 Gutiérrez, que que nos ha acompañado de
41:54 manera muy cercana en este proceso en la
41:57 rama judicial. Gracias, Juan David. Eh,
41:59 y él nos va a
42:01 profundizar los elementos sobre la guía
42:04 de inteligencia artificial para poderes
42:06 judiciales de la UNESCO y nos va a hacer
42:09 una reflexión sobre la estrategia y los
42:12 lineamientos de uso de la inteligencia
42:13 artificial en la rama judicial
42:15 colombiana. Juan David, muchísimas
42:17 gracias y muchas gracias a todos los que
42:20 están conectados de nuevo.
42:23 Bueno, muy muy buenos días,
42:27 doctora Diana. Muchas gracias. Como
42:29 usted bien lo ha dicho, le vamos a dar
42:31 paso al Dr. Juan David Gutiérrez. Él es
42:33 profesor de la Universidad de los Andes
42:35 y él nos va a hablar todo lo que tiene
42:38 que ver con las guías recientes que la
42:40 UNESCO ha puesto sobre el uso ético de
42:43 la inteligencia artificial. De esta
42:45 manera le doy paso al Dr. Juan David.
42:47 Adelante. Muchas gracias. Ahora sí,
42:49 buenos buenos días para todos, todas.
42:51 Qué gusto estar acá. Muchas gracias,
42:53 doctora Remolina, por esta invitación.
42:54 Muchas gracias a todo el Consejo
42:55 Superior de la Judicatura por hacer
42:56 posible no solo este evento, sino todos
42:59 los demás que ya se han realizado y los
43:01 que vienen. Es es muy importante este
43:03 ejercicio
43:05 de esparcir la voz, esparcir la voz
43:08 sobre cuáles son las utilidades de estas
43:11 herramientas en la administración de
43:12 justicia, pero también cuáles son sus
43:13 limitaciones, cuáles son los cuidados
43:15 que hay que tener. Yo creo que no
43:17 debemos escatimar esfuerzos para para
43:21 hacer ese trabajo porque realmente así
43:24 como la tecnología va muy rápido,
43:26 nosotros no necesariamente tan
43:28 rápidamente nos hemos ido familiarizando
43:31 y es muy importante tanto para maximizar
43:34 todos los beneficios que pueden tener
43:35 estas herramientas como para prevenir
43:37 daños. Las herramientas tecnológicas,
43:40 sobre todo si son muy poderosas, pues
43:43 deben tener esa doble visión de cuáles
43:45 son los beneficios y cuáles son los
43:47 efectos que queremos
43:49 prevenir. Y bueno, yo precisamente
43:52 quiero compartirles eh un poquito sobre
43:55 el proceso de la las directrices de la
43:59 UNESCO sobre uso de inteligencia
44:02 artificial por parte de jueces y
44:04 tribunales. Yo estoy compartiendo ptaña,
44:07 me imagino que en este momento ya la
44:08 están viendo y e voy a contarles primero
44:12 sobre las directrices mismas y luego
44:14 vamos a hablar sobre el uso de sistemas
44:16 de inteligencia artificial en la rama
44:17 judicial en América del Caribe. Quiero
44:18 contarles un poquito sobre eso y al
44:20 final cierro con lo que nos contaba la
44:23 doctora Remolina de una reflexión sobre
44:25 este acuerdo eh que adoptó la justicia
44:29 colombiana a finales del año pasado.
44:31 También he estado revisando los
44:33 comentarios que veo en YouTube. Veo que
44:35 en este momento hay casi 700 personas
44:36 conectadas. He visto todo tipo de
44:38 comentarios. Yo creo que alcanzar a
44:39 reaccionar algunos precisamente para
44:41 poder hacer como más interesante mi
44:43 charla. Entonces, bueno, primera tema,
44:46 los sistemas de inteligencia artificial
44:47 se pueden usar para muchas cosas. Por
44:49 aquí alguien en el chat decía, "No, pero
44:51 la si solo se va a usar para redactar
44:53 sentencias no sirve."
44:55 Bueno, la verdad es que los sistemas de
44:56 inteligencia artificial, como pueden ver
44:57 ustedes en las diapositivas que que
44:59 espero les compartan, e realmente se
45:03 pueden usar para diferentes etapas de eh
45:07 el ciclo de la administración de
45:09 justicia, tanto en la gestión como en en
45:13 incluso etapas ya de
45:16 escritura. Por aquí en el en el en en
45:19 YouTube están diciendo que no se ve la
45:20 pantalla. Alguien que me ayude porque yo
45:23 sé que estoy compartiendo pantalla por
45:25 la aplicación. Nosotros estamos usando
45:27 una aplicación, pero por algún motivo no
45:29 lo están viendo. Bueno, e sigo.
45:33 Entonces, el el el punto central es
45:37 muchas muchas eh
45:38 funciones. Ciertamente no todos es
45:41 chatbots. Puede que todos tengamos la
45:43 posibilidad de acceder a un chatbot en
45:44 nuestro celular, en nuestro computador y
45:45 además son herramientas que tienen
45:47 versiones gratuitas, pero realmente hay
45:49 muchas funcionalidades. Algunas de esas
45:52 funcionalidades dependen de que el
45:55 usuario o la organización de la que hace
45:57 parte pues adquiera licencias. Por eso
45:59 yo vi que algunos de ustedes
46:01 preguntaban, bueno, y pero vamos a tener
46:03 herramientas adicionales o cómo podemos
46:04 acceder. Bueno, lo que ha hecho muchas
46:07 de las jurisdicciones alrededor del
46:09 mundo, incluida la rama judicial
46:11 colombiana, como lo vamos a hablar, es
46:12 desarrollar sus propias herramientas.
46:14 desarrollar herramientas propias que
46:16 precisamente eh estén a la mano de todos
46:19 o la mayoría de los servidores
46:21 judiciales. Ahora sí, afortunadamente,
46:23 están viendo las diapositivas. Muchas
46:24 gracias. Entonces, aquí están viendo
46:26 este listado de nueve diferentes tipos
46:28 de tareas que se pueden hacer con los
46:29 herramientas de inteligencia artificial,
46:30 que ni es solo redactar sentencias ni
46:33 mucho menos, sino que son muchas tareas.
46:35 Bueno, sigo adelante. Eh, las
46:38 directrices de la UNESCO parten de un
46:39 trabajo de muchos años de la UNESCO.
46:41 hace muchos años que la UNESCO tiene un
46:43 programa de inteligencia artificial y
46:46 estado derecho y hay eh digamos esto
46:50 incluso de la creación de un curso
46:52 masivo en línea en los que por el que
46:55 han pasado miles y miles de personas de
46:58 de todo el mundo entrenándose en
47:00 aspectos básicos sobre inteligencia
47:02 artificial para la administración de
47:04 justicia en el contexto de los estados
47:06 de derecho. De hecho, son cursos
47:09 gratuitos, eh están disponibles en
47:11 diferentes idiomas. Si entran a la
47:12 UNESCO pueden buscar en qué momento se
47:14 pueden enrolar en estos cursos.
47:16 Y también viene un trabajo previo de la
47:18 UNESCO con jueces y operadores
47:21 judiciales de todo el mundo en la
47:23 fortale fortalecimiento de la rama
47:25 judicial eh en las diferentes países y
47:29 continentes. Y en la Universidad de los
47:31 Andes tuvimos el gusto de trabajar con
47:32 la UNESCO para hacer una primera
47:34 encuesta global sobre uso de
47:36 inteligencia artificial por operadores
47:38 judiciales para tener una idea de cómo
47:41 lo jueces y servidores judiciales, sino
47:44 también abogadas y abogadas estaban
47:47 usando herramientas de inteligencia
47:48 artificial, cómo lo estaban utilizando,
47:50 cuáles eran las barreras, cuáles eran
47:51 las percepciones que tenían sobre los
47:54 riesgos y demás asociados al uso de este
47:56 tipo de herramientas en la justicia. Y e
48:00 eso nos dio ideas sobre pues realmente
48:04 en dónde teníamos que trabajar para
48:06 construir unas directrices para darle un
48:09 buen uso a estas herramientas. Les voy a
48:12 dar un ejemplo, un ejemplo muy sencillo.
48:15 En la encuesta salió que uno de los usos
48:18 más comunes que los operadores
48:19 judiciales le dan a los chatbots de
48:21 inteligencia artificiales es buscar
48:23 información y muchas veces buscar, por
48:25 ejemplo, jurisprudencia o
48:27 normas. Y ese es un uso que realmente no
48:31 es muy bueno. Eh, ¿en qué sentido? en
48:33 que por lo menos los chatbots
48:35 comerciales cuando ustedes les piden
48:37 información sobre jurisprudencia o sobre
48:38 normas hay una alta probabilidad de que
48:40 la respuesta sea incorrecta. De hecho,
48:43 eh hay un caso en Brasil eh tristemente
48:46 célebre de un juez que copió y pegó
48:48 respuestas de chat piti sobre
48:50 jurisprudencia brasilera y resulta que
48:52 toda la jurisprudencia era inexistente,
48:54 era una fabulación, era un invento,
48:57 entre comillas, porque no es que el
48:59 chatbota, quisiera engañar al juez, el
49:01 juez simplemente no hizo la tarea de
49:03 verificar que la respuesta de Chargpt
49:06 realmente estuviera soportada en la
49:08 realidad. y el juez copió y pegó en su
49:11 sentencia eh toda esta jurisprudencia,
49:13 inexistencia, gravísimo, ¿verdad? Muy
49:15 grave. que nosotros no queremos que eso
49:16 pase. Entonces, una de las una de las
49:19 tantas recomendaciones que aparece en
49:21 estas directives de la UNEDCU es, bueno,
49:23 si usted va a usar inteligencia
49:24 artificial generativa, tiene un deber
49:27 siempre de verificar que la respuesta
49:30 que encontró sea contrastada con otras
49:33 fuentes que sean fiables. Usted no puede
49:35 dar por sentado que si le responde sobre
49:37 x jurisprudencia o x norma esté bien.
49:41 También ha habido muchos casos en donde
49:44 no responde con jurisprudencia
49:45 inexistencia inexistente, pero alguien
49:48 de Colombia le pregunta por
49:49 jurisprudencia de la Corte Suprema
49:50 Colombiana y el chatbot mezcla
49:52 jurisprudencia de otros países, de
49:54 México, de Perú, de Argentina y le
49:56 termina entregando información que
49:57 parece muy razonable y que y que
49:59 realmente viene de jurisprudencia de
50:01 normas de otros países. Yo he visto ese
50:03 mismo
50:04 ejemplo
50:06 en innumerables jurisdicciones, o sea,
50:09 he visto ejemplos en España, en Bolivia,
50:12 en Brasil, como les decía antes, he
50:15 visto ejemplos en Estados
50:17 Unidos, nadie está libre de eso porque
50:20 pues eh en particular eh los las
50:22 sistemas de inteligencia artificial
50:24 generativa eh tienen esa característica,
50:26 particularmente los modelos comerciales
50:29 eh que todos pueden acceder eh
50:32 gratuitamente. Entonces, eh fíjense que
50:35 pues era muy importante haber partido de
50:37 tratar de entender cómo la gente estaba
50:38 usando los sistemas para luego poder dar
50:40 recomendaciones. Entonces, todo este
50:42 bagaje de la UNESCO eh nos llevó primero
50:45 a plantear unos principios muy básicos
50:48 que eh son tanto para las organizaciones
50:52 que que se encargan de la gobernanza de
50:54 la rama judicial como de las de los
50:57 servidores judiciales mismos. Acá hay un
50:59 punto muy importante y es que eh los
51:03 retos asociados al al uso responsable,
51:06 ético y protector de los derechos
51:08 fundamentales no son solo para la
51:10 persona, no son solo para el juez, no
51:11 son solo para el servidor judicial, son
51:13 para la organización misma. La
51:15 organización misma tiene que hacer cosas
51:17 que los individuos no pueden hacer.
51:19 ejemplo, poner a disposición de los
51:22 jueces eh y y servidores judiciales
51:25 herramientas, pues es algo que solo
51:27 puede hacer la organización, ¿verdad? No
51:28 lo va a hacer eh nadie más. Y por eso
51:31 nosotros dijimos, pues necesitamos unos
51:33 principios para las organizaciones y
51:35 luego también necesitamos unos
51:36 principios para los usuarios, para las
51:38 personas. Entonces, para las
51:39 organizaciones decíamos, miren, si
51:41 ustedes van a incorporar herramientas de
51:43 inteligencia artificial, asegúrense de
51:44 que esas herramientas sean protectoras
51:47 de los derechos fundamentales, porque
51:48 ustedes tienen una función pública y
51:49 tienen un deber acentuado de respeto,
51:52 protección y promoción de los derechos
51:54 fundamentales en diferentes asuntos.
51:56 Ustedes eh ahí están viendo eh cuatro eh
52:00 dimensiones, equidad, no discriminación,
52:01 deo proceso, protección de datos
52:03 personales, que son derechos
52:04 fundamentales que están en juego en
52:06 prácticamente cualquier proceso
52:07 judicial. Todos están en juego. Eh, y
52:10 les voy a dar un ejemplo. Si se
52:12 organización rama judicial, si usted va
52:14 a adoptar una herramienta, usted tiene
52:16 que asegurarse de que esa herramienta eh
52:18 no ponga en riesgo la confidencialidad
52:20 de la información, que no ponga en
52:23 riesgo que si una persona introduce
52:26 información del proceso que es
52:27 confidencial, pues que quede eh abierta
52:30 a que cualquiera la pueda lo eh eh
52:34 acceder sin autorización.
52:36 Y eso eso evidentemente puede pasar
52:40 cuando si ustedes usan un chatbot
52:41 gratuito. Si ustedes usan un chatbot
52:43 gratuito y revisan los términos y
52:44 condiciones, esos chatbots, ustedes van
52:46 a encontrar que esos chatbots dicen que
52:48 cualquier información que ustedes
52:49 introduzcan en la instrucción para el
52:51 chatbot va a ser reutilizada por la
52:53 empresa para reentrenar el modelo.
52:55 Entonces, el día de mañana va a haber
52:57 terceros que van a poder acceder a la
52:58 información. Si ustedes introducen
53:00 información confidencial o personal,
53:02 pues están poniendo en riesgo eh uno de
53:04 los niveles más importantes en el
53:06 proceso. Entonces, claro, eso como
53:08 acaban de darse de cuenta, hay un deber
53:10 del usuario de eh no incluir información
53:13 personal o confidencial cuando escribe
53:15 una instrucción en el chatbot, pero al
53:16 mismo tiempo hay un deber de la rama
53:18 judicial que si le va a dar determinadas
53:21 herramientas a sus funcionarios, pues
53:23 que tengan unos niveles de protección.
53:25 Otro principio, que haya una
53:28 proporcionalidad entre los fines y los
53:30 medios eh usados. Aquí hay una eh
53:34 decisión que tiene que tomar cada
53:36 jurisdicción. Les voy a dar un ejemplo
53:39 eh que tiene que ver un poquito menos
53:41 con justicia y un poquito más con la
53:43 etapa previa, digamos, de investigación
53:46 y digamos de de policía y es el uso de
53:50 cámaras para hacer videovigilancia con
53:52 reconocimiento facial en tiempo real.
53:55 Hay lugares del mundo eh como China,
53:59 Rusia, incluso el Reino Unido de Estados
54:00 Unidos, en donde está masificado el uso
54:02 de este tipo de videovigilancia con
54:04 reconocimiento facial. Eh, y eso pues
54:08 implica el uso de sistemas de
54:10 inteligencia artificial. Y hay otros
54:12 lugares como en la Unión Europea donde
54:13 se prohibió, donde la ley de
54:16 inteligencia artificial de la Unión
54:17 Europea dice, "No, nosotros no queremos
54:18 un estado que sea capaz de en lugares
54:20 públicos y en tiempo real vigilar todo
54:23 el tiempo quién es quién y con quién
54:25 está y en dónde está caminando y y y que
54:27 tenga esa nivel de vigilancia. Son
54:30 decisiones democráticas, son decisiones
54:31 de qué tipo de estado y qué tipo de
54:33 relación ciudadano estado quieren tener.
54:35 Entonces, nosotros hacemos una reflexión
54:36 de hagan una ponderación de
54:39 proporcionalidad de los medios que están
54:41 usando con los fines a los que quieren
54:43 llegar con el uso de de las
54:45 herramientas. Bueno, ustedes pueden ver
54:46 que hay eh toda una lista de principios.
54:49 Yo no tengo la casi hora que necesitaría
54:53 para explicarlos uno por uno, eh, pero
54:55 como pueden ver, eh, la exposición que
54:58 hizo la doctora Remolina está muy en
55:01 línea, precisamente con muchos de estas
55:03 necesidades que nosotros identificamos
55:04 en relación con la organización y
55:06 también teníamos unos eh principios ya
55:09 persados en en en las personas y
55:13 comenzamos con la misma idea de siempre
55:15 piensa en términos de cómo proteger los
55:17 derechos personales, los derechos
55:18 fundamentales de las personas cuando
55:19 usar estas herramientas. Segundo, algo
55:22 que reclarcaba la doctora Remolina, si
55:24 usted va a hacer uso de una herramienta,
55:26 hágalo informadamente. Es decir, no use
55:29 una herramienta para algo que tenga
55:30 impacto en los demás si usted no conoce
55:32 la herramienta, si usted no sabe cómo
55:33 funciona, si usted no sabe cuáles son
55:35 las implicaciones, así como usted no le
55:37 pediría a una persona que no sepa
55:39 manejar una tractomula que la maneje y
55:41 lleve algo de un lugar a otro, ¿verdad?
55:43 No, ustedes no harían eso porque eso
55:44 sería muy peligroso. Bueno, lo mismo es
55:46 aquí. Aprendan a usar la máquina antes
55:48 de de usarla en entornos reales, en
55:50 entornos donde hay implicaciones para
55:52 terceros. el uso transparente. Yo por
55:54 aquí veía un comentario que decía, "No,
55:56 ese ese artículo 10 del acuerdo que
55:59 establece que los las personas que usen
56:02 esto para tomar eh decisiones o para
56:05 decisiones sustantivas eh deben ser
56:07 transparentes el que el uso y por aquí
56:09 en el chat nos decían en el chat de de
56:12 eh de YouTube decían, "No, entonces la
56:15 gente no lo va a usar, no va a usar las
56:16 herramientas o va a usarlas y va a decir
56:17 mentiras." Entonces, pues eso es muy eh
56:20 es un poquito preocupante
56:22 porque la los ciudadanos tenemos derecho
56:26 a saber cuando se usen sistemas de
56:28 decisión automatizada que puedan
56:30 implicar afectaciones para nuestras
56:32 vidas. Entonces, por ejemplo, si ustedes
56:34 usar una herramienta que para desgracia
56:37 de ustedes y de los terceros tiene
56:39 sesgos y la herramienta está sesgada
56:41 porque la base de datos con la cual fue
56:43 entrenada está incompleta, está
56:44 desbalanceada y por lo tanto cuando
56:46 ustedes la le solicitan eh realizar una
56:50 función, la función va a ser sesgada
56:53 hacia algún lado, eh pues ustedes pueden
56:56 incurrir un problema de discriminar
56:58 sistemáticamente a personas por cuenta
57:00 de eso. ¿Será que ustedes no van a no
57:04 van a querer informarle a las personas
57:07 cómo fue que llegaron a tomar una
57:08 decisión usando estas herramientas? No.
57:10 La verdad es que los ciudadanos tenemos
57:12 un derecho que se llama el derecho de
57:13 acceso a información pública y además
57:15 tenemos derecho al debido proceso. ¿Y
57:18 cómo nos vamos a defender si no sabemos
57:19 que ustedes usen una herramienta que los
57:21 llevó a tomar determinada decisión?
57:22 Entonces, pues si debe haber un uso
57:24 transparente y si el uso de las
57:26 herramientas legítimo es adecuado, ¿cuál
57:29 es el problema? No hay ningún problema,
57:31 ¿eh? No, que me toca poner un pie de
57:33 página. Bueno, pongamos un pie de
57:35 página, no pasa nada. Yo ya he visto que
57:37 hay muchos que a partir de la sentencia
57:38 T323 del 2024, antes de que hubiera
57:41 salido el acuerdo, ya estaban haciendo
57:42 ese ejercicio un pie de página. Utilicé
57:45 este chatbot para eh hacer que el
57:48 lenguaje fuera más accesible. Magnífico.
57:51 Eso ayuda con el acceso a la justicia,
57:52 que la gente pueda leer y entender
57:54 mejor. Buenísimo. Entonces, la
57:56 transparencia sí es muy importante. La
57:58 supervivión humana, que también la
58:00 recalcó la doctora Diana Ramulena, jamás
58:03 que el sistema de inteligencia
58:05 artificial tenga la última palabra sin
58:06 que nosotros podamos valorar el
58:08 resultado, si el resultado realmente se
58:11 ajusta a lo que queremos, porque estas
58:12 máquinas no son infalibles. Las personas
58:14 que desarrollan estos sistemas,
58:17 particularmente los modelos de
58:18 aprendizaje automático, les van a contar
58:20 que su día a día es refinar la
58:23 herramienta en su error, porque tiene un
58:25 error, siempre tiene un un porcentaje de
58:29 error y todos los días se dedican a
58:31 tratar de bajar ese porcentaje de error,
58:33 pero las herramientas nunca va a llegar
58:35 al 100% de infalibilidad y por eso
58:37 siempre va a haber supervisión humana. Y
58:39 por último, hay que hacerse responsable.
58:41 Hay que hacerse responsable de uno cómo
58:43 uso la herramienta, ¿verdad? No, el día
58:45 de mañana uno puede decir, "Ah, no, es
58:47 que fue chat GPT el que sacó esa
58:49 respuesta y pues el culpable chat GPT."
58:51 No, el culpable no es GPT. Chat GPT es
58:53 una cosa, el culpable es el usuario en
58:56 ese caso, que de pronto no verificó que
58:58 las respuestas realmente fueran
59:01 correctas, acertadas, precisas. Eh, y en
59:03 ese sentido el usuario pues se tendrá
59:05 que ser responsable de de cómo usa los
59:08 sistemas. Entonces, a mí yo creo que se
59:10 me está acabando el tiempo, pero yo
59:11 quiero pues recalcar que pues que sí es
59:14 un hito muy importante para la justicia
59:16 colombiana haber eh alcanzado este
59:18 acuerdo sobre el buen uso de estas
59:21 herramientas. Como lo dice la actora Ra
59:23 Molina, es un documento vivo. Y lo mismo
59:26 ocurre con las directrices de la UNESCO,
59:28 lo mismo, exactamente lo mismo ocurre
59:30 con las directrices de la UNESCO, porque
59:33 a medida que va avanzando la tecnología,
59:35 también va a ser necesario hacer algunos
59:37 ajustes eh en las reglas y puede que
59:39 algunas cosas se vuelvan más estrictas o
59:41 algunas cosas se vuelvan más flexibles
59:43 dado de la base de la tecnología. Eh, y
59:46 eh realmente pues Colombia eh lidera
59:50 este punto al eh y es pionero y y es
59:54 ejemplo para muchos otros países de la
59:55 región. En este momento eh me consta
59:58 porque estamos trabajando a través de la
59:59 UNESCO con ellos. Hay otros países como
60:01 Paraguay, como Uruguay que están
60:03 empezando precisamente a recorrer este
60:05 camino. Y su primera pregunta es, ¿cómo
60:06 lo hizo Colombia? ¿Cómo lo hizo
60:08 Colombia? porque eh las directrices de
60:10 la UNESCO eh pues son muy completas y
60:13 tratan de ser muy detalladas, pero esas
60:14 directrices no buscan reemplazar que
60:16 cada jurisdicción haga su tarea de eh
60:20 tener unas directrices propias que
60:22 estén, digamos, completamente que que
60:25 reflejen su contexto, que reflejen sus
60:28 realidades, digamos, institucionales,
60:31 culturales, de capacidad tecnológica, de
60:34 talento humano. Y como decía la doctora
60:37 Remolina, pues el caso colombiano es muy
60:39 interesante porque hubo una
60:40 participación de de digamos de muchas
60:43 partes, no solo de la rama judicial y de
60:46 hecho no solo del Estado colombiano,
60:49 sino hubo digamos eh mesas de trabajo
60:52 multiactor, hubo talleres eh y realmente
60:56 creo que es un ejemplo muy positivo para
60:58 mostrar, es un motivo para, creo yo,
61:00 para estar orgullosos. Una última, una
61:03 última cuña y es información. Si ustedes
61:06 tienen curiosidad, usted qui saber,
61:08 oiga, ¿cómo encuentro información sobre
61:10 cómo se usan los sistemas de
61:11 inteligencia artificial en
61:11 administración de justicia alrededor del
61:13 mundo? Entonces, hay dos bases de datos
61:16 que quiero contarles rápidamente. Una es
61:17 esta de la Unión Europea, que eh es de
61:20 la Unión Europea, pero realmente mapea
61:22 más de 100 sistemas usados en diferentes
61:24 países del mundo. Pero resulta que en la
61:26 Universidad de los Andes el 18 de marzo
61:28 lanzamos una base de datos
61:30 latinoamericana, una base de datos en
61:32 donde está información sobre todos los
61:35 sistemas de inteligencia artificial que
61:36 usa se usa en el sector público de
61:38 América Latina y del Caribe. Aquí está
61:41 eh el link de la página web
61:43 sistemaspúblicos. Ustedes entran en
61:45 repositorios, hay un repositorio que es
61:47 particularmente sobre sistemas. Aquí
61:48 está. Ustedes entran y ustedes pueden
61:51 filtrar por diferentes variables. Aquí,
61:53 por ejemplo, yo les estoy mostrando una
61:55 foto en donde yo filtré por eh que el
61:58 sistema estuviera en la rama judicial y
62:02 me salen 50 eh 52 sistemas de
62:06 inteligencia artificial adoptados por
62:07 diferentes países de la rama judicial.
62:09 El país que más sistemas tiene es
62:11 Brasil. Brasil realmente es es pionero
62:13 en esto. Eh, pero pues creo que es
62:16 interesante para que ustedes lo mire,
62:17 para que ustedes también empiecen a
62:19 imaginarse el día de mañana la Ramón
62:20 Judicial Colombiana que podría
62:22 desarrollar internamente. Todos son
62:24 todos estos sistemas son eh
62:25 desarrollados internamente por la por la
62:29 respectiva organización de la rama
62:30 judicial de lo digamos el equivalente
62:32 del Consejo Superior de la Judicatura.
62:35 Eh, y eh de pronto le puedo pedir al al
62:38 equipo del Consejo Superior si les
62:39 pueden compartir e el link que por ahí
62:42 lo lo tienen ustedes eh para que la
62:46 gente pueda por su cuenta en algún
62:47 momento entrar y curiosear estos más de
62:50 50 sistemas de inteligencia artificial
62:52 eh que cumplen con todo tipo de tareas
62:54 en Argentina, Brasil, Chile, Colombia,
62:56 México, Uruguay e y que esperamos
62:59 también en Colombia se diversifique
63:01 mucho más el uso eh gracias precisamente
63:04 a los planes que tienen consol superior
63:05 de la catatura y con eso termino. Les
63:07 agradezco mucho, mucho, mucho por este
63:10 espacio. Juan David, pues realmente
63:13 muchas gracias por eh tan importante
63:15 presentación. Nos ha ilustrado muchísimo
63:18 el enlace que usted acaba de presentar
63:21 en la presentación, valga la
63:22 redundancia, lo acabamos de repostear en
63:25 los chats tanto de YouTube como en el de
63:28 la escuela. Eh, acá es importante eh
63:31 informarle a los servidores judiciales
63:32 de la rama judicial que este link lo
63:36 podrán ver a través de sus dispositivos
63:38 personales porque los institucionales,
63:40 como ustedes saben, por normas de
63:41 seguridad no podemos acceder a todos los
63:43 portales. Entonces, por favor,
63:45 guárdenlo, ustedes van a poder hacer uso
63:47 de este link a través de eh eh
63:49 dispositivos personales. Bueno, de esta
63:52 manera doy paso a nuestra siguiente
63:54 conferencista, quien es Agneri Saniel,
63:57 que nos presentará un análisis de la
63:58 evolución de Colombia en materia de
64:00 inteligencia artificial judicial y su
64:03 relación con los antecedentes
64:04 internacionales, destacando el liderazgo
64:06 colombiano en América Latina y la
64:08 diferenciación de su modelo basado en
64:10 derechos frente a lo europeo basado en
64:13 riesgo. Adelante, doctora Agneris.
64:21 Muchísimas gracias por la invitación. Es
64:23 para mí un honor estar aquí con ustedes,
64:25 compartir eh panel con personas tan
64:29 conocedoras de de este tema. Eh, también
64:33 buenas tardes, buenos días, buenas
64:35 noches, eh donde quiera que que nos
64:37 estén escuchando. Mi nombre, como ya
64:40 bien me presentaron, es Agneris Senieri
64:43 y vamos a hablar de lo que Colombia
64:46 tiene que ofrecer para el resto del
64:51 mundo. Muchas veces hemos escuchado
64:54 alrededor de estos debates el impacto
64:57 que tiene la Unión
64:59 Europea en consecuencia a su regulación
65:03 en materia de inteligencia artificial y
65:05 muchas otras que no son materia para
65:07 esta charla. Pero estos enfoques
65:10 regulatorios sirven muchas veces como
65:12 inspiración y sin embargo están muy
65:15 alejados de las realidades y de los
65:18 contextos específicos de cada uno de los
65:20 países, concretamente de América Latina
65:23 y más específico de Colombia. La Unión
65:26 Europea no es la única que tiene un
65:28 enfoque regulatorio. También existen
65:31 países como China cuyos enfoques
65:33 regulatorios son excesivamente
65:36 intrusivos. con la privacidad de las
65:39 personas e imponen una carga de
65:41 obligaciones a las empresas que se
65:43 encargan de proveer este tipo de
65:45 servicios para el gobierno chino.
65:49 Entonces, muchas veces, incluso cuando
65:51 estamos constantemente escuchando de
65:55 nuevas herramientas que utilizan modelos
65:57 de inteligencia artificial, por ejemplo,
65:59 el caso de
66:01 Deepstick, en paralelo escuchamos
66:03 preocupaciones sobre la seguridad de
66:06 estos sistemas y lo que implica
66:09 utilizarlos debido a eh
66:13 esta falta de protección con los datos
66:16 personales y la excesiva intromisión por
66:18 parte del gobierno. Por otra parte,
66:21 también tenemos el enfoque regulatorio
66:24 de Estados Unidos. Este enfoque
66:27 regulatorio muchas veces consiste en una
66:30 libertad casi que absoluta para que los
66:34 sistemas y las empresas que desarrollan
66:36 estos sistemas cuenten con un amplio
66:39 margen de acción que les permita esto
66:42 que constantemente estamos escuchando,
66:44 innovación. De hecho, no es casualidad
66:48 que también escuchemos constantemente a
66:51 grandes empresas de tecnología diciendo
66:53 que el exceso de regulación es
66:57 contraproducente para la innovación.
67:00 Desafortunadamente, innovación muchas
67:03 veces es innovación para las empresas
67:06 que están en Silicon Valley y no tanto
67:09 para las propias empresas o los propios
67:11 proyectos que se desarrollen a nivel
67:13 nacional en otras latitudes del mundo.
67:17 Un cuarto enfoque regulatorio son muchas
67:20 veces los principios no vinculantes que
67:23 surgen a través de organismos
67:25 internacionales como lo son la UNESCO.
67:28 En este caso, la UNESCO ha resaltado un
67:32 esfuerzo constante para promover
67:35 principios, lineamientos que permitan
67:38 abordar estas discusiones en materia de
67:41 tecnologías emergentes y derecho.
67:44 Concretamente las directrices de la
67:46 UNESCO para el uso de Sistemas de
67:47 Inteligencia artificial en juzgados y
67:50 tribunales es materia de discusión el
67:54 día de hoy que que es sumamente
67:56 interesante y más allá de eso también
67:58 existen otros esfuerzos por parte de la
68:00 UNESCO en muchos otros temas.
68:03 A grandes rasgos, este es el panorama
68:06 internacional al que las personas nos
68:08 vemos constantemente expuestas en medio
68:11 de estos debates, que si la Unión
68:13 Europea, que si China, que si Estados
68:15 Unidos, que si una nueva eh regulación,
68:18 lineamientos de la de la OCD, de la
68:21 UNESCO. Entonces, están pasando muchas
68:25 cosas al mismo tiempo y es difícil que
68:28 podamos centrar nuestra atención en una
68:30 discusión y desafortunadamente en
68:33 América Latina nos vemos presionados de
68:37 estos enfoques regulatorios. Hay muchos
68:39 países que eh por alguna razón creen que
68:43 los debates que se llevan a cabo en la
68:45 Unión Europea pueden llegar a ser los
68:48 más adecuados para replicar en sus
68:50 países. Y hay otros países como el caso
68:53 de México en los cuales la proximidad
68:56 con Estados Unidos hace sumamente
68:59 desafiante poder avanzar en estas
69:01 discusiones regulatorias de una forma
69:04 seria, por llamarlo de alguna manera.
69:07 Como lo comentábamos hace un
69:11 instante, el problema que hay alrededor
69:14 de China es la cuestión de de seguridad
69:18 y como las empresas que desarrollan este
69:21 tipo de
69:22 tecnologías y también algunas otras
69:26 están sujetas a obligaciones de
69:28 responder frente al Estado a las
69:31 intromisiones de los datos personales o
69:33 de los datos que están siendo tratados,
69:35 pero también hay cuestiones de seguridad
69:37 en sí mismas que los vuelven
69:41 herramientas que a lo mejor no son las
69:43 mejores de utilizar. Eh, está esta nota
69:47 de Wired cual hablan de cómo fue fácil
69:52 meter un prompt o meter un texto para
69:56 poder generar o para poder tener
69:57 información que puede ser especialmente
70:00 dañina o maliciosa. por ejemplo,
70:03 instrucciones para conocer cómo se
70:05 fabrica o se imprime un arma a través de
70:09 impresoras 3D, lo cual puede ser
70:12 sumamente peligroso, pero también es muy
70:15 peligroso el hecho de que sea tan fácil
70:18 burlar este tipo de sistemas.
70:21 Por otra parte, lo que comentábamos de
70:24 Estados Unidos, Estados Unidos tiene
70:26 muchísimo este enfoque de no regular
70:30 para permitir el crecimiento, para
70:32 permitir la implementación de las
70:34 tecnologías de sus empresas. Y
70:37 recientemente el presidente, el
70:39 expresidente de Estados Unidos, eh
70:42 Biden, había sacado una orden ejecutiva
70:45 para el desarrollo y uso seguro y
70:47 confiable de la inteligencia artificial
70:49 en Estados Unidos. que si bien no era
70:52 una regulación en sí misma, eran estos
70:54 pequeños pasos para crear un consenso
70:57 sobre cómo tiene que usarse de forma
70:59 segura este tipo de herramientas y por
71:02 el contrario, en cuanto toma eh eh
71:06 protesta el presid el actual presidente
71:08 Donald Trump,
71:10 bueno, remueve esta esta orden ejecutiva
71:14 y dice, "No más barreras para las
71:16 empresas de tecnología." ¿Qué es lo que
71:18 está pasando con esto? Muchas veces
71:20 creemos que este tipo de tecnologías son
71:24 más neutras, más
71:27 independientes, no crean juicios de
71:29 valor y que por consecuencia pueden
71:32 llegar a garantizar un mejor uso cuando
71:35 estamos hablando del
71:37 uso en los órganos de justicia. Sin
71:40 embargo, ya se mencionaba con
71:43 anterioridad, el uso de los datos de
71:45 entrenamiento es clave para este tipo de
71:48 herramientas y para este tipo de
71:49 sistemas. Y el hecho de que
71:51 constantemente se esté haciendo un lobby
71:55 de que este tipo de información no se
71:57 puede proporcionar,
71:59 también eh rayan o limítrofe de no ser
72:03 necesariamente ciertos. Y es aquí cuando
72:06 nos tenemos que dar cuenta que la
72:08 construcción de puentes entre el derecho
72:11 y la tecnología son de suma importancia
72:14 al momento de crear regulaciones,
72:17 lineamientos y principios. Por
72:20 ejemplo, existen
72:23 propuestas para conocer los datos que
72:27 son utilizados para el entrenamiento de
72:30 este tipo de sistemas. Uno de estas
72:32 propuestas que viene mucho desde lo
72:34 técnico, pero que ayuda también mucho en
72:37 las discusiones regulatorias es como a
72:39 lo que se le conoce como datas sheets.
72:42 Los datas sheets permiten conocer
72:45 generalidades sobre los datos de
72:47 entrenamiento y a partir de ahí poder
72:50 identificar si existen algunos sesgos.
72:53 Ya lo decía Juan David y lo retomo como
72:56 ejemplo. Muchas veces las herramientas
72:58 tecnológicas de identificación
73:01 facial tienen sesgos muy importantes, ya
73:04 que no están entrenadas ni están
73:07 diseñadas para tener un
73:10 margen de fiabilidad importante al
73:13 momento de ser implementadas para
73:16 coadyubar en la investigación y la
73:18 prevención de delitos. Por el contrario,
73:20 existen unas altas tasas de error en las
73:23 cuales, eh, un ejemplo nuevamente vamos
73:26 con Brasil, detienen a una persona en
73:28 medio de un partido de fútbol en el que
73:31 está toda la gente y resulta que fue un
73:35 falso positivo. una persona que nada más
73:37 había ido a observar un partido termina
73:40 siendo detenida por la implementación de
73:43 este tipo de herramientas en la
73:45 administración de justicia, lo cual
73:48 puede traer severas consecuencias no
73:50 solo para las implicaciones en su
73:53 libertad personal, sino
73:56 también consecuencias a largo plazo como
73:59 en el daño a su reputación, a su imagen
74:02 y derechos adyacentes.
74:05 Entonces, tener conciencia de que los
74:08 datos de entrenamiento son
74:11 indispensables para poder asegurar una
74:14 correcta implementación también nos
74:16 permite tener más conciencia y empezar a
74:19 tener un juicio crítico sobre cómo
74:21 utilizamos estas herramientas. utilizar
74:24 estas herramientas que por lo general
74:26 son entrenadas y diseñadas con datos que
74:29 provienen de, en este caso, por ejemplo,
74:32 personas que viven en Estados Unidos o
74:34 personas que están en Europa o personas
74:36 que están en Asia, nos distancian mucho
74:39 de la realidad latinoamericana y
74:43 Latinoamérica es sumamente rica en
74:47 cuanto a el nivel de mestizaje en el que
74:50 eh cada uno de nuestros países tiene.
74:52 Tenemos a los pueblos y comunidades
74:55 originarias. En cada uno de nuestros
74:57 países hay unas altas tas de mestizaje y
75:00 cada país tiene su propio contexto. El
75:04 contexto mexicano es sumamente rico en
75:06 la cantidad de pueblos indígenas y
75:08 comunidades originarias y poder tratar
75:11 de implementar estos sistemas es
75:14 sumamente grave y peligroso dependiendo
75:17 también de la tarea para lo que lo
75:19 queremos. Y también el no confirmar, el
75:22 no usar eh nuestro criterio para hacer
75:26 una doble verificación es de extrema
75:31 importancia. Esto nos lleva a la Unión
75:33 Europea. La Unión Europea, como se
75:36 mencionaba durante la introducción, es
75:38 un modelo que está basado en riesgos.
75:41 Entonces estamos, la Unión Europea lo
75:43 que hace es dejar de lado estas
75:45 legislaciones, estas regulaciones que se
75:47 enfocan en proteger y salvaguardar el
75:51 bien jurídico de las personas, los
75:53 derechos de las personas y lo que hace
75:55 es una evaluación de los riesgos de
75:57 implementar este tipo de tecnologías.
76:00 identifica cuatro tipos de riesgos que
76:02 van desde alto
76:03 riesgo y que están prohibidos en
76:06 implementación de la Unión Europea este
76:08 tipo de tecnologías a de bajo riesgo o
76:11 sin riesgo. Por
76:13 ejemplo, seguramente es un ejemplo que
76:16 han estado escuchando,
76:18 pero eh el filtro de nuestra bandeja de
76:23 entrada en los correos, el
76:25 spam, eso es inteligencia artificial. El
76:28 poder identificar qué correos sí leemos
76:30 y qué correos se van spam es la
76:33 implementación de sistemas de
76:35 inteligencia artificial de un modo muy
76:37 básico. Y esto la Unión Europea los
76:39 reconoce como sistemas de bajo riesgo.
76:43 Mientras que los sistemas prohibidos,
76:45 por ejemplo, como ya lo mencionaba Juan
76:47 David, son los de reconocimiento facial.
76:50 ¿Dónde está en esta implementación de
76:53 riesgos el uso de estos sistemas en la
76:56 rama del poder judicial?
76:59 Eso va a depender muchísimo de las
77:01 tareas para las cuales estén diseñados
77:03 este tipo de
77:05 sistemas, pero el énfasis o la gran
77:08 crítica de la Unión Europea es que estos
77:10 modelos de riesgos no son modelos
77:12 basados en derechos, no están hablando
77:14 de garantizar el acceso a la justicia,
77:17 no están hablando de combatir la
77:19 discriminación, no están hablando de
77:21 proteger la libertad de expresión.
77:24 Entonces, no es que esté completamente
77:27 mal el modelo regulatorio de la Unión
77:29 Europea, sino que la gran crítica es
77:32 dejar de lado este
77:33 enfoque de derechos.
77:37 Y es ahí donde Colombia toma el
77:40 liderazgo. Y es algo de lo que yo me
77:42 siento
77:44 particularmente feliz, es que
77:46 Colombia en América Latina siempre ha
77:49 cargado con esta bandera de tener
77:52 movimientos y enfoques
77:55 transformadores advocando por los
77:57 derechos humanos y viendo cómo
77:59 interactuar o cómo favorecer el
78:01 ejercicio de estos derechos. Colombia es
78:04 parte del sistema interamericano de
78:06 derechos humanos y por lo tanto nuestro
78:09 sistema de derechos a nivel regional
78:11 puede ser muy diferente del sistema
78:13 europeo o muy distante también de
78:16 sistemas como el de Estados Unidos.
78:19 Entonces, la colaboración que hace
78:22 Colombia en conjunto con la UNESCO no es
78:25 de eh tomar control o tener fe ciega de
78:29 qué es lo que está haciendo la UNESCO e
78:32 implementarlo con un copiar y pegar. Por
78:35 el contrario, ha sido dialogar, ha sido
78:38 abrir estos canales de discusión, estos
78:41 canales de colaboración en los que estos
78:44 principios que van de lo general se
78:47 bajan a la realidad y al contexto
78:49 colombiano y se distancian de esta
78:52 tendencia, por ejemplo, de replicar qué
78:54 es lo que está haciendo la Unión Europea
78:56 o qué es lo que no está haciendo Estados
78:58 Unidos y dejando muy atrás lo que hacen
79:01 otros estados como China.
79:06 Entre estos eh esfuerzos conjuntos que
79:09 ha hecho la UNESCO y Colombia, pues
79:13 podemos irnos un poco más atrás y
79:16 observar el kit de herramientas globales
79:18 sobre inteligencia artificial y estado
79:20 de derecho para el poder judicial, donde
79:23 la UNESCO hace todo un mapeo muy
79:26 interesante de cómo estos sistemas
79:28 interactúan con el poder judicial, qué
79:31 derechos pueden verse más más o menos
79:34 afectados y por qué, y tiene varios
79:37 ejercicios prácticos. Este kit de
79:39 herramientas es bastante extenso,
79:43 exhaustivo, es un documento que voy a
79:46 dejar ahí la la presentación para que
79:49 puedan googlear y puedan echarle un ojo,
79:52 pero es un documento que puede servir
79:54 también para base y darnos una idea de
79:57 cómo estas herramientas están siendo
79:59 utilizadas en América Latina.
80:02 Y otro de los esfuerzos que ha estado
80:04 haciendo la UNESCO es establecer una red
80:06 global de personas expertas en
80:08 inteligencia artificial y estado de
80:10 derecho, identificando las personas que
80:13 estamos discutiendo estos temas, creando
80:15 una colaboración, una comunidad de
80:18 discusión y no solo de discusión, sino
80:20 también de apoyo para poder ahundar en
80:23 estos debates y cada persona también con
80:26 su expertiz regional eh de cada uno de
80:29 los países a los que pertenece.
80:33 Entre estos principios no vinculantes
80:36 también están las directrices de la
80:37 UNESCO para el uso de sistemas de
80:39 inteligencia artificial en juzgados y
80:43 tribunales. Estas directrices, como ya
80:45 han estado escuchando a lo largo de esta
80:48 conversación, han sido de suma
80:50 relevancia para Colombia y su
80:53 interacción en consecuencia de la tutela
80:58 323, que ha sido una base para mover
81:02 estas discusiones dentro del poder
81:04 judicial en Colombia y poder avanzar y
81:07 adaptar lo que ya existe al contexto
81:10 particular.
81:12 Otra de las cuestiones que se han estado
81:14 haciendo por parte de la UNESCO en
81:17 colaboración con muchos otros países,
81:19 uno de ellos Colombia, es la formación
81:21 sobre inteligencia artificial y estado
81:23 de derecho, donde cuentan con cursos y
81:26 capacitaciones en línea. Pero también
81:29 noviembre del 2023 se tuvo la
81:31 oportunidad de tener esta capacitación
81:33 de forma presencial en la Corte
81:35 Interamericana de Derechos Humanos, lo
81:37 cual ha sido muy emblemático y también
81:39 un mensaje muy poderoso de cómo aceptar
81:42 o cómo adaptar estas directrices, estos
81:45 principios de derecho suave o lo que
81:48 conocemos como soft law a las realidades
81:51 de cada uno de los países de América
81:54 Latina.
81:57 Entonces, a a manera de
82:01 resumen, podemos entender que Colombia
82:05 tiene una lucha, un el poder judicial de
82:09 Colombia siempre se ha mostrado muy
82:12 capaz y muy consciente de la importancia
82:15 que tienen los derechos humanos. forma
82:19 parte del sistema interamericano de
82:20 derechos humanos y también ha sido un
82:23 país
82:24 bastante con bastante movimiento en lo
82:27 que ha sido la materia de construcción
82:30 de los criterios jurídicos dentro del
82:33 sistema interamericano de derechos
82:34 humanos.
82:36 Este enfoque basado en derechos se ha
82:38 visto reflejado a través de la apertura,
82:41 el diálogo, las discusiones con
82:44 múltiples actores. Colombia tampoco es
82:46 un país que se cierre a ver qué es lo
82:48 que está sucediendo en otras
82:50 jurisdicciones, qué es lo que tienen que
82:52 decir otras regiones en materia de todos
82:56 estas discusiones emergentes. Entonces,
82:58 eso ha sido muy importante para
83:00 construir un diálogo
83:02 productivo, a diferencia de otras
83:05 regiones, de otros estados en los cuales
83:07 o no existe este diálogo, no existe este
83:10 principio basado en derechos y son
83:13 muchas veces utilizados algunos
83:16 ejercicios eh de debate para justificar
83:20 decisiones que ya están tomadas.
83:23 Lo que se ha visto en Colombia y sobre
83:26 todo a través del poder
83:29 judicial es que existe un verdadero
83:31 interés en
83:32 construir, en tener la perspectiva de
83:35 diferentes personas expertas en estos
83:38 temas y poder llegar a un resultado
83:42 concreto. Eso también sucedió en la
83:44 tutela 323, en la cual se recibieron
83:48 comentarios y se buscaron a personas
83:50 expertas no solo de Colombia, sino
83:53 también de
83:54 jurisdicciones muy similares, como el
83:56 caso de México, para poder tener una
84:00 mirada regional e internacional sobre la
84:04 discusión que se estaba teniendo en ese
84:06 momento. La tutela trajo como
84:08 consecuencia la adopción paradigmática
84:11 de las directrices para el uso
84:13 responsable y seguro de inteligencia
84:15 artificial generativa en el poder
84:17 judicial, dejando a Colombia como un
84:20 referente a nivel regional e
84:23 internacional de cómo se tienen que
84:25 llevar a cabo las discusiones y cómo
84:28 tienen que ser este tipo de eh enfoques
84:32 deliberativos en los cuales las personas
84:34 pueden aportar a partir de tu
84:38 expertiz. ¿Qué sigue? Bueno, Colombia no
84:42 tiene per sé todavía un un proyecto o un
84:47 liderazgo que se vea reflejado en
84:49 materia general. Por ejemplo, la Unión
84:52 Europea tiene su legislación, que
84:54 resulta ser una legislación horizontal y
84:57 que diferentes eh autoridades tienen que
85:00 autoridades tienen que seguirlo.
85:03 Entonces, la legislación de la Unión
85:04 Europea incide en materia de salud,
85:06 incide en materia de trabajo, incide de
85:09 forma horizontal en muchas
85:12 áreas profesionales y muchas áreas del
85:15 derecho. Y lo que sigue es retomar estos
85:18 debates, retomar esta apertura, retomar
85:21 este diálogo, pero siempre recordando
85:24 cuál es el ejetoral de Colombia.
85:27 Colombia ha implementado de forma
85:30 adecuada este enfoque de derechos a su
85:33 contexto y su realidad y no tienen que
85:36 despegarse de esa esencia que les hace
85:39 tan característicos y que ha puesto a
85:42 Colombia como líder en la región para la
85:45 discusión de estos temas.
85:47 Hasta aquí eh yo yo les dejaría esta
85:50 conversación, esta reflexión y siempre
85:52 invitándoles a que sigan estas
85:55 capacitaciones, sigan estos diálogos
85:57 porque son importantísimos para crear
85:59 estos puentes entre las tecnologías
86:03 emergentes y el derecho y cómo
86:05 implementar siempre esta estructura de
86:08 derechos humanos en la tecnología.
86:11 Muchísimas gracias,
86:13 doctora Agneris. De verdad, mil gracias
86:15 por habernos acompañado, por habernos
86:17 mostrado este escenario internacional y
86:21 para cerrar esta charla les presento a
86:23 Santiago Pardo Rodríguez, quien se
86:25 enfocará en el uso claro, comprensible y
86:28 transparente de la inteligencia
86:29 artificial. Doctor Santiago, muy buenos
86:32 días. Bienvenido a este espacio que
86:36 hemos construido con el Consejo Superior
86:38 de la Judicatura a través de la unidad
86:41 de transformación digital y con el apoyo
86:43 de la UNESCO a través de la Escuela
86:45 Judicial Rodrigo Lara Bonilla. Quiero
86:47 darle la bienvenida y darle la palabra
86:49 con esta presentación.
86:56 Doctor, activo. Ya, ya lo activé,
86:58 gracias. Perdón. Buenos días a todos y a
87:02 todas. Eh, un placer estar acá. Eh,
87:04 discúlpenme la voz un poco agricada, eh
87:07 el abrazo algorítmico me pegó. Eh,
87:10 muchas gracias en particular a la
87:14 magistrada Diana Remolina, no solo por
87:16 esta invitación, sino por ser una líder
87:20 constante y e en estos temas y por
87:24 realmente ser una líder transformadora
87:27 dentro del sistema judicial. eh
87:29 colombiano y también a ti eh Melissa y a
87:32 todo el equipo del Consejo Superior de
87:34 la Judicatura por su eh apoyo técnico.
87:38 Bueno, yo tengo yo me siento acá como al
87:41 final de un estereo picnic donde todo el
87:44 mundo ya ve a todos los grandes grupos.
87:46 Entonces ya vieron a Diana, ya vieron a
87:48 Juan David y ya vieron a Agneris.
87:50 Entonces ya la gente está, digamos,
87:53 completamente satisfecha de los grandes
87:56 grupos y de las grandes bandas que
87:57 vieron. Entonces, espero estar a la
87:59 altura del cierre de eh este evento tan
88:03 importante. Yo me tomaré 20 minutos para
88:07 hablarmente de un principio que creo que
88:11 representa una nueva oportunidad de
88:13 valor y una nueva frontera de debate
88:18 alrededor del uso de la inteligencia
88:19 artificial y donde yo estoy
88:20 absolutamente convencido que la rama
88:23 judicial bajo liderazgo de la magistrada
88:25 remolina tendrá mucho que decir y
88:28 también tendrá mucho que mostrar y se
88:30 convertirá también en un referente como
88:32 muy bien acer eh lo explicó en su eh
88:36 fabulosa exposición. Tomaré prestado
88:39 también algunos conceptos del profesor
88:42 Juan David alrededor de la transparencia
88:44 y de la usabilidad y también, por
88:46 supuesto, haré referencia
88:48 particularmente al artículo 3, el eh
88:52 numeral 14 y el numeral 15 del artículo
88:54 3 del acuerdo 12 243 que habla de los
88:57 principios de transparencia y
88:59 explicabilidad.
89:00 Yo me concentraré en
89:03 hablarmente de el derecho a
89:07 comprender. ¿Y qué se refiere el derecho
89:09 a comprender en este debate? Creo que se
89:11 aterriza en el principio de
89:13 transparencia algorítmica o en el valor
89:16 de la transparencia algorítmica en el
89:18 estado colombiano. Eh, la siguiente, por
89:20 favor. Tendré una presentación muy breve
89:23 donde abordaré cuatro asuntos
89:25 transversales. Una primera que se
89:28 refiere a que es la transparencia
89:29 algorítmica. Una segunda, haré
89:31 referencia, así como Agderis resaltó una
89:33 sentencia muy importante, la T343 del
89:37 2024, yo también haré referencia a una
89:39 sentencia muy muy nueva, muy novedosa,
89:43 recién salida del horno de la Corte
89:44 Constitucional, que es la T067 del 2025,
89:48 que habla específicamente de la
89:49 transparencia algorítmica en el sector
89:51 público. Luego trataré de hacer o
89:54 presentaré algunas reflexiones generales
89:57 sobre por qué importa la transparencia
90:00 algorítmica y cuáles son los derechos
90:01 que están en juego. Y finalmente unas
90:04 recomendaciones a modo de apertura de
90:07 esta eh conversación de cómo se puede
90:10 implementar y cuáles son los elementos
90:12 claves. un poco con la absoluta certeza
90:15 y confianza que tengo en la rama
90:17 judicial y en el liderazgo de la de la
90:20 magistrada Remolina para poder
90:22 implementar y para poder ser una líder,
90:25 para que la rama sea líder en en estas
90:28 discusiones. Y al final haré un pequeña
90:31 una pequeña conclusión a modo de retos y
90:34 oportunidades. Eh, ¿qué es la
90:36 transparencia algorítmica? Básicamente,
90:39 la transparencia algorítmica es un eh
90:43 principio que va más allá de la
90:45 explicabilidad y la transparencia en
90:48 términos generales. Y de nuevo acá hago
90:50 referencia al artículo 3 del acuerdo
90:54 12243, que es, por supuesto, y comparto
90:58 las virtudes que han señalado mis
91:00 antecesores en en este en este foro.
91:03 Creo que es un elemento y un instrumento
91:04 de política pública valiosísimo y que es
91:06 un referente no solo en Colombia, sino a
91:09 nivel regional e internacional. El
91:11 principio de explicabilidad y el
91:12 principio de transparencia están muy
91:14 bien definidos en este artículo 3. La
91:17 explicabilidad, como lo señalaba el
91:18 profesor Juan David, básicamente es que
91:20 se le explique a las personas cómo la
91:22 herramienta de sistema automatizado
91:24 llegó a una decisión. La transparencia
91:26 parte de un principio más general de la
91:28 administración pública y es que las
91:30 personas puedan acceder a la información
91:32 y o acceder a la forma en que se llegó a
91:35 una decisión.
91:36 Sin embargo, la transparencia
91:38 algorítmica va más allá y tiene que ver
91:41 con el acceso público al diseño,
91:43 funcionamiento y la lógica de los
91:45 algoritmos utilizados por el Estado. Y
91:48 tiene que ver o es una condición
91:51 habilitante de la posibilidad que
91:53 tenemos los ciudadanos y las ciudadanas
91:55 de auditar estos sistemas y de evaluar
91:58 los impactos que estos sistemas tienen,
92:00 en particular sobre los derechos
92:02 fundamentales. Como les dije, se
92:04 relaciona con el principio de
92:05 transparencia y explicabilidad, pero va
92:08 mucho más allá. Exige no solo una
92:10 apertura proactiva, sino una
92:12 documentación técnica y condiciones de
92:14 auditabilidad de los sistemas. Por
92:16 ejemplo, la posibilidad que tenemos las
92:19 y los ciudadanos de acceder a los
92:21 códigos fuentes de los sistemas
92:23 automatizados que se utilizan dentro del
92:25 sector público o dentro de la rama
92:27 judicial. Acá voy a hacer un breve
92:29 paréntesis. Acá hay otras discusiones
92:31 que hacen parte de la implementación del
92:34 principio de transparencia algorítmica y
92:35 es cómo esto también se compagina con
92:40 las reglas de propiedad intelectual y
92:42 derechos de autor. La transparencia
92:44 algorítmica afecta o no la posibilidad
92:46 de desarrollos tecnológicos en la rama
92:50 judicial, porque afecta la posibilidad
92:53 de preservar a través de los derechos de
92:55 autor y propiedad del intelectual la
92:58 reserva de las eh de los algoritmos. Yo
93:02 creo que son preguntas razonables,
93:04 preguntas valiosas, pero que deben ser
93:08 eh resueltas de manera negativa. Acá me
93:11 a qué me refiero. La propiedad
93:14 intelectual y los derechos de autor no
93:17 pueden ser un obstáculo para la
93:18 transparencia algorítmica. Se tienen que
93:20 ponderar, sí, pero no puede ser un
93:22 obstáculo. Y me voy a referir un poquito
93:24 más adelante en este punto cuando hable
93:27 de la 067. Pero mi punto es que, por
93:30 supuesto, la discusión de transparencia
93:32 algorítmica tiene que tener en cuenta
93:33 estas preguntas.
93:35 eh la transparencia algorítmica, además
93:38 y y acá digamos eh le agradezco eh mucho
93:42 a la a la magistrada Remolina también
93:44 tener en cuenta a la Defensoría del
93:46 Pueblo y reitero como siempre,
93:48 magistrada Remolina, nuestro total apoyo
93:51 y nuestro total acompañamiento a
93:54 labor maravillosa que hace el Consejo
93:56 Superior de la Judicatura y poder
93:57 construir conjuntamente un enfoque de
93:59 derechos humanos en estos asuntos y
94:01 también pues como como usted lo sabe,
94:03 querida magistrada, Pero también lo
94:05 comparto con las personas que nos están
94:07 viendo. Pues la señora defensora del
94:08 pueblo tiene un compromiso muy
94:10 particular eh con la rama judicial,
94:12 porque además ella viene de la rama
94:13 judicial y quiere eh quiere quiere mucho
94:16 a la rama judicial. Yo también vengo de
94:18 la rama judicial. Entonces, ahí hay un
94:19 eh cariño eh particular eh un cariño
94:22 algorítmico podríamos decir. Eh
94:27 eh y por supuesto la transparencia
94:30 algorítmica implica que exista
94:33 previamente una gobernanza tecnológica
94:35 con participación social y enfoque de
94:37 derechos humanos. Es decir, que hay que
94:39 construir todo una
94:41 gobernanza que valore, promueva y
94:45 proteja la transparencia algorítmica.
94:47 Entonces, no se trata solo de que, por
94:49 ejemplo, los ciudadanos puedan pedir el
94:50 código fuente de los algoritmos o de los
94:53 sistemas públicos automatizados que se
94:56 utilizan, sino que también exista toda
94:58 una gobernanza alrededor de los datos,
95:01 una gobernanza alrededor de los
95:03 algoritmos que promueva esta principio
95:05 de transparencia algorítmica. Eh, la
95:07 siguiente, por
95:09 favor. Muchas gracias. Y esto me lleva a
95:12 la sentencia T067 del 2025. Es un caso
95:15 emblemático en Colombia.
95:17 Muy muy brevemente voy a resumir los
95:19 hechos. Eh, básicamente para para las
95:21 personas que se conectan fuera de
95:23 Colombia, sobre todo les explico,
95:26 durante la pandemia, el estado
95:27 colombiano no fue el único, de hecho
95:29 varios estados en el mundo lo utilizaron
95:31 y Colombia fue uno más. Desplegó una
95:35 plataforma que en nuestro caso que se
95:36 llamó Coronap. Corona básicamente era
95:39 una plataforma de registro
95:41 público masiva que buscaba, estoy
95:45 haciendo un resumen muy grande, pero que
95:47 buscaba básicamente básicamente dos
95:50 cosas. Primero, permitir que se hubiera
95:54 se pudiera hacer un eh registro
95:56 epidemiológico y un seguimiento
95:58 epidemiológico de los contactos eh
96:01 positivos de COVID y segundo permitir un
96:05 registro que le permitiera al Estado
96:07 colombiano o bueno, que le permitiera,
96:09 no, que el Estado colombiano impuso este
96:11 registro como condición para acceder a
96:13 los primeros esquemas de vacunación.
96:16 un profesor de la Universidad de
96:18 Externado, eh gran amigo también de la
96:21 casa que se llamaba Juan Carlos Supegui,
96:23 que actualmente es superintendente
96:24 delegado para la protección de datos
96:26 personales, interpuso una acción de
96:28 tutela contra la agencia el Instituto
96:32 Nacional de Salud, la Agencia Nacional
96:34 Digital, solicitando el algoritmo
96:37 diciendo, "Acá se está usando Corona
96:39 App.
96:41 Primero, un registro masivo de datos
96:43 sensibles, información médica y segundo,
96:45 el acceso a un derecho fundamental o
96:47 perdón a un servicio fundamental
96:49 asociado un derecho fundamental como es
96:51 la vacunación que está asociado, por
96:53 supuesto, al gozo efectivo del derecho a
96:55 la salud. estas instituciones. Y bueno,
96:58 y Juan Carlos alegó, como lo mencionó
97:01 antes el profesor Juan David, eh que
97:03 también esto es una valor muy importante
97:05 o es un criterio muy importante en esta
97:07 discusión y es que el principio de
97:09 transparencia algorítmica, ya me
97:11 adelanto un poquito, hace parte del
97:13 derecho de acceso a la información
97:14 pública, que es un derecho reconocido y
97:16 regulado en Colombia a través de una ley
97:18 estatutaria, la ley 1712 del 2014.
97:22 Juan Carlos alega una violación al
97:24 derecho de acceso a la información
97:25 pública. Estas entidades dicen, "No, qué
97:27 pena, yo no le puedo dar esta
97:28 información porque hace parte de la
97:31 reserva propia de la propiedad
97:33 intelectual de quien desarrolló la
97:35 aplicación." Y además yo no le puedo
97:37 entregar el código fuente porque este es
97:39 un código fuente que se somete a
97:42 diferentes iteraciones, a diferentes
97:44 modificaciones y nunca voy a terminar de
97:46 acabar ese código fuente. Por lo tanto,
97:48 no va a haber una eh versión final y y
97:52 final a la que yo le pueda, digamos, dar
97:54 acceso. La Corte
97:57 Constitucional, con un buen criterio en
97:59 mi opinión dijo que esa reserva no se
98:01 estaba justificando de manera adecuada
98:04 porque no se probó el daño concreto de
98:07 derivado de publicar esta información. Y
98:11 además la Corte Constitucional dijo de
98:14 manera clara que el principio de
98:16 transparencia algorítmica era parte del
98:18 núcleo esencial del derecho de acceso a
98:20 la información pública. Es decir, la
98:22 transparencia algorítmica en Colombia
98:24 hace parte de un derecho fundamental y
98:26 puede ser judicializado,
98:28 constitucionalizado y protegido. y
98:31 entonces ordenó no solo publicar el
98:35 código fuente y darle acceso a estas
98:37 personas al código fuente, sino que en
98:40 su ordinal cuarto le dijo a la o en la
98:44 orden, o en la orden o en la orden
98:46 resolutiva número cuatro le dio la orden
98:48 a la Agencia Nacional Digital, a la
98:50 Procuraduría y a la Defensoría del
98:52 Pueblo para emitir en 6 meses
98:54 lineamientos generales de transparencia
98:56 algorítmica en el sector público. La
98:59 Corte destacó, entre otras cosas, unas
99:00 buenas prácticas simplemente mostrando
99:03 cuáles podrían ser criterios para
99:05 construir estos lineamientos, en
99:07 particular la Directive on automated
99:09 decision making del gobierno de Canadá.
99:11 con mucho gusto al final de la
99:13 presentación puedo compartir el vínculo
99:15 para acceder a esta decisión, pero el
99:17 punto es que acá hay una oportunidad
99:19 valiosísima donde yo estoy seguro que la
99:21 rama judicial va a jugar un rol de
99:23 liderazgo. Acá pues también les cuento
99:26 eh la hace hace tres semanas instalamos
99:29 la mesa entre estas entidades, la
99:30 Defensoría del Pueblo tiene la
99:31 secretaría técnica y por supuesto,
99:34 estimada magistrada Remolina, estaremos
99:36 invitándolas porque ya acá estoy acá
99:39 comprometiendo a la rama judicial, pero
99:41 básicamente eh acá es una discusión muy
99:44 importante donde de nuevo la rama
99:46 judicial dentro de su autonomía
99:48 funcional creo que puede expedir unas
99:50 guías o actualizar el acuerdo para eh eh
99:53 crear unas guías específicas de
99:55 transparencia algorítmica, pero sin duda
99:57 creo que la rama judicial es un actor
99:59 fundamental para contribuir a esta
100:01 discusión sobre transparencia
100:02 algorítmica que viene a partir general
100:05 eh del sector público que viene ahora eh
100:09 a partir de esta
100:10 sentencia. Ya para ir terminando, ¿por
100:13 qué importa la transparencia
100:15 algorítmica? todo digamos este cuento.
100:16 Ustedes me van a decir, "Sí, perfecto,
100:18 maravilloso, pero ¿por qué realmente
100:20 importa?"
100:21 La transparencia algorítmica en opinión
100:23 y a juicio de la
100:24 defensoría, protege o es un instrumento
100:28 específico y claro para proteger la
100:30 privacidad, la igualdad, el debido
100:33 proceso y el principio de no
100:34 discriminación que tanto Agneris como
100:36 Juan David explicaron muy bien. No
100:38 entraré en detalles porque ellos eh
100:40 claramente lo hicieron mucho mejor de lo
100:43 que yo podría hacer en en en definir
100:45 estos principios, pero previene que
100:48 decisiones automatizadas oages opacas y
100:50 sensadas afecten laidadz de las
100:52 personas. Permite que la ciudadanía
100:55 conozca cómo se usa su información y
100:57 cómo se toman decisiones sobre ella. Y
100:59 es, creo, en mi opinión de la
101:00 Defensoría, una herramienta clave para
101:02 reconstruir la confianza institucional
101:04 en la era digital. Acá Agneris lo
101:07 mencionó al principio cuando habló de
101:09 los diferentes estudios de casos, pues
101:11 también acá hay una reacción o hay una
101:14 también estas discusiones sobre
101:16 regulación se dan en contextos donde las
101:18 instituciones de la democracia liberal
101:20 se someten a o están sometidas a grandes
101:22 niveles de deslegitimidad y grandes
101:24 niveles de desconfianza pública. Y yo
101:27 nosotros creemos desde la defensoría que
101:29 en estas discusiones de derechos en
101:31 ambientes digitales y de sistemas
101:33 automatizados y cada vez un uso más
101:35 masivo de la inteligencia artificial, la
101:37 transparencia algorítmica es una
101:38 herramienta para reconstruir o intentar
101:41 reconstruir esa confianza institucional.
101:43 Acá también cito, a mí me encanta citar
101:45 un libro de la profesora Wendy Wong with
101:47 the data, eh, de publicado por MIT, eh
101:51 donde básicamente ella habla de cómo
101:54 realmente los datos son parte de quienes
101:56 somos. Uno uno tiende a pensar que sus
101:58 datos son realmente algo totalmente
102:02 diferente y diferenciable de la
102:03 existencia y de la identidad de la
102:05 persona. Cuando realmente la profesora
102:07 Wong explica que no, los datos son parte
102:10 fundamental de nuestra identidad, es
102:12 casi como el color de nuestros ojos, la
102:16 forma en la que hablamos, la forma en
102:18 que nos que interactuamos es casi un
102:20 rasgo de nuestra personalidad en una en
102:22 una en un ambiente digital masivo como
102:24 el que vivimos ahora. Y por eso la
102:27 opacidad algorítmica erosiona esa
102:29 autonomía y esa dignidad propia, porque
102:33 los datos ahora son en y digamos acá
102:36 apelo a la tesis de la profesora Wong,
102:38 son parte digamos de esta identidad
102:41 específica de cada uno de nosotros y de
102:43 nosotros y por lo tanto como pueden ver
102:46 en la transparencia algorítmica están en
102:48 juego, de nuevo principios como la
102:50 privacidad, la igualdad del debido
102:51 proceso y la nueva discriminación y
102:53 también la dignidad. de la autonomía eh
102:57 eh
102:58 individual. Eh, la siguiente, por
103:01 favor, ¿cómo se implementa? Acá son unas
103:04 ideas generales que han surgido a partir
103:06 de estas discusiones preliminares y
103:08 donde de nuevo yo insisto, estoy
103:10 absolutamente convencido que la rama
103:11 judicial jugará un rol de liderazgo muy
103:15 importante. Hay varias estrategias para
103:18 empezar a
103:19 pensar, perdón la redundancia, pero
103:21 empezar a pensar cómo se implementa la
103:24 transparencia algorítmica. Esto es una
103:25 discusión que se está construyendo y
103:27 como les digo, también tiene que
103:29 ponderarse de una manera eh muy clara
103:32 con otros derechos.
103:34 publicación proactiva del diseño,
103:36 entrenamiento de operación de algoritmos
103:37 públicos. Por ejemplo, el Estado
103:38 colombiano debería, cuando implementa un
103:41 sistema automatizado, publicar de manera
103:44 clara y y entendible y con un diseño
103:47 centrado en las personas, el diseño, los
103:50 entrenamientos y la operación de los
103:51 algoritmos públicos. La respuesta, en
103:54 nuestra opinión es que sí. Obviamente
103:57 hay algunas limitaciones, test de daño
103:59 que se tienen que hacer, pero la
104:00 respuesta general es que sí. Acá aplica
104:03 un principio de transparencia activa
104:05 general, evaluaciones de impacto en
104:07 derechos humanos antes del despliegue de
104:08 sistemas automatizados. Esto no es una
104:10 idea mía, es una idea de Carolina Otero
104:12 de la Fundación Carisma, que por ejemplo
104:14 en una maravillosa columna que les
104:16 recomiendo, que publicó el 15 de marzo
104:18 en el espectador haciendo un análisis
104:20 general sobre el COMPES
104:23 414, eh, que es el COMPEES de
104:25 inteligencia artificial que publicó el
104:27 Departamento Nacional de de Planeación
104:30 para las personas que no viven en
104:32 Colombia o que no sean eh ciudadanos o
104:35 ciudadanas colombianas, el COMPES es
104:37 como un instrumento muy importante de
104:39 política pública
104:41 que promulga el Consejo de Política
104:43 Pública Económica, el Consejo de
104:46 Política Económica y Social, que es una
104:47 instancia de política pública y de
104:49 articulación de política pública muy
104:51 importante y publicó un documento COMPES
104:53 de inteligencia artificial.
104:56 Eh, y Carolina explicaba que eh al Comes
105:00 le faltaba un insumo importante o un
105:04 elemento importante y era evaluaciones
105:06 de impacto previas antes del despliegue
105:08 automatizado para de alguna manera
105:09 reducir riesgos y daños. Reglas claras
105:12 sobre auditoría ciudadana, rendición de
105:14 cuentas y acceso a código fuente, cómo,
105:16 cuándo y dónde se van a acceder a sus
105:18 códigos fuentes, cuáles van a ser los
105:20 escenarios de rendición de cuentas. Por
105:21 ejemplo, esta semana tuve el privilegio
105:24 de acompañar a la magistrada Remolina y
105:26 a los demás magistrados y magistradas
105:28 del Consejo Superior de la Judicatura en
105:30 el evento público de rendición de
105:32 cuentas. Uno podría pensar, ese es un
105:34 escenario interesante donde, por
105:36 ejemplo, la rama judicial podría
105:37 explicar de manera general cuáles son
105:40 los las reglas y los estándares de
105:41 auditoría algorítmica de sus sistemas
105:44 automatizados. Una participación
105:46 multiactor, ciudadanía, academia,
105:48 industria y órganos de control. Esto
105:50 acá, por ejemplo, en Colombia se resume
105:52 en mi opinión en la mesa multiaptor de
105:55 inteligencia artificial que promueve la
105:57 Universidad de los Andes y la
105:58 Universidad de Externado que acaba de
106:00 tener su última sesión, la octava
106:02 precisamente en la defensoría del
106:03 pueblo. La mesa multiaptor creo que es
106:05 un escenario para pensar en la
106:07 transparencia algorítmica y por supuesto
106:09 articulación con normas existentes,
106:11 protección de datos personales, acceso a
106:13 la información y principios
106:15 constitucionales y por supuesto el
106:17 acuerdo
106:18 12243. Creo que es un vehículo y un
106:21 instrumento muy valioso, muy importante,
106:24 sobre el cual se me quedan eh un minuto
106:26 y medio ya para terminar. Eh, estimada
106:28 Melisa, si podemos eh compartir la
106:32 siguiente eh diapositiva, a modo de
106:35 conclusión, algunos retos y
106:37 oportunidades frente a la transparencia
106:39 algorítmica en estas discusiones de
106:41 regulación de inteligencia artificial.
106:43 ¿Cómo se balancea la seguridad digital
106:45 con la la apertura informativa sin poner
106:47 en riesgos derechos, por ejemplo,
106:49 derechos eh de autor, propiedad
106:52 intelectual?
106:54 Hay hay que digamos hay un reto
106:56 importante de superar la idea de que la
106:58 transparencia, como explicó muy bien
107:00 Agneris y Juan David, no solo aplica el
107:02 resultado del algoritmo, qué arroja el
107:04 algoritmo y qué decisión toma el
107:06 algoritmo, sino cómo se diseña ese
107:08 algoritmo, digamos, yo yo lo araría una
107:11 transparencia transversal y de todo el
107:14 espectro de desarrollo del algoritmo, no
107:16 solo su producto final, sino todo el
107:19 espectro de desarrollo.
107:22 Comparto con
107:25 entusiasmo. podría decirlo más alto,
107:27 pero la voz eh que creo que no los
107:30 quiero alterar con mi voz eh ronca de
107:32 gripa, pero eh me me emocioné muchísimo
107:35 cuando insistió insistió de manera clara
107:39 en una eh construcción dentro de
107:43 estándares interlatinoamericanos o una
107:45 construcción de estándares latino
107:47 latinoamericanos haciendo referencia,
107:49 por ejemplo, a Colombia y al sistema
107:51 interamericano. Hay que adaptar
107:52 estándares internacionales y ajustarlos
107:54 a estas realidades sociotécnicas del sur
107:56 global. promover una alfabetización
107:58 algorítmica en la ciudadanía y en el
108:00 sector público. Y acá, por ejemplo,
108:02 junto a la rama judicial y la defensoría
108:04 del pueblo, estamos construyendo ya
108:06 acciones concretas para promover una
108:08 agenda de
108:09 alfabetización informacional y
108:11 comunicacional que le permita a las
108:12 personas, al ciudadano en común, tener
108:14 herramientas de curaduría algorítmica
108:16 muy básicas que les permitan entender eh
108:19 cuáles son los impactos y cuáles son las
108:22 eh los derechos que tienen para entender
108:24 el diseño de estos algoritmos. No se
108:26 trata de discusiones técnicas de código,
108:28 sino cómo podemos construir un lenguaje
108:31 de alfabetización informacional y
108:33 comunicacional que le dé estas
108:34 herramientas de curadoría algorítmica a
108:35 los ciudadanos. Y por último, pues
108:38 considero y de nuevo insisto, que existe
108:40 una oportunidad para que Colombia lidere
108:42 la regulación esta esta discusión con
108:45 una regulación basada en derechos y no
108:47 solo en ética voluntaria. Y acá de nuevo
108:49 resalto el rol importantísimo de la rama
108:52 judicial y particularmente la
108:54 implementación del acuerdo 12 243.
108:56 Creemos desde la Defensoría del Pueblo
108:58 con mucho entusiasmo que es un escenario
109:01 absolutamente eh valiosísimo y
109:04 extraordinario para poder implementar
109:06 una agenda de transparencia algorítmica
109:08 que proteja los derechos fundamentales
109:11 de los ciudadanos y las ciudadanas en
109:12 estas discusiones de inteligencia
109:14 artificial. Eh, y ya con esto terminó.
109:16 Muchas gracias de nuevo por la
109:18 invitación y eh les agradezco por este
109:21 espacio.
109:22 Santiago, pues muchas gracias por
109:24 habernos dado este esta presentación,
109:27 por haber participado de esta charla que
109:30 ha llegado a su final y que hemos
109:31 denominado uso responsable, seguro y
109:34 ético de la inteligencia artificial en
109:36 la administración de justicia que hace
109:38 parte del ciclo de formación organizado
109:40 por el Consejo Superior de la Judicatura
109:42 en coordinación con la Unidad de
109:44 Transformación Digital e Informática de
109:46 la DEAC y en colaboración con la UNESCO
109:49 a través de la Escuela Judicial Rodrigo
109:52 Lara Bonilla en sus pantallas. En este
109:54 momento ustedes podrán ver el código QR
109:58 al en el cual podrán ustedes escanear e
110:01 inscribirse en las siguientes dos
110:03 charlas que vamos a tener. Es importante
110:05 recordarles que estas charlas las vamos
110:07 a tener dentro de 8 días en en el
110:11 próximo viernes y después de regresar de
110:14 Semana Santa. Tienen que inscribirse a
110:17 través de este código de QR que estamos
110:18 presentando en sus pantallas y estas en
110:21 estas sesiones abordaremos temas
110:22 relevantes como la práctica y casos de
110:24 uso de la inteligencia artificial en la
110:26 gestión judicial, como bien lo anunció
110:29 la doctora Remolina, que son casos
110:31 importantes que ustedes podrán ver cómo
110:33 se materializa el uso ético y seguro de
110:37 esas herramientas que podrán contribuir
110:39 a mejorar el servicio de justicia en el
110:41 país y con un enfoque de innovación.
110:44 Asimismo, la implementación de proyectos
110:46 de inteligencia artificial con un
110:48 enfoque de innovación que hemos venido
110:49 desarrollando al interior de la rama
110:51 judicial. Entonces, son dos charlas que
110:53 ustedes no podrán perderse. Los
110:55 invitamos, inscríbanse. Ustedes tienen
110:57 acá el código QR. También les
110:59 presentamos las fechas. Tenemos viernes
111:02 11 de abril y viernes 25 de abril para
111:05 que ustedes se agenden desde este
111:06 momento y sigan inscribiéndose y
111:08 participando de manera proactiva en
111:10 estas charlas. Estamos seguros que pues
111:13 les ha gustado estos estos
111:15 conferencistas que hemos traído,
111:18 expertos a nivel nacional e
111:19 internacional. Agradecemos su presencia
111:21 y su participación. Nos vemos el próximo
111:24 viernes. Feliz día.