Miedo fundado sobre la inteligencia artificial
En los últimos años, ante el acelerado desarrollo de tecnologías digitales, han estado sobre la mesa de debate, en el mundo, discusiones de naturaleza ética, jurídica y política que preocupan a las comunidades por la diversidad de usos que se le puede dar a estas tecnologías (tanto para bien como para mal). En México, la reciente aparición del ministro Rodrigo Arístides Guerrero García comunicando un concepto jurídico consultado en una aplicación de inteligencia artificial, ha abierto el diálogo. Hablemos un poco al respecto.
Los debates en la materia han estado presentes en la mayor parte de las expresiones culturales de los lugares y los tiempos en que se han desarrollado. Por no irnos tan lejos, pensemos en Yo, robot, una película muy popular protagonizada por Will Smith, basada en la novela de ciencia ficción de Isaac Asimov: el temor de que los robots inteligentes tomen el control sobre la humanidad y decidan por ésta en casos en los que no tiene la capacidad para tomar decisiones más allá del algoritmo (como el momento que se representa en el filme, en el que el robot salva al personaje principal del auto que se hunde en el río, y deja morir a su hija por no tener ella “muchas posibilidad de sobrevivir”), pone en jaque la posibilidad de que estas herramientas, antes que ayudar a la supervivencia de la humanidad, terminen por sustituirla, llevarla a su decadencia y, eventualmente, a su destrucción. Hay muchas representaciones más sobre los múltiples miedos que genera el desarrollo de ciertas tecnologías: Wall-E, Vanilla sky, El informe de la minoría, Ojo de águila…
La tecnología no ha llegado a este punto de desarrollo; sin embargo, el temor de que la ficción supere a la realidad, ha sido tal que las 3 normas que propuso Asimov en su cuento Runaround (de 1942) para limitar el actuar de los robots inteligentes y evitar que se volteen contra sus creadores, han sido retomadas, décadas después, por documentos de naturaleza jurídica; por ejemplo, en la Resolución del Parlamento Europeo de 16 de febrero de 2017, se hacen recomendaciones a la Comisión sobre normas de Derecho Civil sobre robótica (2015/2103(INL)), en el considerando T de los Principios Generales, que consideran “que debe entenderse que las leyes de Asimov van dirigidas a los diseñadores, fabricantes y operadores de robots, incluidos los que disponen de autonomía y capacidad de autoaprendizaje integradas” para exhortarlos a que limiten su actividad en la producción de este tipo de tecnologías inteligentes.1
Esto ha llevado la discusión a otros lugares: quién y para qué se produce la inteligencia artificial. ¿Lo están haciendo médicos para mejor el acceso a la salud en lugares remotos a donde no llegan los servicios del Estado, o lo están haciendo productores de armas financiados por grupos criminales, terroristas o Estados con tendencias imperialistas? Han surgido campañas desde sociedad civil para evitar el desarrollo de armas autónomas (máquinas inteligentes hechas para matar), por ejemplo.
Una parte de la comunidad global ha exigido que se frene el desarrollo tecnológico; otra, por el contrario, pide que se promueva en todos los ámbitos posibles, incluso ante la falta de regulación jurídica y de comités de ética que supervisen que su desarrollo y producción no afecten valores como el bien común, la vida, la integridad de las personas.
En gran medida, el temor y la necesidad de frenar el desarrollo de la inteligencia artificial, suele derivar, sí, de prejuicios culturales que la cultura popular nos ha heredado, pero también de la consciencia que tenemos sobre la existencia de personas e instituciones públicas y privadas que sí hacen mal uso de estas tecnologías (más allá de la ficción). Este mismo año, el Cártel de Sinaloa usó drones para bombardear a comunidades indígenas y los gobiernos de las dictaduras utilizan complejos sistemas de reconocimiento facial para perseguir a sus detractores en espacios públicos y privados.
Esto nos lleva a la cuestión de que, a final de cuentas, seguimos siendo las personas quienes controlamos a las máquinas, y las controlamos para lo que nos propongamos. En este sentido, dotamos a la tecnología digital, incluida la inteligencia artificial, de un carácter instrumental. Es una herramienta y, como tal, nos puede servir para facilitar nuestras tareas –los seres humanos siempre las hemos desarrollado para eso–; el ministro Rodrigo Arístides la ha utilizado para presentar conceptos, por ejemplo.
Herramientas digitales para la impartición de justicia
Hasta cierto punto, reconocemos que este desarrollo tecnológico no se puede detener. Pero nos inquieta mucho el impacto que llegue a tener en la realización de determinadas actividades. No suele discutirse que haya tareas mecánicas que puedan ser sustituidas por las máquinas; el problema surge cuando las tareas que realizan las personas implican algo más que la repetición de procesos y fórmulas o la adecuación a algoritmos, como la sensibilidad, la interpretación del contexto y sus matices (lo que se requiere en la impartición de justicia).
Esta no es una preocupación menor: nuestros problemas y conflictos no pueden ser resueltos con fórmulas, códigos ni algoritmos; son complejos, y su resolución depende de las necesidades y perspectivas de quienes están involucrados, así como de sus contextos. Confiar la resolución a los aparatos de justicia depende en la confianza que se le pueda otorgar a quien que reúna la capacidad técnica y la sensibilidad humana para abordarlo con la mayor responsabilidad; si no está esa persona, mejor nadota (lo resolvemos por nuestra cuenta).
Aquí es importante destacar que el uso de la inteligencia artificial no implica que la persona que imparte justicia sea sustituida por la máquina inteligente (como lo ha mencionado el ministro Rodrigo Arístides); por el contrario –y aquí es donde juega un rol importante la responsabilidad de la persona juzgadora–, se convierte en un instrumento que puede beneficiar a su usuario, a la institución y a quienes se ponen su confianza en ésta. Ojo, esto no implica una confianza ciega en la inteligencia artificial ni en los datos que aporta; su uso conlleva una revisión detenida, cuidadosa y responsable sobre esa información para verificar que sea cierta.
Para continuar con el diálogo y la reflexión constructiva, en este texto te compartimos cinco razones (entre otras muchas) por las que es conveniente el uso de la inteligencia artificial en el campo del quehacer jurisdiccional:
Razón 1
Implica, por parte de quienes imparten justicia, una actitud de apertura que supone la superación de los prejuicios culturales que hemos mencionado, y que reconoce el carácter instrumental de esta tecnología y sus beneficios.
Razón 2
El uso que se haga de estas herramientas ayuda a “educarlas” con contenido técnico jurídico, razonamientos y sentido con las posturas y perspectivas de las y los ministros; con esto, sirve para transparentar las fuentes y los razonamientos que hay detrás del dictado de una sentencia, y para la identificación de patrones en el sentido de las decisiones que tomen las y los ministros en sus sentencias (y a fortalecer, con ello, la justicia abierta sustancial en regímenes democráticos y de derechos humanos).
Razón 3
El adecuado uso de las herramientas tecnológicas puede hacer más eficiente y eficaz el trabajo técnico y el trabajo de comunicación de quienes imparten justicia, sirviendo como un instrumento de consulta a cuya base de datos le han sido cargadas los documentos y la información para el desempeño de sus tareas.
A su vez, puede servirle a la ciudadanía para acceder a información compleja y complicada de rastrear si no se conocen los mecanismos; recordemos que este esfuerzo se hizo en algún momento en la Suprema Corte de Justicia de la Nación a través de las aplicaciones de inteligencia artificial “JusticIA” y “Sor Juana”. El mismo ministro Rodrigo Arístides Guerrero, en su campaña prometió el desarrollo de “SentencIA”, una documento digital interactivo para explorar y comprender el contenido de las sentencias.
Razón 4
Mejora el tiempo de trabajo. Uno de los problemas a los que se enfrentan los justiciables (las personas que acuden a los órganos de impartición de justicia del Estado), es el tiempo de acceso a la justicia.
El correcto uso de la inteligencia artificial puede ayudar a optimizar el trabajo de las personas juzgadoras y sus ponencias (equipos de trabajo), acelerando el acceso a la información de bases de datos globales.
Razón 5
Ayudar a simular escenarios hipotéticos que ayuden a dimensionar el alcance de la sentencia con base en precedentes. Acá ya hemos visto cómo algunos despachos particulares utilizan la inteligencia artificial en este sentido para construir sus propias argumentaciones.2
Reflexiones
Las herramientas de la inteligencia artificial han llegado para quedarse. Su desarrollo no se puede detener. Lo que podemos hacer ante los riegos que representa para nuestros entornos, es utilizarla con responsabilidad, conciencia y cuidado.
Particularmente, en lo relativo a la dimensión técnica de la impartición de justicia, si es utilizada correctamente, puede dar celeridad, generar patrones de información, hacer accesibles bases de datos en cuestión de segundos; y, en lo relativo a su comunicación, brindar a las y los ministros de información sintética, como conceptos, que puedan explicar y compartir con la ciudadanía a efecto de mejorar su comunicación con ésta.
Aprovechemos lo que ha hecho hasta ahora el ministro Arístides Guerrero García como punto de partida para seguir construyendo y quitándonos de encima ciertos prejuicios.
Notas:- Mansilla-Moya, Mateo. (2024). “Reflexiones en torno al impacto de la inteligencia artificial en el Derecho”, en El Foro. Barra Mexicana, Colegio de Abogados.[↩]
- Mansilla Moya, Marcos. “Enrique González Casanova: litigio penal, inteligencia artificial y paz social”, en revista abogacía. Julio, 2025.[↩]

