Inteligencia artificial, ética y derecho: una mirada desde la Universidad

30 Oct 2025

El avance de la inteligencia artificial (IA) está transformando de manera profunda distintos ámbitos de la vida social y el Derecho no queda al margen de estos cambios. Hoy existen herramientas que prometen mejorar el acceso a la justicia, optimizar procesos y aumentar la eficiencia del sistema legal. Sin embargo, junto con estas oportunidades surgen interrogantes éticos, políticos y jurídicos que demandan una mirada crítica.

La Dra. Yamila Juri, abogada, docente e investigadora de la Universidad Juan Agustín Maza, reflexiona sobre los desafíos que plantea el desarrollo de la inteligencia artificial y su impacto en los derechos fundamentales.

“La inteligencia artificial está transformando paulatinamente el ámbito jurídico. Existen muchas aplicaciones que pueden mejorar el acceso a la justicia y aumentar la eficiencia del sistema legal. Sin embargo, también plantea riesgos importantes: los algoritmos pueden reproducir discriminaciones, afectar el derecho al debido proceso y poner en peligro la privacidad. Además, la falta de transparencia en las decisiones automatizadas puede dificultar su control y cuestionamiento. Es importante profundizar sobre el impacto que tiene en los derechos humanos dado que cada vez son más las interacciones de la IA con los mismos”, explica Juri.

Dilemas éticos y responsabilidad tecnológica

Entre los principales dilemas éticos, la especialista destaca la discriminación algorítmica, que surge cuando los sistemas de inteligencia artificial aprenden a partir de datos que ya contienen prejuicios sociales o culturales.

“Muchas IA aprenden de datos que ya están sesgados y terminan tomando decisiones injustas en ámbitos como la justicia, el trabajo o el acceso a créditos”, advierte.

Otro dilema central es el de la privacidad. La recolección masiva de datos personales es una práctica habitual en el entrenamiento de estos sistemas, muchas veces sin que los usuarios sepan qué información se utiliza ni con qué fines.

A ello se suma la falta de transparencia en los procesos de toma de decisiones automatizadas. Según la docente, esta opacidad genera un problema democrático y jurídico de fondo:

“¿Cómo se toman las decisiones que sugiere una IA? ¿Quién puede revisarlas o cuestionarlas? Esta ‘caja negra’ tecnológica pone en riesgo derechos básicos, como el debido proceso o la rendición de cuentas”.

Finalmente, la especialista resalta el debate sobre la responsabilidad frente a errores cometidos por sistemas automatizados:

“Si una IA comete un error, ¿quién debe responder? ¿El programador, la empresa o el Estado? Estos vacíos de responsabilidad muestran la urgencia de repensar los marcos normativos desde una perspectiva ética y jurídica”.

Algoritmos y derechos fundamentales

La inteligencia artificial también puede influir en derechos como la privacidad o la libertad de expresión, configurando la forma en que las personas acceden a la información.

“En redes sociales o motores de búsqueda, los algoritmos deciden qué contenidos vemos y cuáles no, moldeando nuestra percepción del mundo y limitando, muchas veces sin saberlo, la diversidad de opiniones. Esto puede derivar en burbujas de información o incluso en formas sutiles de censura algorítmica, cuando ciertos discursos son invisibilizados por criterios comerciales o ideológicos”, explica Juri.

En cuanto a la privacidad, advierte que la recopilación y análisis de grandes volúmenes de datos personales puede generar perfiles de los usuarios con un nivel de detalle inquietante.

“Se puede conocer desde los gustos y hábitos hasta la ideología o los estados emocionales de las personas. Esa información, usada sin consentimiento claro o con fines comerciales y de vigilancia, pone en jaque el derecho a la intimidad”, sostiene.

 

El riesgo de deshumanizar la justicia

Uno de los ámbitos donde los riesgos son más evidentes es el judicial. La automatización de decisiones podría afectar la imparcialidad y deshumanizar el proceso legal.

“Confiar ciegamente en predicciones algorítmicas -como las que estiman la probabilidad de reincidencia de un acusado- puede llevar a decisiones injustas si no hay una supervisión humana crítica. También preocupa la deshumanización del proceso judicial: cuando se automatizan decisiones, se corre el riesgo de perder la mirada humana, empática y contextual que requiere cada caso”, explica la docente.

Educación y pensamiento crítico frente a la tecnología

Para la Dra. Juri, la educación cumple un papel crucial en la formación de profesionales capaces de analizar críticamente estas tecnologías y sus impactos.

“Sabemos que la IA no es neutral: afecta derechos, decisiones políticas, relaciones laborales y estructuras de poder. Por eso, es clave que los futuros profesionales, desde abogados hasta ingenieros o comunicadores, puedan preguntarse para qué se usa una IA, con qué datos, bajo qué valores y con qué consecuencias”.

Desde su perspectiva, las universidades deben fomentar una formación interdisciplinaria que vincule la tecnología con la filosofía, el derecho, la sociología y los derechos humanos.

“Solo así será posible construir un desarrollo tecnológico más justo, inclusivo y respetuoso de la dignidad humana”, agrega.

Vacíos normativos y desafíos regulatorios

El rápido avance de la IA ha superado la capacidad de las normas actuales para regularla. Según Juri, existen vacíos normativos significativos que dejan sin protección a millones de personas ante decisiones automatizadas que pueden afectar derechos fundamentales.

“Uno de los principales problemas es la ausencia de leyes específicas sobre el uso de IA en sectores sensibles como la justicia, la salud, la seguridad o el empleo. No hay normas claras sobre quién es responsable si una IA discrimina, comete errores o toma decisiones injustas. Por ejemplo, la ley de protección de datos personales en Argentina es del año 2000, y necesita urgente una reforma que incluya todos los impactos que la IA ha tenido en la vida de las personas”.

Hacia una legislación equilibrada

Para la especialista, el desafío consiste en acompañar el desarrollo de la inteligencia artificial sin frenar la innovación.

No se trata de prohibir, sino de establecer límites claros. La legislación debería enfocarse en proteger los derechos fundamentales como la privacidad, la igualdad y el debido proceso, sin imponer trabas innecesarias al desarrollo. Una clave es aplicar un enfoque de regulación por riesgos: no todas las IA requieren el mismo nivel de control y en ese sentido hay que hacer distinciones al respecto”.


Sobre la especialista

La Dra. Yamila Juri es abogada, Profesora Universitaria en Ciencias Jurídicas Sociales (UNCuyo), Doctora en Derecho con especialidad en Filosofía Política y Licenciada en Filosofía por la Universidad del Norte Santo Tomás de Aquino. Fue becaria doctoral y posdoctoral del CONICET/UNCuyo y actualmente se desempeña como docente en la Universidad Nacional de Cuyo, Universidad de Mendoza y Universidad Juan Agustín Maza, donde dicta las cátedras Derecho Constitucional, Derecho Político y Ética Profesional. Además, es investigadora en la Universidad Maza, donde impulsa espacios de análisis interdisciplinario sobre ética, tecnología y derechos humanos.