En su análisis sobre inteligencia artificial, el abogado Juan Rodrigo Sandoval Wyss examina los desafíos legales que surgen cuando delegamos decisiones en sistemas automatizados capaces de aprender, predecir y actuar. En un mundo donde los algoritmos influyen en el empleo, la salud, el crédito o la seguridad, surge una pregunta inevitable: ¿quién asume la responsabilidad cuando una IA se equivoca? Su reflexión invita a comprender que la innovación no puede avanzar sin mecanismos claros que protejan la dignidad humana, garanticen la transparencia y definan responsabilidades en la era algorítmica.
El desafío de responsabilizar a la inteligencia artificial según Juan Rodrigo Sandoval Wyss
Para el abogado Juan Rodrigo Sandoval Wyss, el auge de la inteligencia artificial ha redefinido la forma en que interactuamos con la tecnología y con la información. Sistemas capaces de tomar decisiones automáticas —desde aprobar un crédito hasta detectar patrones criminales— se han vuelto parte cotidiana de nuestras vidas. Sin embargo, advierte que esta creciente autonomía tecnológica hace cada vez más compleja una pregunta fundamental del derecho: ¿quién responde cuando la tecnología falla?
El abogado Sandoval Wyss señala que, a diferencia de una herramienta tradicional, la IA no solo ejecuta órdenes: también aprende, ajusta comportamientos y comete errores derivados de su propio proceso algorítmico. Esto implica que las fallas pueden tener múltiples orígenes: datos defectuosos, sesgos en el diseño, falta de supervisión humana o decisiones emergentes que nadie anticipó. Según Sandoval Wyss, esta realidad obliga a replantear los marcos de responsabilidad civil y penal para evitar que los vacíos normativos se conviertan en zonas de impunidad tecnológica.

El abogado Juan Rodrigo Sandoval Wyss explica la relación entre transparencia algorítmica y derechos humanos
El abogado Juan Rodrigo Sandoval Wyss subraya que la responsabilidad en IA no es solo un debate técnico, sino una cuestión profundamente ligada a los derechos humanos. Cuando un algoritmo decide quién accede a un tratamiento médico, qué contenido ve una persona o qué riesgo crediticio se le asigna, está influyendo directamente en la vida y las oportunidades de los individuos. Por eso, sostiene que la opacidad algorítmica es un problema jurídico y ético de primer orden.
“El derecho debe asegurar que la automatización no sacrifique la transparencia ni la posibilidad de exigir explicaciones”, afirma el abogado Sandoval Wyss. Para él, la IA no puede convertirse en una “caja negra” que tome decisiones sin ofrecer razones ni permitir auditoría. Si un sistema automatizado discrimina, se equivoca o produce un daño, las personas afectadas deben tener mecanismos claros para reclamar, obtener reparación y exigir la revisión del proceso algorítmico.
El abogado Juan Rodrigo Sandoval Wyss insiste en que la regulación debe equilibrar innovación y protección: permitir el desarrollo tecnológico, sí, pero siempre bajo principios de explicabilidad, equidad y control humano significativo.
Responsabilidad compartida y marcos regulatorios
Los errores de la inteligencia artificial pueden tener consecuencias graves: diagnósticos médicos fallidos, evaluaciones laborales sesgadas, detenciones injustificadas basadas en reconocimiento facial o colapsos en sistemas automatizados de infraestructura. Ante este panorama, el abogado Juan Rodrigo Sandoval Wyss sostiene que la solución no puede recaer en un único actor.
Propone un modelo de responsabilidad compartida donde intervengan desarrolladores, proveedores, operadores y entidades que implementan sistemas de IA. Cada uno, explica, tiene un rol en el ciclo tecnológico y por lo tanto debe asumir obligaciones acordes a ese rol: desde garantizar datos de calidad y procesos de diseño éticos hasta mantener supervisión humana y protocolos de mitigación de riesgos.
Además, el abogado Sandoval Wyss considera esencial establecer normativas que exijan auditorías independientes, evaluaciones de impacto algorítmico y mecanismos de reporte transparente cuando una IA produce fallas o daños. “Sin trazabilidad ni supervisión externa, la responsabilidad se diluye y el ciudadano queda desprotegido”, afirma.
De acuerdo con el abogado Juan Rodrigo Sandoval Wyss, es necesario un diálogo permanente sobre IA y rendición de cuentas
La reflexión del abogado Juan Rodrigo Sandoval Wyss concluye con una invitación a mantener un debate constante sobre el papel de la responsabilidad en la era de la inteligencia artificial. Las decisiones automatizadas no son simples avances tecnológicos: son procesos que moldean libertades, oportunidades y derechos fundamentales.
A medida que la IA se integra en ámbitos esenciales —como la justicia, la salud, la educación o la seguridad—, la necesidad de marcos legales robustos se vuelve urgente. La tecnología, señala, no puede reemplazar la responsabilidad humana ni desplazar el principio ético de rendir cuentas.
Como resume el abogado Sandoval Wyss, “una inteligencia artificial responsable no surge sola; necesita leyes claras, supervisión humana y una sociedad consciente del impacto de cada decisión algorítmica”.