¿Puede una inteligencia artificial delinquir? Análisis penal
El avance acelerado de la inteligencia artificial (IA) está transformando radicalmente la forma en que interactuamos con la tecnología, tomamos decisiones y estructuramos nuestras relaciones sociales, económicas e incluso profesionales.
Sin embargo, este progreso también plantea interrogantes profundos en el ámbito jurídico, y particularmente en el derecho penal: ¿qué ocurre cuando una IA causa un daño? ¿Puede atribuírsele responsabilidad penal? ¿Quién responde: el programador, el usuario, la empresa?
El Derecho Penal ante la automatización
Durante siglos, el derecho penal fue exclusivamente un derecho de personas, construido sobre la base de la imputabilidad de personas físicas —dotadas de voluntad, conciencia y culpabilidad—. Posteriormente, el paso del tiempo y la complejidad de las sociedades modernas demostró que muchas conductas lesivas no eran obra de una sola persona física, sino el resultado de decisiones tomadas dentro de organizaciones, empresas o entidades colectivas y se hizo necesario contemplar la capacidad y posibilidad de delinquir de las personas jurídicas, y así surgió la responsabilidad penal de las personas jurídicas.
Y es que en aquel entonces, el modelo tradicional mostraba grietas y aunque la idea de castigar a una entidad sin conciencia parecía contradecir los pilares de nuestro sistema penal: culpabilidad, y responsabilidad subjetiva, en el que solo el individuo era susceptible de delinquir, no quedó más remedio que adaptarse al progreso.
Ahora, nuevamente la complejidad de la sociedad nos hará enfrentarnos a un nuevo reto y este progreso, aunque fascinante, nos vuelve a colocar ante una tensión en las estructuras del derecho penal: sistemas autónomos capaces de aprender, adaptarse y actuar sin intervención humana directa.
La lógica del sistema penal vuelve a estar en tensión. Entre el dinamismo tecnológico y la estabilidad normativa del derecho penal, anda el juego.
Mientras la IA evoluciona a velocidades exponenciales, el sistema penal —anclado en garantías, legalidad y culpabilidad— se ve nuevamente empujado a reconsiderar sus propios límites sin renunciar a su esencia: las garantías.
La autonomía de la IA y la crisis de la autoría penal
Los sistemas de IA modernos no solo ejecutan instrucciones, sino que aprenden de grandes volúmenes de datos, corrigen sus propios errores e incluso toman decisiones “opacas” que ni sus propios programadores pueden anticipar completamente.
Pongamos el ejemplo de un vehículo autónomo que atropella a una persona tras tomar una decisión para “minimizar daños” en una fracción de segundo. ¿Es un error de programación? ¿Un mal uso por parte del conductor? ¿Un fallo inevitable?
Sirva otro ejemplo, las IAs médicas que se usan para apoyar diagnósticos de cáncer y otras enfermedades. En algunos estudios y entornos de prueba se han documentado errores graves como no detectar tumores evidentes. ¿Podríamos llegar al homicidio culposo de haber confiado en un algoritmo?
En estos escenarios, conceptos tradicionales como dolo, culpa, imprudencia o incluso imputabilidad resultan insuficientes y la noción de ‘autoría penal’ empieza a desdibujarse cuando la acción no depende de un sujeto humano claramente identificable y cuando una “causalidad técnica” sustituye la intencionalidad humana, pero las consecuencias jurídicas siguen exigiendo respuesta.
¿Hacia una nueva responsabilidad penal?
Algunos autores han propuesto acudir a la responsabilidad penal de las personas jurídicas como forma de enfrentar estos desafíos, especialmente cuando se trata de empresas que desarrollan o implementan sistemas de IA con negligencia grave. Y no digo yo que no esa no sea la posible solución momentánea. Otros van más allá y plantean la necesidad de crear una ‘personalidad jurídica penal para las IAs’, un concepto aún muy discutido y con implicaciones éticas, jurídicas y filosóficas de enorme calado.
Lo cierto es que mientras el derecho civil ha comenzado a adaptarse (por ejemplo, discutiendo el estatuto de los “agentes electrónicos”), el derecho penal sigue resistiéndose a la idea de castigar sin culpabilidad ni conciencia.
El riesgo de un “derecho penal de la tecnología”
Uno de los peligros latentes es que, frente a la incertidumbre que genera la IA, el legislador reaccione con un “populismo punitivo tecnológico”: creando delitos vagos, ampliando figuras de responsabilidad objetiva, o criminalizando por prevención, al más estilo “Minority Report”, si recordáis esa película.
En ese camino, se corre el riesgo de erosionar principios fundamentales como la legalidad, la culpabilidad y el debido proceso.
Conclusiones
Es evidente que la irrupción de la inteligencia artificial exige al derecho penal no solo actualizar sus herramientas sino también reafirmar sus límites.
Más que castigar a algoritmos, el desafío es diseñar mecanismos claros de imputación penal para los humanos que los diseñan, entrenan o implementan con negligencia o dolo. Por lo menos, de momento.
Después habrá que ir avanzando, aunque ello suponga una auténtica revolución en la teoría del delito y haga necesario redefinir conceptos como autoría, dolo, culpabilidad y sanción y trasladarlo a entes “sin alma”, sin caer en la tentación o riesgo de difuminar responsabilidades, generar responsabilidades objetivas o que el castigo pase a ser algo simbólico y deje de ser medio de prevención.
El debate está abierto y el desafío en bandeja.
Escrito por Ester Romero Simón, abogada en Ponter
Dejar un comentario
¿Quieres unirte a la conversación?Siéntete libre de contribuir!