La inteligencia artificial y la autenticidad de las pruebas videográficas

Carlos Soto.

El avance de la inteligencia artificial ha transformado profundamente la forma en que producimos, compartimos y analizamos información visual. Sin embargo, este progreso también ha traído nuevos desafíos al ámbito jurídico, especialmente en materia penal, donde las grabaciones de cámaras de seguridad pueden constituir una importante prueba de cargo.
¿Hasta qué punto puede alegarse que una grabación fue manipulada mediante inteligencia artificial? ¿Basta con mencionar la posibilidad técnica o es necesario demostrarla?

A continuación les comparto una sentencia reciente de la Audiencia Provincial de Madrid ofrece respuestas concretas a estas preguntas y marca un criterio relevante sobre la autenticidad y validez de las pruebas videográficas en la era digital.

Los hechos del caso.

El asunto resuelto en la sentencia 330/2023 (SAP M 13671/2023) tiene su origen en dos hechos ocurridos en noviembre y diciembre de 2022, en Madrid.

La acusada fue sorprendida en ambas ocasiones sustrayendo consolas Nintendo Switch, tras retirar los dispositivos antihurto y ocultarlas entre sus ropas.
Los actos fueron captados por las cámaras de seguridad del local y corroborados por el testimonio del vigilante, quien declaró haber visto a la acusada manipular los dispositivos y salir del establecimiento sin pagar.

El juzgado de primera instancia condenó a la acusada por delito continuado de hurto, imponiéndole cuatro meses y dieciséis días de prisión.

Inconforme, la defensa interpuso recurso de apelación, alegando error en la valoración de la prueba y vulneración del principio de presunción de inocencia, centrando su argumento en que las grabaciones podrían haber sido manipuladas mediante inteligencia artificial.

Inteligencia artificial y prueba videográfica

La cuestión central del recurso giró en torno a la validez de las grabaciones de video que mostraban los hechos.

La defensa sostuvo que, ante los avances tecnológicos actuales, es posible crear imágenes falsas o alteradas mediante inteligencia artificial (deep fake), por lo que la grabación debía ser descartada.

El tribunal rechazó tal planteamiento. La Audiencia precisó que el mero señalamiento de una posibilidad abstracta no constituye prueba suficiente para destruir la presunción de autenticidad de una grabación.

Dijo literalmente que “no basta con alegar que la utilización de inteligencia artificial permite crear imágenes desde cero para hacer aparecer como reales hechos que no se han producido; deben ofrecerse razones suficientes por las que en el caso concreto deba sospecharse que se ha podido producir una alteración en la grabación aportada.”.

En otras palabras, la mera existencia de tecnología capaz de falsear imágenes no invalida automáticamente una prueba videográfica. Se requiere un indicio objetivo y verificable de manipulación.

A continuación puedes consultar el texto íntegro de la sentencia:

Deja un comentario