Fecha de publicación: 19/08/2024
Escrito por André Loyola
Antes de la propagación exponencial de la inteligencia artificial generativa, se generaban o modificaban imágenes de contenido multimedia haciendo uso de herramientas de diseño gráfico. A su vez, se iban creando aplicaciones móviles y páginas en internet que permitían la creación de contenido irreal, por ejemplo, contenido relacionado a conversaciones. En su momento, se dio con fines de diversión; sin embargo, la facilidad de acceso a estos medios permitía su uso para fines de engaño.
Hoy con la facilidad de acceso a servicios de inteligencia artificial, ya no es necesario usar herramientas gráficas, o buscar páginas en internet para generar contenido multimedia falso o modificado. Esto se debe a que con la IA se puede entrenar un modelo con fotos, videos y audios de una persona para crear un video totalmente irreal con el rostro y voz de esta persona. Incluso tan sencillo como pedirle a la Inteligencia Artificial que genere una imagen que represente la conversación entre dos personas por el aplicativo de WhatsApp, Instagram u otros.
Sin duda la IA está marcando un antes y un después en nuestro día a día, generando un impacto significativo en todas direcciones. Las salas y tribunales de justicia no son ajenas a los riesgos que el uso desmedido de esta tecnología ofrece. A medida que los métodos de creación de contenido se vuelven más sofisticados y de fácil acceso, también lo hacen las tácticas para engañar y defraudar, aumentando la complejidad de la labor judicial en la evaluación de evidencias.
Es por ello, que, desde el punto de vista de la valoración de la prueba respecto a las evidencias digitales, todos los actores jurídicos deben conocer y entender el riesgo de no realizar un adecuado filtro de admisibilidad de estos aportes. Asimismo, se debe considerar de suma importancia la exigencia de un riguroso examen técnico pericial que permita advertir inconsistencias en la autenticidad e integridad de los elementos digitales aportados que atenten contra la idoneidad de estos elementos de prueba. En este punto, no basta con presentar un elemento digital junto a su firma hash esperando que sea valorado como tal, sino que, además, debe acreditarse que ha sido generado de manera orgánica por su fuente (dispositivo) original, y que posterior a esta creación, no ha existido ningún tipo de edición o modificación que altere o tergiverse su contenido.
Para finalizar, el avance de la inteligencia artificial exige una revisión constante de los métodos y procedimientos utilizados en la verificación de evidencias digitales. La capacidad de generar contenido falso con gran precisión y facilidad impone una responsabilidad aún mayor sobre los profesionales del derecho y peritos en informática forense para garantizar que la integridad y autenticidad de las pruebas sean mantenidas. Solo a través de una rigurosa y actualizada metodología se podrá enfrentar adecuadamente los desafíos que presenta esta tecnología emergente y proteger así la justicia en un mundo cada vez más digitalizado.