La columna de Tamara Agnic: “Inteligencia criminal”

"Así como la tecnología puede ser una gran ayuda para mejorar la calidad de vida de millones de personas o detener la actividad criminal, no podemos permitir que el exceso de confianza nos lleve a ofrecer brechas por donde la inteligencia criminal pueda socavar nuestras economías y de paso, nuestras democracias".


El renombrado científico Stephen Hawking entrevistado por la BBC en 2014, señalaba que “el desarrollo completo de la inteligencia artificial podría conducir al fin de la humanidad”. Sus temores se basaban particularmente en que, si esa IA lograba alcanzar una evolución independiente, ésta sería mucho más rápida y eficiente que la que ha tardado cientos de miles de años para el caso de la especie humana. A Hawking le preocupaba principalmente el reemplazo de los humanos en tareas esenciales para el desarrollo y la posibilidad de perder el control sobre complejos sistemas de abastecimiento o incluso de defensa de los países.

Sin embargo, hasta ahora predominan las loas y los buenos pronósticos respecto de lo que este tipo de tecnología puede aportar a una humanidad cada vez más amenazada por los efectos del cambio climático y las convulsiones sociopolíticas. Se destaca cómo la IA podrá acelerar procesos que hoy son lentos o peligrosos, cómo puede automatizar cadenas enteras de producción o agregar certeza y eficiencia en áreas como la medicina, la logística, la producción industrial y un sinfín de sectores.

Pero naturalmente, vale la pena hacerse algunas preguntas respecto de cómo también la inteligencia artificial puede servir a fines deshonestos y que pueden profundizar e intensificar males como la corrupción, el crimen organizado y los delitos cibernéticos y financieros. Hace pocos meses que hemos tenido que ir internalizando conceptos y nuevos fenómenos como deep fake, la suplantación de identidad por voz generada por IA, la falsificación de imágenes y fake news y una larga lista de sofisticados esquemas que tienen como objetivo dañar al sistema económico y también a las democracias.

De acuerdo con cifras de agencias gubernamentales y privadas, en el mundo se registra un ciberataque cada 39 segundos y en más del 90% de los casos, éstos son adjudicables a errores humanos. Cada día se crean más de 300 mil programas maliciosos y en promedio, las organizaciones tardan 49 días en identificar un ciberataque. Estas abrumadoras cifras ocurren cuando la IA está recién despegando y aún no ha mostrado todo su potencial tanto para bien como para mal.

Regular e imponer más controles es la vía más obvia que los países y economías han implementado para enfrentar la cibercriminalidad. Según la Conferencia de las Naciones Unidas sobre Comercio y Desarrollo (UNCTAD) 156 países (80 por ciento del planeta) han promulgado leyes contra el delito cibernético, siendo Europa la que tiene una tasa de adopción más alta con un 91%. Esto no significa necesariamente que esas legislaciones sean del todo efectivas, suficientes y definitivas para los desafíos que nos impondría el uso perverso de la IA.

¿Cómo protegernos? Para empezar, la transparencia de los algoritmos utilizados por el Estado es un tema que como sociedad debemos debatir, que aplica también para la empresa privada pues ese sector será el objetivo predilecto de ciber criminales. Hemos ido actualizando paulatinamente nuestro marco jurídico en relación con la protección de datos personales, o el combate a delitos informáticos, económicos y ambientales. Pero dado que un bot sería capaz de emular la voz y la imagen de una persona, cabe preguntarse si estas leyes son suficientes y efectivas para identificar qué es un engaño y qué no.

Lo que las administraciones y direcciones de empresas y autoridades del Estado deben tener claro es que, así como la tecnología puede ser una gran ayuda para mejorar la calidad de vida de millones de personas o detener la actividad criminal, no podemos permitir que el exceso de confianza nos lleve a ofrecer brechas por donde la inteligencia criminal pueda socavar nuestras economías y de paso, nuestras democracias.

* La autora es presidenta de Eticolabora

Comenta

Por favor, inicia sesión en La Tercera para acceder a los comentarios.