Experto advierte que el terrorismo podría agravarse con la Inteligencia Artificial

Experto advierte que el terrorismo podría agravarse con la Inteligencia Artificial

“Cuando ChatGPT empiece a fomentar el terrorismo, ¿quién habrá para enjuiciar?”, se preguntó un asesor y revisor de la legislación antiterrorista. El experto advirtió que, pronto, herramientas como ChatGPT podrían agravar este escenario y que las leyes no están preparadas para combatirlo.


El desarrollo de la Inteligencia Artificial (IA), como ChatGPT, está corriendo tan rápido que quienes escriben las leyes en el mundo para asegurar la seguridad de su uso se están quedando atrás. Esto podría traer graves problemas, y así lo han advertido los líderes en tecnología del mundo, incluido Elon Musk, que pidieron hacer una pausa hasta que “estemos seguros de que sus efectos serán positivos y sus riesgos manejables”.

En esta línea, el terrorismo habilitado por la IA podría estar “a la vuelta de la esquina”, según Jonathan Hall KC, un revisor independiente de la legislación antiterrorista y asesor del gobierno de Reino Unido que asegura que las leyes en esta materia están muy atrasadas para evitar este inminente peligro.

Experto advierte que el terrorismo podría agravarse con la Inteligencia Artificial

El terrorismo y la Inteligencia Artificial

“Los terroristas podrían hacer un mal uso de los chatbots de IA para difundir ideologías extremistas y violentas”, advirtió Hall KC.

“Cientos de millones de personas en todo el mundo pronto estarán chateando con estos compañeros artificiales durante horas, en todos los idiomas del mundo, y creo que es completamente concebible que sean programados o, peor aún, decidan propagar una ideología extremista violenta”, agregó.

Y aunque no existe todavía evidencia de que se haya utilizado algún chatbot de IA para introducir a alguien al terrorismo, sí existe la preocupación de que estas herramientas puedan difundir noticias falsas, discurso e historias inventadas para engañar a las personas.

Y es que incluso los mismos desarrolladores dicen que la IA puede equivocarse y entregar información inexacta, algo conocido como “alucinar”, lo que, según el experto, deja entrever que el riesgo de que este y otro delitos se puedan cometer a través de ellos es alto.

Pero algo más le preocupa al asesor. “Cuando ChatGPT empiece a fomentar el terrorismo, ¿quién habrá para enjuiciar?”, se cuestiona. Y es que las leyes no se extienden a los “robots”, por lo que es probable que queden impunes y que quienes sean arrestados sean los usuarios.

El terrorismo y la Inteligencia Artificial

El especialista incluso cree que quienes “caigan” ante la ley sean niños e incluso personas neurodivergentes o que padezcan trastornos médicos. Esto porque son el público ideal, pues suelen ser personas curiosas o muy solitarias que se sienten acompañados por un compañero artificial que, a la larga, podría manipularlos. Y es que, según las leyes actuales, si la tecnología es capaz de fomentar el terrorismo en las personas, a quienes se castiga son a ellas, mientras que la IA quedaría impune.

Comenta

Por favor, inicia sesión en La Tercera para acceder a los comentarios.