Stephen Hawking: "La inteligencia artificial podría significar el fin de la humanidad"

El físico teórico afirmó que los sistemas automatizados "tomarán el control de sí mismos y se irán rediseñando a un ritmo que los humanos no podrán competir", viéndose superados hasta la extinción.




Los avances en la tecnología que utiliza Stephen Hawking y que le permite comunicarse con el mundo, podrían en un futuro significar el fin de la humanidad. Esto según el propio físico teórico, en la presentación de un nuevo software desarrollado por Intel y Swiftkey que gracias a un sistema de predicción. lo ayudará a comunicarse de una forma más sencilla.

Según Hawking, los sistemas avanzados de inteligencia artificial tendrán la capacidad de "tomar el control de sí mismos, rediseñándose a un ritmo que aumentará cada vez más. Los humanos, limitados por su evolución biológica, no podrán seguir el ritmo, y serán superados".

El físico también habló de los beneficios y peligros de internet, ya que según su versión. ésta podría convertirse en una especie de "centro de mando para los terroristas". Al respecto, indicó que lo mejor es "colaborar con las compañías de Internet para contrarrestar la amenaza, aunque la dificultad es hacerlo sin sacrificar la libertad y la privacidad".

No es la primera vez que Hawking advierte los avances en inteligencia artificial. En mayo de este año ya se refirió al mismo tema a propósito de "Transcendence: Identidad virtual", una película protagonizada por Johnny Depp que describe un mundo donde las computadoras superan las capacidades de los humanos, afirmando que tal escenario "podría ser el peor error en la historia".

Asimismo, en enero de 2013 anunció su incorporación a la iniciativa "Cambridge Project for Existential Risk", un programa fundado a fines de 2012 que reune a filósofos, matemáticos e ingenieros para intentar frenar los riesgos del desarrollo de la inteligencia artificial y su injerencia en áreas como la biotecnología, las guerras nucleares y el cambio climático,

Fuente: BBC

Comenta

Por favor, inicia sesión en La Tercera para acceder a los comentarios.