Columna de Rafael Rincón: Inteligencia Artificial, siete ideas clave para tener presentes

REUTERS


Dedicado como estoy al liderazgo, la estrategia y las tendencias globales, mi autoridad en materia de inteligencia artificial (IA) es, aclaro, la de un aficionado más o menos informado que trata de entender lo que está pasando. Tómese así, pues, esta modesta reflexión, advertida explícitamente tal condición.

Leo en este diario que el CEO de Alphabet Inc. y Google, Sundar Pichai, se refirió a los riesgos de la IA si es que no se la controla con regulación. El asunto le desvela. Le inquieta que avance demasiado rápido —lo propio de nuestra era— al tiempo que nos faltan respuestas y capacidad, al menos a los mortales, para seguir el paso. Además, la IA, hoy poderosísima y con incontables aplicaciones para hacer lo bueno y lo no tan bueno, se encamina a devenir en algo como la electricidad. Dice Martin Ford en Architects of Intelligence que se está convirtiendo en una tecnología general, multipropósito; escala en cada industria, sector de la economía y ámbito de la ciencia, la sociedad y la cultura.

Elon Musk está en las mismas. Bueno, él y los hasta ahora casi 30 mil firmantes del documento Pause Giant AI Experiments: An Open Letter, entre quienes figuran Steve Wozniak, Yuval Noah Harari, Rachel Branson, Yoshua Bengio y Max Tegmark. Advierten “una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera confiable”. No piden detener el mundo ni nada por el estilo, sino un respiro para implementar protocolos de seguridad compartidos; la IA, sabemos, no es perfecta. Quieren tomar las riendas de la bestia, cuya fuerza indómita podría mandarnos a donde no queremos ir, sobre todo en malas manos.

El debate está algo encendido. Mientras Bill Gates declara no entender cómo se podría imponer una pausa en el desarrollo, y si todos los países del mundo estarían de acuerdo en parar, y por qué parar, el historiador israelí Yuval Noah Harari advierte que, para la democracia y la humanidad, es un peligro que la IA se apodere de la conversación pública y hasta de la cultura. De hecho, sentenció que “hemos inventado algo que nos quita poder”.

Sabrán mejor los expertos si la pausa de seis meses de entrenamiento de sistemas de IA más poderosos que el GPT-4 es suficiente y si las medidas son las precisas —ya veremos si todo esto tiene sentido—, pero hay al menos siete ideas vitales en el “manual 101″ del progreso humano que deberíamos tener presentes en las actuales circunstancias.

Primera: Progresar es por definición mejorar y hoy vivimos en la era de la mayor prosperidad de nuestra historia. La IA ha contribuido, tremendamente y sin lugar a dudas, a que nuestras vidas sean más fáciles, menos miserables, más cómodas. Y a hacer lo que antes nos parecía ficción. Si queremos que la tendencia continúe, pues cuanto la ponga en peligro amerita al menos un trato cauteloso.

Segunda: Lo importante nunca es innovar. Lo realmente importante es mejorar. Lo nuevo y más potente no es bueno —ni mejor— porque sí, sino porque nos beneficia. Porque incrementa nuestras capacidades para bien y porque somos o podemos ser competentes para gobernarlo.

Tercera: El progreso humano conlleva riesgos y los efectos indeseables no faltan. Reducirlos al mínimo razonable y encontrar un balance inteligente junto a los costos y beneficios es lo sabio. Muchas soluciones extraordinarias y vigentes nos han traído nuevos desafíos que retan nuestro ingenio. La IA es una de ellas y no será la última.

Cuarta: Cuando entrevisté a Carl Honoré aprendí el término «tempo giusto». Frecuentemente, en un mundo acelerado, hay que ir rápido, pero a veces conviene ralentizar para pensar y actuar bien. Y no es lo mismo ser rápido a secas que ser ágil. Lo segundo requiere experiencia, conocimiento, destreza, seguridad, inteligencia.

Quinta: Cuando fue el desastre de Fukushima, Japón, en 2011, la gente de Onagawa huyó de la ciudad para refugiarse en la central nuclear local, más cercana al epicentro del terremoto. Quedó a salvo del tsunami gracias a la previsión del ingeniero Yanosuke Hirai, que en los años 60 abogó para que la planta se construyera más lejos de la costa, en un punto más elevado y con una escollera más alta. Sabía que su ciudad natal se había inundado en el año 869 como consecuencia de un tsunami. Las decisiones de hoy podrían salvarnos —o ahogarnos— en el futuro.

Sexta: Establece el abecé de la supervivencia que debes crear lo que puedes controlar. Que lo diga el Dr. Frankenstein. Razonablemente seguros de los efectos positivos y riesgos manejables, pues adelante.

Séptima: Parece que fue Stan Lee con Spiderman quien popularizó el viejo adagio «Un gran poder conlleva una gran responsabilidad». Y, en un famoso discurso de 1995, el expresidente checo y fundador de Forum 2000 Václav Havel dijo: «Solo un soñador puede creer que la solución está en frenar el progreso de la civilización de una forma u otra. La tarea principal en la era venidera es otra: una renovación radical de nuestro sentido de la responsabilidad. Nuestra conciencia debe ponerse al día con nuestra razón, de lo contrario estamos perdidos».

Tenemos fabulosas oportunidades y un gran poder en la IA… y, ya vemos, también una colosal responsabilidad.

Por Rafael Rincón-Urdaneta Z., Forum 2000, Praga, República Checa.

Comenta

Los comentarios en esta sección son exclusivos para suscriptores. Suscríbete aquí.