Advierten expertos que la Inteligencia Artificial podría llevar a la extinción de la humanidad

La inteligencia artificial debe ser una prioridad global, junto a pandemias y guerra nuclear, según el comunicado firmado por docenas de especialistas.

Científicos y líderes de la industria tecnológica, incluidos altos ejecutivos de Microsoft y Google, lanzaron este martes una nueva advertencia sobre los peligros que la inteligencia artificial (IA) plantea a la humanidad, a través de un comunicado en el sitio web del Centro para la Seguridad de la IA, una organización sin ánimo de lucro con sede en San Francisco (California)

En el texto, explican quese debería: “Mitigar el riesgo de extinción a manos de la IA debería ser una prioridad mundial, junto con otros peligros a escala social, como las pandemias y la guerra nuclear”,

Los críticos de la inteligencia artificial alertaron sobre la posibilidad de que un algoritmo pueda adueñarse de actividades esenciales para una sociedad, como el suministro de energía o la defensa.

El comunicado ha sido apoyado por Sam Altman, director ejecutivo de OpenAI (creador de ChatGPT), y Demis Hassabis, director ejecutivo de Google DeepMind. También firman otros líderes en el desarrollo de la nueva tecnología como Dario Amodei, de Anthropic, y el doctor Geoffrey Hinton, quien ya había advertido sobre los riesgos de un sistema superinteligente.

Por su parte, Geoffrey Hinton, en una reciente entrevista con The New York Times el pasado 1 de mayor, fue un paso más lejos y señaló su preocupación por que esta tecnología supere la capacidad intelectual de un humano.

“La idea de que estas cosas en realidad podrían volverse más inteligentes que las personas, algunas personas lo creían”, explicó en esa entrevista. “Pero la mayoría de la gente pensaba que estaba muy lejos. Yo pensaba que estaba muy lejos. Pensaba que faltaban entre 30 y 50 años o incluso más. Obviamente, ya no pienso eso”  

Exlicó Hinton, quien es apodado como el “padrino” de la AI

En marzo otras personalidades —incluidas Elon Musk y Steve Wozniak— firmaron otra carta abierta en la que pedían una pausa de seis meses en el desarrollo de cualquier tecnología más poderosa que GPT-4 de OpenAI hasta poder garantizar su total seguridad.

La carta citó riesgos potenciales para la humanidad y la sociedad; entre ellos la difusión de información errónea y la automatización generalizada de los trabajos.

Fuentes: BBC / Wradio /Bussines Insider