Lo de Skynet podría ser algo más que un “meme”: Un experto en IA cree que la inteligencia artificial exterminará a la humanidad.

Lo de Skynet podría ser algo más que un "meme": Un experto en IA cree que la inteligencia artificial exterminará a la humanidad.

Eliezer Yudkowsky, un experto en IA y ‘activista del racionalismo’ que está convencido de que los firmantes de la carta se quedan terriblemente cortos en su petición:

Esta moratoria de 6 meses sería mejor que ninguna moratoria. Respeto a todos los que han dado un paso al frente [pero] yo me abstuve de firmar porque creo que la carta subestima la gravedad de la situación y pide demasiado poco para resolverla”.

Lo que a Yudkowsky le preocupa no es el uso que la gente le dé a GPT-4 ni a GPT-5, sino la siguiente fase de la IA, cuando ésta llegue a ser más inteligente que los humanos:

“Muchos expertos en estos temas, entre los que me incluyo, creen que el resultado más probable de construir una IA sobrehumanamente inteligente, en circunstancias remotamente parecidas a las actuales, es que literalmente todos los habitantes de la Tierra morirán. No como en el sentido de “tal vez exista alguna remota posibilidad”, sino en el de “obviamente será lo que pase”, […] como hubiera pasado si el Autralophitecus hubiera llegado a competir contra el Homo Sapiens”

Lo de Skynet podría ser algo más que un "meme": Un experto en IA cree que la inteligencia artificial exterminará a la humanidad.