El parecido con su mayor pesadilla es extraordinario…
???????????????????? pic.twitter.com/D0ns0MEzAv
— ciberseguridad???????? (@cibercisa) April 4, 2023
Y para los frikis del doblaje… cuando dice “30 años tienes” tiene la misma voz que el niño de Este chico es un demonio.
“¿Por qué tenemos que partir de la base de que una persona puede decidir aleatoriamente su sexo pero no puede decidir su edad en el carnet de identidad?”
Si alguien quiere responder, aquí es ????????#ViajandoConChester #ChesterEtxebarria pic.twitter.com/h8Hv9FSAE0
— Viajando con Chester (@Chester_cuatro) March 28, 2023
Eliezer Yudkowsky, un experto en IA y ‘activista del racionalismo’ que está convencido de que los firmantes de la carta se quedan terriblemente cortos en su petición:
“Esta moratoria de 6 meses sería mejor que ninguna moratoria. Respeto a todos los que han dado un paso al frente [pero] yo me abstuve de firmar porque creo que la carta subestima la gravedad de la situación y pide demasiado poco para resolverla”.
Lo que a Yudkowsky le preocupa no es el uso que la gente le dé a GPT-4 ni a GPT-5, sino la siguiente fase de la IA, cuando ésta llegue a ser más inteligente que los humanos:
“Muchos expertos en estos temas, entre los que me incluyo, creen que el resultado más probable de construir una IA sobrehumanamente inteligente, en circunstancias remotamente parecidas a las actuales, es que literalmente todos los habitantes de la Tierra morirán. No como en el sentido de “tal vez exista alguna remota posibilidad”, sino en el de “obviamente será lo que pase”, […] como hubiera pasado si el Autralophitecus hubiera llegado a competir contra el Homo Sapiens”