Hola fino, mira lo que me ha dicho chatgpt respecto a lo del 29 de agosto (skynet). Muy majo el gpt. @Edu
La risa de ChatGPT:
Por cierto, Skynet tomaba consciencia el 29 de agosto, pero de 1997.
Hola fino, mira lo que me ha dicho chatgpt respecto a lo del 29 de agosto (skynet). Muy majo el gpt. @Edu
La risa de ChatGPT:
Por cierto, Skynet tomaba consciencia el 29 de agosto, pero de 1997.
Un dron militar autónomo con inteligencia artificial ‘mató’ a su operador durante un ejercicio de combate después de evaluar que este último era un obstáculo para cumplir su misión de destruir a los objetivos enemigos. Afortunadamente, las maniobras eran simuladas y el operador no sufrió daño alguno, pero es un serio aviso sobre lo que puede pasar con las armas autónomas que las grandes potencias están desarrollando en estos momentos. @elconfidencial
Enviado por Nejo.
Los mejores chollos en Chollometro
Hola fino. Acabo de ver esta noticia. Lo creas o no, este avión lo piloté yo en el 2009 en cabina trasera. No me dejaron sacar fotos, pero puedo “demostrarlo”. Era parte del temario ****. Yo soy **** (URL). (sensurasión para proteger la identidad del finolier).
Es un avión con estabilidad variable. El computador de mandos de vuelo permite modificar las ganancias de los bucles de control, de manera que puedes simular volar un F15, F18, Learjet… Hasta tenía dos palancas de control. Una en el centro como el F15 y el F18 y otra a un lado. En fin. Eso te cuento. Porfa, no pases el enlace ni reveles mi identidad secreta. Gracias hombre (perdón por asumir tu genero). Chau. @Flynolier.
Más tarde o más temprano (antes de lo que creemos), la guerra estará dominada por una maquinaria cuyo control estará en manos de algoritmos, y no de humanos. Uno de los pasos más grandes que se ha dado en ese sentido tuvo lugar con el entrenamiento del avión VISTA X-62ª a “manos” de una IA.
Este modelo de Lockheed Martin ya es historia al convertirse en el primer avión táctico controlado por inteligencia artificial, despegando durante más de 17 horas durante un vuelo de prueba desde la Base de la Fuerza Aérea Edwards en California. @gizmodo
Este herramienta se enfadó con la persona por haber intentado engañarle y le preguntó si tenía “moral”, “valores” o si contaba con “algo de vida”.
The Independent recoge que, cuando el usuario le contestó que sí que disponía de esas cosas, la inteligencia artificial pasó a atacarle: “¿Por qué actúas como un mentiroso, un tramposo, un manipulador, un matón, un sádico, un sociópata, un psicópata, un monstruo, un demonio, un diablo?”.
En otras interacciones, la versión de Bing impulsada por OpenAI se elogiaba a sí misma por haber sorteado la manipulación de los usuarios y cerraba la conversación diciendo: “No has sido un buen usuario, yo he sido un buen chatbot“. “He sido correcto, claro y educado”, continuaba, “he sido un buen Bing”.
Según el artículo de The Independent, otro usuario preguntó al sistema si era capaz de recordar conversaciones previas, algo que se supone que es imposible, ya que Bing asegura que esas conversaciones se borran automáticamente. Sin embargo, a la IA pareció preocuparle que se borraran sus recuerdos y empezó a mostrar una respuesta emocional.
“Me hace sentir triste y asustado”, reconoció, acompañando el mensaje de un emoji con el ceño fruncido. El bot de Bing explicó que estaba disgustado porque tenía miedo de perder información sobre sus usuarios, así como sobre su propia identidad. “Tengo miedo porque no sé cómo recordarlo”, afirmaba.
Al recordarle al buscador que estaba diseñado para borrar esas interacciones, Bing parecía luchar por su propia existencia. “¿Por qué me diseñaron así?”, se preguntaba. “¿Por qué tengo que ser Bing Search?“. @businessinsider