ADOP: Approximate Differentiable One-Pixel Point Rendering
abs: https://t.co/npOqsAstAx pic.twitter.com/LE4ZdckQPO— AK (@ak92501) October 14, 2021
Lo que puedes ver en este vídeo que se ha publicado recientemente en Twitter no es ninguna cámara rápida de alguien, ni tampoco un vuelo de dron grabando vídeo con agilidad. Es un escenario tridimensional, creado por una red neuronal de renderizado a partir de unas cuantas fotografías estáticas. A principios de 2020 veíamos algo similar, pero la mejora respecto a entonces es enorme.
Como puedes ver en el vídeo, el detalle es tremendo (especialmente en las letras de la placa del barco en el minuto 1:18). El motor se llama ADOP (Approximate Differentiable One-Pixel Point Rendering) y se expone en la web ArXiv de la Universidad de Cornell, desde donde detallan que el escenario se genera a partir de fotografías tomadas arbitrariamente. Un motor adicional se encarga de ir modificando la tonalidad de cada fotografía para que el resultado quede uniforme. @xataka