
Según Cheol Jun Cho, de Berkeley y coautor principal del estudio, “básicamente, interceptamos la señal donde el pensamiento se convierte en articulación”. En una nota de la universidad, Cho añade: “Lo que decodificamos es posterior a que haya surgido la idea, después de haber decidido qué decir, después de haber decidido qué palabras usar y cómo mover los músculos del tracto vocal”. Para que la máquina y Ann se comunicaran, ella tuvo que entrenar con un conjunto de 1.024 palabras que el sistema presentaba en forma de frases (ver vídeo). También entrenaron la BCI con una serie de 50 frases preestablecidas. Nada más ver que empezaban a aparecer en la pantalla, Ann iniciaba sus intentos de hablar y el sistema convertía la señala cerebral tanto en texto como en voz. @elpais
