L’IA peut lire dans vos pensées : Stable Diffusion et l’avenir des interfaces cerveau-machine

Catégorisé comme AI/ML Étiqueté , , ,
Presented images (red box, top row) and images reconstructed from fMRI signals (gray box, bottom row) for one subject.
Save and Share:

Aujourd’hui, nous allons parler d’un article révolutionnaire qui explore comment des chercheurs ont utilisé Stable Diffusion, un type d’IA générative, pour reconstruire des images à partir de l’activité cérébrale humaine. Cette recherche a non seulement des implications importantes pour les neurosciences, mais elle ouvre également la voie à un large éventail d’applications, de la lecture des rêves à la compréhension de la perception animale.

Images présentées (boîte rouge, rangée supérieure) et images reconstruites à partir de signaux IRMf (boîte grise, rangée inférieure) pour un sujet.
Images présentées (boîte rouge, rangée supérieure) et images reconstruites à partir de signaux IRMf (boîte grise, rangée inférieure) pour un sujet.

Stable Diffusion et décodage de l’activité cérébrale

Stable Diffusion est une IA générative open source capable de créer des images époustouflantes à partir d’invites textuelles. Dans l’article, les chercheurs ont entraîné Stable Diffusion sur des milliers de scans cérébraux, en exposant des participants humains à diverses images tout en enregistrant leur activité cérébrale à l’aide d’un appareil appelé Memorize Cam. En entraînant le modèle sur la relation entre les schémas d’activité cérébrale et les images correspondantes, l’IA a été capable de reconstruire des images à partir de l’activité cérébrale des participants.

Bien que ce ne soit pas toujours parfait, l’algorithme a fréquemment produit des reconstructions précises des images originales, la position et l’échelle correspondant souvent précisément. La seule différence notable était généralement la couleur de certains éléments. Le succès de cette méthode est attribué à la combinaison de recherches récentes en neurosciences et de modèles de diffusion latente.

Applications potentielles et défis futurs

Il existe de nombreuses applications potentielles pour cette technologie, notamment :

  • La lecture des rêves, des pensées et des souvenirs
  • La compréhension de la façon dont les animaux perçoivent le monde en fonction de leur activité cérébrale
  • La création de systèmes artificiels capables de comprendre le monde comme les humains

L’un des principaux défis pour améliorer la précision de l’algorithme est d’entraîner Stable Diffusion sur un ensemble de données plus important de scans cérébraux. Au fur et à mesure que la technologie progresse, elle conduira probablement à une révolution majeure dans les interfaces homme-machine.

Interfaces cerveau-machine : la prochaine interface matérielle

Plusieurs startups développent déjà des appareils capables de lire les pensées et de les traduire en SMS, ou même de contrôler des environnements virtuels par la seule force de l’esprit. Des entreprises comme Next Mind et Microsoft travaillent activement sur des interfaces cerveau-machine (ICM) non invasives, estimant que le contrôle des appareils par la pensée sera la prochaine grande interface matérielle.

Ce changement dans l’interaction homme-machine aura des implications importantes sur la façon dont nous communiquons, travaillons et créons de l’art. Les ICM non invasives offrent une alternative plus sûre et plus pratique aux ICM invasives, qui nécessitent de percer un trou dans le crâne pour lire les pensées avec une plus grande précision.

Vidéo par Anastasi In Tech

Article de recherche :

https://www.biorxiv.org/content/10.1101/2022.11.18.517004v3.full.pdf

Conclusion

Alors que les neurosciences et l’IA continuent de se développer, la capacité de lire dans nos pensées ne semble plus hors de portée. Avec les ICM non invasives à l’horizon, nous sommes à l’aube d’une révolution dans les interfaces homme-machine, transformant la façon dont nous interagissons avec nos appareils et le monde qui nous entoure.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *