En hiver de 2011, Daniel Yamins, chercheur postdoctoral en neurosciences computationnelles au Massachusetts Institute of Technology, travaillait parfois après minuit sur son projet de vision industrielle. Il concevait minutieusement un système capable de reconnaître les objets dans les images, quelles que soient les variations de taille, de position et d’autres propriétés – ce que les humains font avec facilité. Le système était un réseau neuronal profond, un type d’appareil de calcul inspiré du câblage neurologique des cerveaux vivants.

Histoire originale réimprimée avec la permission de Magazine Quanta, une publication indépendante de la Fondation Simons dont la mission est d’améliorer la compréhension publique de la science en couvrant les développements et les tendances de la recherche en mathématiques et dans les sciences physiques et de la vie.

«Je me souviens très distinctement du moment où nous avons trouvé un réseau neuronal qui a réellement résolu la tâche», a-t-il déclaré. Il était 2 heures du matin, un peu trop tôt pour réveiller son conseiller, James DiCarlo, ou d’autres collègues, alors un Yamins excité s’est promené dans l’air froid de Cambridge. «J’étais vraiment excité», dit-il.

Cela aurait compté comme une réalisation remarquable dans la seule intelligence artificielle, l’une des nombreuses qui feraient des réseaux de neurones les chouchous de la technologie de l’IA au cours des prochaines années. Mais ce n’était pas l’objectif principal de Yamins et de ses collègues. Pour eux et pour d’autres neuroscientifiques, ce fut un moment charnière dans le développement de modèles informatiques pour les fonctions cérébrales.

DiCarlo et Yamins, qui dirige maintenant son propre laboratoire à l’Université de Stanford, font partie d’une coterie de neuroscientifiques utilisant des réseaux de neurones profonds pour donner un sens à l’architecture du cerveau. En particulier, les scientifiques ont eu du mal à comprendre les raisons des spécialisations cérébrales pour diverses tâches. Ils se sont demandé non seulement pourquoi différentes parties du cerveau font des choses différentes, mais aussi pourquoi les différences peuvent être si spécifiques: pourquoi, par exemple, le cerveau a-t-il une zone pour reconnaître les objets en général mais aussi pour les visages en particulier? Les réseaux de neurones profonds montrent que de telles spécialisations peuvent être le moyen le plus efficace de résoudre des problèmes.

Le neuroscientifique informatique Daniel Yamins, maintenant à l’Université de Stanford, a montré qu’un réseau de neurones traitant les caractéristiques d’une scène de manière hiérarchique, tout comme le cerveau le fait, pouvait égaler les performances des humains en matière de reconnaissance d’objets.Photographie: Fontejon Photography / Wu Tsai Neurosciences Institute

De même, les chercheurs ont démontré que les réseaux profonds les plus compétents pour classer la parole, la musique et les odeurs simulées ont des architectures qui semblent être parallèles aux systèmes auditif et olfactif du cerveau. De tels parallèles apparaissent également dans des réseaux profonds qui peuvent regarder une scène 2D et déduire les propriétés sous-jacentes des objets 3D qu’elle contient, ce qui aide à expliquer comment la perception biologique peut être à la fois rapide et incroyablement riche. Tous ces résultats suggèrent que les structures des systèmes neuronaux vivants incarnent certaines solutions optimales aux tâches qu’ils ont assumées.

Ces succès sont d’autant plus inattendus que les neuroscientifiques sont depuis longtemps sceptiques quant aux comparaisons entre cerveaux et réseaux de neurones profonds, dont le fonctionnement peut être impénétrable. «Honnêtement, personne dans mon laboratoire ne faisait quoi que ce soit avec des filets profonds [until recently]», A déclaré la neuroscientifique du MIT, Nancy Kanwisher. «Aujourd’hui, la plupart d’entre eux les forment régulièrement.»

Filets profonds et vision

Les réseaux de neurones artificiels sont construits avec des composants d’interconnexion appelés perceptrons, qui sont des modèles numériques simplifiés de neurones biologiques. Les réseaux ont au moins deux couches de perceptrons, une pour la couche d’entrée et une pour la sortie. Mettez en sandwich une ou plusieurs couches «cachées» entre l’entrée et la sortie et vous obtenez un réseau neuronal «profond»; plus le nombre de couches cachées est élevé, plus le réseau est profond.

Des filets profonds peuvent être formés pour identifier des modèles dans les données, tels que des modèles représentant les images de chats ou de chiens. L’entraînement consiste à utiliser un algorithme pour ajuster de manière itérative la force des connexions entre les perceptrons, afin que le réseau apprenne à associer une entrée donnée (les pixels d’une image) avec l’étiquette correcte (chat ou chien). Une fois formé, le deep net devrait idéalement être en mesure de classer une entrée qu’il n’a jamais vue auparavant.

Dans leur structure et leur fonction générales, les réseaux profonds aspirent vaguement à imiter les cerveaux, dans lesquels les forces ajustées des connexions entre les neurones reflètent des associations apprises. Les neuroscientifiques ont souvent souligné des limites importantes dans cette comparaison: les neurones individuels peuvent traiter les informations plus largement que les perceptrons «stupides», par exemple, et les réseaux profonds dépendent souvent d’une sorte de communication entre les perceptrons appelée rétropropagation qui ne semble pas se produire. dans les systèmes nerveux. Néanmoins, pour les neuroscientifiques computationnels, les réseaux profonds ont parfois semblé être la meilleure option disponible pour modéliser des parties du cerveau.

LAISSER UN COMMENTAIRE

Rédigez votre commentaire !
Entrez votre nom ici