CONSULTER UN PSYCHOLOGUE PRESENTATION

THERAPIES APPLIQUEES

BIBLIOGRAPHIE

Inscription à la Newsletter

 

NEUROSCIENCES : RECHERCHES

 
Clients de Ruby Villar Documet, psychologue Courbevoie et Paris
 

296. NEUROSCIENCES & PSYCHOLOGIE

Grand stockage : Le cerveau garde 10 fois plus d’informations que prévu

Résumé : Les chercheurs ont développé une méthode pour mesurer la force synaptique, la précision de la plasticité et le stockage des informations dans le cerveau. En utilisant la théorie de l’information, les chercheurs ont découvert que les synapses peuvent stocker 10 fois plus d’informations qu’on ne le pensait auparavant.

Les résultats améliorent la compréhension de l’apprentissage, de la mémoire et de la manière dont ces processus évoluent ou se détériorent. Cette percée pourrait propulser la recherche sur les troubles neurodéveloppementaux et neurodégénératifs.

Faits marquants :

- Plasticité synaptique : l'étude mesure la force synaptique, la plasticité et le stockage de l'information à l'aide de la théorie de l'information.
- Stockage accru : les résultats montrent que les synapses peuvent stocker 10 fois plus d'informations qu'on ne le pensait auparavant.
- Impact sur la recherche : Cette méthode peut faire progresser les études sur l'apprentissage, la mémoire et les troubles cérébraux comme la maladie d'Alzheimer.

Source : Institut Salk

À chaque fois que vous parcourez un jeu de cartes mémoire de mots de vocabulaire, leurs définitions apparaissent plus rapidement et plus facilement. Ce processus d’apprentissage et de mémorisation de nouvelles informations renforce les connexions importantes dans votre cerveau.

 

Se souvenir plus facilement de ces nouveaux mots et définitions avec la pratique est la preuve que ces connexions neuronales, appelées synapses, peuvent devenir plus fortes ou plus faibles avec le temps – une caractéristique connue sous le nom de plasticité synaptique.

Quantifier la dynamique des synapses individuelles peut être un défi pour les neuroscientifiques, mais les récentes innovations informatiques de l'Institut Salk pourraient changer cela et révéler de nouvelles connaissances sur le cerveau en cours de route.

Pour comprendre comment le cerveau apprend et retient les informations, les scientifiques tentent de quantifier à quel point une synapse est devenue plus forte grâce à l’apprentissage et à quel point elle peut le devenir.

La force synaptique peut être mesurée en examinant les caractéristiques physiques des synapses, mais il est beaucoup plus difficile de mesurer la précision de la plasticité (si les synapses s'affaiblissent ou se renforcent d'une quantité constante) et la quantité d'informations qu'une synapse peut stocker.

Les scientifiques de Salk ont ​​établi une nouvelle méthode pour explorer la force synaptique, la précision de la plasticité et la quantité de stockage d'informations. La quantification de ces trois caractéristiques synaptiques peut améliorer la compréhension scientifique de la manière dont les humains apprennent et se souviennent, ainsi que de la manière dont ces processus évoluent avec le temps ou se détériorent avec l'âge ou la maladie.

Les résultats ont été publiés dans Neural Computation le 23 avril 2024.

"Nous parvenons à mieux identifier exactement où et comment les neurones individuels sont connectés les uns aux autres, mais nous avons encore beaucoup à apprendre sur la dynamique de ces connexions", déclare le professeur Terrence Sejnowski, auteur principal de l'étude et titulaire du Chaise Francis Crick à Salk.

"Nous avons maintenant créé une technique pour étudier la force des synapses, la précision avec laquelle les neurones modulent cette force et la quantité d'informations que les synapses sont capables de stocker, ce qui nous amène à découvrir que notre cerveau peut stocker 10 fois plus d'informations qu'auparavant. pensée."

Lorsqu’un message traverse le cerveau, il passe d’un neurone à l’autre, passant de l’extrémité d’un neurone aux vrilles tendues, appelées dendrites, d’un autre.

Chaque dendrite d'un neurone est recouverte de minuscules appendices bulbeux, appelés épines dendritiques, et à l'extrémité de chaque épine dendritique se trouve la synapse, un petit espace où les deux cellules se rencontrent et où un signal électrochimique est transmis. Différentes synapses sont activées pour envoyer différents messages.

Certains messages activent des paires de synapses, qui vivent les unes à côté des autres sur la même dendrite. Ces paires de synapses constituent un outil de recherche fantastique : si deux synapses ont des historiques d'activation identiques, les scientifiques peuvent comparer la force de ces synapses pour tirer des conclusions sur la précision de la plasticité.

Puisque le même type et la même quantité d’informations ont traversé ces deux synapses, ont-elles chacune changé en force dans la même quantité ? Si tel est le cas, leur précision de plasticité est élevée.

L'équipe Salk a appliqué les concepts de la théorie de l'information pour analyser les paires de synapses d'un hippocampe de rat (une partie du cerveau impliquée dans l'apprentissage et la mémoire) pour déterminer la force, la plasticité et la précision de la plasticité.

La théorie de l’information est une manière mathématique sophistiquée de comprendre le traitement de l’information comme une entrée traversant un canal bruyant et étant reconstruite à l’autre extrémité.

Surtout, contrairement aux méthodes utilisées dans le passé, la théorie de l'information prend en compte le bruit des nombreux signaux et cellules du cerveau, en plus d'offrir une unité d'information discrète (un peu) pour mesurer la quantité d'informations stockées au niveau d'une synapse.

"Nous avons divisé les synapses par force, parmi lesquelles il y avait 24 catégories possibles, puis comparé des paires de synapses spéciales pour déterminer avec quelle précision la force de chaque synapse est modulée", explique Mohammad Samavat, premier auteur de l'étude et chercheur postdoctoral dans le laboratoire de Sejnowski.

"Nous étions ravis de constater que les paires avaient des tailles d'épines dendritiques et des forces synaptiques très similaires, ce qui signifie que le cerveau est très précis lorsqu'il affaiblit ou renforce les synapses au fil du temps."

En plus de noter les similitudes dans la force des synapses au sein de ces paires, ce qui se traduit par un haut niveau de précision de plasticité, l'équipe a également mesuré la quantité d'informations contenues dans chacune des 24 catégories de force. Malgré les différences dans la taille de chaque épine dendritique, chacune des 24 catégories de force synaptique contenait une quantité similaire (entre 4,1 et 4,6 bits) d'informations.

Par rapport aux techniques plus anciennes, cette nouvelle approche utilisant la théorie de l'information est (1) plus approfondie, représentant 10 fois plus de stockage d'informations dans le cerveau qu'on ne le pensait auparavant, et (2) évolutive, ce qui signifie qu'elle peut être appliquée à des ensembles de données divers et volumineux pour recueillir des informations sur d’autres synapses.

"Cette technique va être d'une aide considérable pour les neuroscientifiques", déclare Kristen Harris, professeur à l'Université du Texas à Austin et auteur de l'étude.

"Cet examen détaillé de la force et de la plasticité synaptiques pourrait réellement propulser la recherche sur l'apprentissage et la mémoire, et nous pouvons l'utiliser pour explorer ces processus dans toutes les différentes parties du cerveau humain, du cerveau animal, du cerveau jeune et du cerveau âgé."

Sejnowski affirme que les travaux futurs de projets tels que l'initiative BRAIN des National Institutes of Health, qui ont établi un atlas des cellules cérébrales humaines en octobre 2023, bénéficieront de ce nouvel outil.

Outre les scientifiques qui cataloguent les types et les comportements des cellules cérébrales, cette technique est intéressante pour ceux qui étudient les problèmes de stockage des informations, comme dans le cas de la maladie d'Alzheimer.

Dans les années à venir, les chercheurs du monde entier pourraient utiliser cette technique pour faire des découvertes passionnantes sur la capacité du cerveau humain à acquérir de nouvelles compétences, à se souvenir des actions quotidiennes et à stocker des informations à court et à long terme.

 

À propos de cette actualité de la recherche sur la plasticité synaptique

Auteur : Terrence Sejnowski
Source : Salk Institute
Contact : Terrence Sejnowski – Salk Institute
Image : L'image est créditée à Neuroscience News

Recherche originale : accès libre.
« Capacité de stockage d'informations synaptiques mesurée avec la théorie de l'information » par Terrence Sejnowski et al. Calcul neuronal

 

Abstrait

Capacité de stockage d'informations synaptiques mesurée avec la théorie de l'information

La variation de la force des synapses peut être quantifiée en mesurant les propriétés anatomiques des synapses. La quantification de la précision de la plasticité synaptique est fondamentale pour comprendre le stockage et la récupération d'informations dans les circuits neuronaux.

Les synapses du même axone sur la même dendrite ont une histoire commune de coactivation, ce qui en fait des candidats idéaux pour déterminer la précision de la plasticité synaptique basée sur la similitude de leurs dimensions physiques.

Ici, la précision et la quantité d'informations stockées dans les dimensions des synapses ont été quantifiées avec la théorie de l'information de Shannon, élargissant ainsi l'analyse antérieure utilisant la théorie de la détection des signaux (Bartol et al., 2015).

Les deux méthodes ont été comparées en utilisant les volumes de la tête dendritique de la colonne vertébrale au milieu de la couche radiée de la zone hippocampique CA1 comme mesures bien définies de la force synaptique.

La théorie de l'information a délimité le nombre de forces synaptiques distinctes sur la base de groupes non chevauchants de volumes de tête de la colonne vertébrale dendritique. L'entropie de Shannon a été appliquée pour mesurer la capacité de stockage d'informations synaptiques (SISC) et a abouti à une limite inférieure de 4,1 bits et une limite supérieure de 4,59 bits d'informations sur la base de 24 tailles distinctes.

Nous avons en outre comparé la distribution des tailles distinguables et une distribution uniforme en utilisant la divergence de Kullback-Leibler et avons découvert qu'il existait une distribution presque uniforme des volumes de tête de la colonne vertébrale entre les tailles, suggérant une utilisation optimale des valeurs distinguables.

Ainsi, SISC fournit une nouvelle mesure analytique qui peut être généralisée pour sonder les forces synaptiques et la capacité de plasticité dans différentes régions cérébrales de différentes espèces et parmi les animaux élevés dans différentes conditions ou pendant l'apprentissage. La manière dont les maladies et troubles cérébraux affectent la précision de la plasticité synaptique peut également être étudiée.

 

Juin 2024

CONSULTER UN PSYCHOLOGUE PRESENTATION

THERAPIES APPLIQUEES

BIBLIOGRAPHIE

Inscription à la Newsletter

 

NEUROSCIENCES : RECHERCHES

 

TESTS PSYCHOLOGIQUES

symbole psy final


Sauvegarder
Choix utilisateur pour les Cookies
Nous utilisons des cookies afin de vous proposer les meilleurs services possibles. Si vous déclinez l'utilisation de ces cookies, le site web pourrait ne pas fonctionner correctement.
Tout accepter
Tout décliner
En savoir plus
Analytique
Outils utilisés pour analyser les données de navigation et mesurer l'efficacité du site internet afin de comprendre son fonctionnement.
Google Analytics
Accepter
Décliner