Informations

La mémoire à court terme est-elle théoriquement possible avec des neurones dopés ?

La mémoire à court terme est-elle théoriquement possible avec des neurones dopés ?

Alors je ferme les yeux, me retourne, les ouvre juste un clin d'œil et referme. J'ai observé une chaise. Je ne peux pas vous dire à quoi ressemble la chaise en détail, mais je peux plus ou moins dire sa forme et sa couleur. De plus, si je ne suis pas dérangé, je peux me souvenir de cette forme et de cette couleur pendant au moins une minute.

Et si je voulais construire un appareil qui pourrait répéter ce processus. Avec du matériel numérique, ce n'est pas trop difficile - prenez un appareil photo numérique et un périphérique de mémoire à semi-conducteurs. Pour chaque bit d'information dans mon disque SSD, je peux appeler l'opération "store" et mon bit sera stocké, ou "effacer" et il sera effacé. Je ne sais pas à quel point chaque bit physique fonctionne avec la technologie actuelle, mais étant donné un nombre suffisant de bits physiques par bit logique, je peux théoriquement créer un appareil qui stockera mon image aussi longtemps que je le souhaite.

Qu'en est-il de la construction d'un réseau neuronal à pointes pour faire la même chose ? J'ai essayé quelques approches naïves, et j'arrive à un problème fondamental : les réseaux neuronaux à pointes semblent n'avoir presque aucune inertie sur l'échelle de temps rapide. Un neurone ne se déclenche que lorsqu'il y a suffisamment d'entrée. Lorsque l'entrée est supprimée, elle ne se déclenche plus (à part une activité d'état de repos). Je peux construire un réseau avec des neurones connectés de manière récurrente, auquel cas, en principe, l'activité du réseau pourrait se maintenir après la disparition de l'entrée. Cependant, en fonction des paramètres du réseau, j'observe un basculement rapide entre deux comportements très extrêmes. Dans un cas, la force de rétroaction du réseau est trop faible et l'activité chute dès que l'entrée est supprimée. Dans l'autre, le poids de rétroaction est trop fort et l'activité du réseau atteint rapidement un état de déclenchement maximal indépendamment de l'entrée exacte reçue par le réseau. Ces transitions sont exponentiellement rapides. Théoriquement, il existe des mécanismes de contrôle adaptatifs dans les réseaux neuronaux, tels que l'inhibition et la plasticité synaptique. Cependant, j'ai du mal à comprendre comment de tels mécanismes peuvent être assez rapides pour compenser l'augmentation ou la baisse soudaine des intrants.

TL;DR: Les réseaux neuronaux naïvement ne semblent pas assez stables pour mettre en œuvre une mémoire à court terme robuste. Quels sont les mécanismes connus qui le rendent pourtant possible ?

Remarque : Je ne demande pas comment fonctionne exactement la mémoire à court terme. Je suis conscient que personne ne sait vraiment. Je demande à l'intuition de réfuter mon argument selon lequel cela ne devrait pas fonctionner lorsqu'il est mis en œuvre à l'aide de neurones.


Bien que nous ne sachions pas tout à fait comment fonctionnent tous les aspects de la mémoire de travail, des expériences montrent qu'un sous-ensemble de cellules du cerveau présente activité persistante pendant les tâches de mémoire de travail.

Voici un exemple tiré d'une critique de Curtis & D'Esposito :

Il s'agit d'une tâche dans le panneau (a) où un signal est présenté brièvement (marqué par "C"), puis le singe doit se souvenir du signal (pendant le temps marqué par "D"), et enfin au temps R le des cibles apparaissent et le singe peut réagir.

Nous voyons dans les enregistrements de pointes de singes qu'il y a des cellules dans le cortex préfrontal dorsolatéral qui sont activées non seulement par le signal et pendant la réponse, mais elles ont une activité persistante pendant la période de retard. Dans les études humaines, nous ne pouvons normalement pas placer d'électrodes, mais la partie (b) montre une étude similaire utilisant l'IRMf, et les zones colorées sur le cerveau indiquent les zones cérébrales qui ont démontré plus de flux sanguin (marquant le métabolisme) pendant la période de retard, qui comprend des zones de la même région du cerveau que les expériences sur le singe.

Les explications sont activité réseau récurrente et bistabilité: une population de cellules qui est excitée peut continuer à s'exciter et rester active jusqu'à son arrêt (voir par exemple les réseaux attracteurs pour une idée conceptuelle), ainsi que la bistabilité dans les neurones individuels où un neurone qui atteint le seuil continue de tirer de manière tonique plutôt que de tirer un seul potentiel d'action, jusqu'à ce que le tir soit arrêté par inhibition. Campi et Wang 1998 est une excellente et claire revue de ces concepts avec une approche mathématique simple de la façon dont vous pouvez modéliser cela. in silico. Il est probablement plus efficace de partir d'ici plutôt que de le réinventer par vous-même.

Je recommande également d'autres articles de XJ Wang qui a fait un travail considérable dans ce domaine. Je vous recommande également de regarder les diagrammes phase-espace qui peuvent aider à conceptualiser des systèmes dynamiques avec des propriétés stables (et quels paramètres de réseau sont nécessaires à la stabilité), ils reviennent beaucoup en neurosciences théoriques. La neuroscience théorique de Dayan et Abbott est également un bon point de départ si vous pouvez en trouver une copie.


Campi, M., & Wang, X.J. (1998). Un modèle de mémoire de travail visuospatiale dans le cortex préfrontal : réseau récurrent et bistabilité cellulaire. Journal des neurosciences computationnelles, 5(4), 383-405.

Curtis, C. E. et D'Esposito, M. (2003). Activité persistante dans le cortex préfrontal pendant la mémoire de travail. Tendances des sciences cognitives, 7(9), 415-423.


Tous les codes de classification des revues scientifiques (ASJC)

  • APA
  • Auteur
  • BIBTEX
  • Harvard
  • Standard
  • SIF
  • Vancouver

Dans : Journal of Neuroscience, Vol. 30, n° 3, 20.01.2010, p. 916-929.

Résultats de recherche : Contribution à la revue › Article › peer-review

T1 - Codage en population hétérogène d'une tâche de mémoire à court terme et de décision

N2 - Nous avons examiné les enregistrements de pointes neurales du cortex préfrontal (PFC) pendant que les singes effectuaient une tâche de discrimination somatosensorielle retardée. En général, les neurones PFC ont affiché une grande hétérogénéité en réponse à la tâche. C'est-à-dire que bien que les cellules individuelles aient augmenté de manière fiable en réponse aux variables de tâche d'un essai à l'autre, chaque cellule avait des combinaisons idiosyncratiques de propriétés de réponse. Malgré la grande variété des types de réponses, certaines tendances générales se sont maintenues. Nous avons utilisé une analyse de régression linéaire sur les données de pointe pour à la fois afficher toute l'hétérogénéité des données et classer les cellules en catégories. Nous avons comparé différentes catégories de cellules et trouvé peu de différence dans leur capacité à véhiculer des informations sur les variables de tâche ou leur corrélation avec le comportement. Cela suggère un code neuronal distribué pour la tâche plutôt qu'un code hautement modularisé. Dans cette optique, nous avons comparé les prédictions de deux modèles théoriques aux données. Nous avons constaté que les types cellulaires prédits par les deux modèles n'étaient pas représentés de manière significative dans la population. Notre étude pointe vers une classe différente de modèles qui devraient englober l'hétérogénéité inhérente des données, mais devraient également tenir compte des caractéristiques non aléatoires de la population.

AB - Nous avons examiné les enregistrements de pointes neurales du cortex préfrontal (PFC) pendant que des singes effectuaient une tâche de discrimination somatosensorielle retardée. En général, les neurones PFC ont affiché une grande hétérogénéité en réponse à la tâche. C'est-à-dire que bien que les cellules individuelles aient augmenté de manière fiable en réponse aux variables de tâche d'un essai à l'autre, chaque cellule avait des combinaisons idiosyncratiques de propriétés de réponse. Malgré la grande variété des types de réponses, certaines tendances générales se sont maintenues. Nous avons utilisé une analyse de régression linéaire sur les données de pointe pour à la fois afficher toute l'hétérogénéité des données et classer les cellules en catégories. Nous avons comparé différentes catégories de cellules et trouvé peu de différence dans leur capacité à véhiculer des informations sur les variables de tâche ou leur corrélation avec le comportement. Cela suggère un code neuronal distribué pour la tâche plutôt qu'un code hautement modularisé. Dans cette optique, nous avons comparé les prédictions de deux modèles théoriques aux données. Nous avons constaté que les types cellulaires prédits par les deux modèles n'étaient pas représentés de manière significative dans la population. Notre étude pointe vers une classe différente de modèles qui devraient englober l'hétérogénéité inhérente des données, mais devraient également tenir compte des caractéristiques non aléatoires de la population.


Contexte du calcul fractionnaire

Définitions de la dérivée d'ordre fractionnaire

Notre bref historique du calcul fractionnaire présenté ici n'est en aucun cas complet. Pour plus de détails, de méthodes et d'applications des dérivées fractionnaires et des équations différentielles, nous suggérons les monographies de Podlubny [16] et Magin [17]. La définition d'un dérivé d'ordre fractionnaire n'est pas immédiatement évidente, et en effet, plusieurs définitions existent. La définition classique de la dérivée fractionnaire d'ordre ??, connue sous le nom de dérivée fractionnaire de Riemann-Liouville, notée 0 D t et donnée par (10) où m-1 < ?? < m (c'est à dire., m est le premier entier positif plus grand que ??), découle de la définition de l'intégrale fractionnaire.

Notez que les indices 0 et t sur 0 D t α indiquent les limites de l'intégrale fractionnaire et mettent en évidence le fait que, contrairement aux dérivées d'ordre entier, la dérivée d'ordre fractionnaire dépend de la histoire précédente de la fonction et n'est pas strictement un local biens. Une autre définition a été donnée par Caputo comme (11) où oui (m) (t) est le m e -dérivée d'ordre par rapport au temps. Notez que les deux définitions impliquent une intégration d'ordre fractionnaire et une différenciation d'ordre entier, l'ordre des deux opérations étant différent. Cependant, ces définitions ne sont pas équivalentes, sauf dans le cas où toutes les conditions initiales sont égales à 0. Ceci est analogue aux opérateurs d'ordre entier, intégration et dérivation, n'étant pas commutatifs et différant par une constante. Dans ce cas, la différence est fonction du temps. Le choix approprié de la représentation dépendra de la situation modélisée. Cependant, la définition de Caputo est souvent préférable pour la modélisation des processus physiques, car les conditions initiales des équations différentielles fractionnaires utilisant la définition de Caputo sont spécifiées en termes de dérivées d'ordre entier. En revanche, les équations différentielles fractionnaires utilisant la définition de Riemann-Liouville nécessitent des conditions initiales spécifiées en termes de dérivées d'ordre fractionnaire, qui ont généralement une interprétation physique vague.

Méthodes numériques

Nous considérons une autre définition de la dérivée d'ordre fractionnaire, la dérivée fractionnaire de Grunwald-Letnikov, qui conduira à une méthode numérique simple pour intégrer une équation différentielle fractionnaire [18]. Considérons la définition bien connue de la dérivée du premier ordre : (12a) L'application de cette définition à nouveau nous donne la dérivée du deuxième ordre, (12b) et, encore, la dérivée troisième, (12c) Par récurrence, le général m e -dérivée est donnée par (12d) où ( n k ) = n ! / ( k ! ( n − k ) ! ) est la notation habituelle pour les coefficients binomiaux, et la seconde égalité découle de la relation de fonction gamma Γ(m) = (m-1)!. L'utilisation de la fonction gamma permet d'étendre la définition de la dérivée à partir des valeurs d'ordre entier de m à un ordre fractionnaire arbitraire.

On peut montrer que la définition de Grunwald-Letnikov est équivalente à la définition de Riemann-Liouville [16]. Dans cette étude, nous considérerons le modèle d'ordre fractionnaire de Hodgkin-Huxley initialement au repos (Vm(0) = 0), et donc les trois définitions sont équivalentes. Pour illustrer le schéma d'intégration numérique, considérons une équation différentielle fractionnaire générique avec des conditions initiales nulles (13). schéma est donné par (15a) où les termes ck α peuvent être calculés récursivement en utilisant (15b) et c 1 α = α . Ainsi, les termes c k représentent une « pondération » de l'historique ou de la mémoire antérieure sur l'état actuel du système, conséquence de la non-localité de la dérivée fractionnaire. Les valeurs de c k α sont indiquées dans le texte S1 pour différentes valeurs de ?? (Fig. A dans le texte S1). Pour ?? = 1, tous les termes c k au-delà k = 1 sont égaux à 0, et l'équation 15 est équivalente à la méthode d'Euler directe. Il est important de noter que c k α diminue à mesure que k diminue, car la valeur actuelle de l'intégration numérique dépend de moins en moins des états antérieurs du système. Cependant, comme ?? diminue, c k α diminue plus lentement, c'est-à-dire qu'il y a une plus grande dépendance à l'historique du système. Notez que la discrétisation de la définition de Grunwald-Letnikov peut être utilisée pour résoudre des systèmes avec des conditions initiales non nulles en incluant un terme supplémentaire dans le schéma numérique ci-dessus [18].


Résultats

Les neurones les plus simples sur les réseaux modulaires

Considérons un réseau de neurones modèles, avec des activités . La topologie est donnée par la matrice d'adjacence , chaque élément représentant l'existence ou l'absence d'une synapse de neurone à neurone (pas besoin d'être symétrique). Dans ce type de modèle - un réseau de ce que l'on appelle souvent les neurones d'Amari-Hopfield - chaque bord a généralement un poids synaptique associé, , qui sert à stocker les informations [1]–[4]. Cependant, puisque notre objectif est de montrer comment cela peut être réalisé sans apprentissage synaptique, nous considérerons ici qu'ils ont tous la même valeur : . Les neurones sont mis à jour en parallèle (Petite dynamique) à chaque pas de temps, selon la règle de transition stochastique (1) où est le champ au neurone , et est un paramètre de stochasticité appelé Température. Cette dynamique peut être dérivée en considérant des éléments binaires couplés dans un bain thermique, la règle de transition résultant des différences d'énergie entre les états [3], [4], [36].


Discussion

Nous avons utilisé une combinaison d'optogénétique, d'enregistrements MEA et de classificateurs de machines pour étudier comment les informations de stimulus sont codées et stockées dans des réseaux formés par des neurones corticaux dissociés en culture. Les résultats de nos expériences indiquent que les informations spécifiques au stimulus sont conservées pendant des durées supérieures à 1 s et que des processus de mémoire actifs et cachés sont présents.

Ces expériences ont utilisé une nouvelle approche optogénétique. La stimulation électrique provoque un artefact au moment de la stimulation, suivi d'une réponse d'ordre fixe hautement stéréotypée d'une durée de 10 à 30 ms. Les 5 à 15 premières ms de cette réponse initiale sont artéfactuelles en ce sens qu'elles semblent être médiées électriquement et non synaptiquement (Kermany et al., 2010). Une rafale de réseau synchronisé suit souvent cette réponse initiale avec un pic survenant entre 20 et 200 ms, avant un retour à l'état pré-stimulus (Jimbo et al., 1999 Eytan et Marom, 2006 Shahaf et al., 2008). Avec la stimulation optique, il n'y a pas d'artefact de stimulus et la latence jusqu'au premier pic enregistré est beaucoup plus longue, entre 50 et 200 ms. La réponse initiale à la stimulation optique implique généralement moins de neurones et est également assez stéréotypée (Fig. 5). Comme pour la stimulation électrique, une rafale de réseau est généralement induite par une stimulation optique, mais à une latence beaucoup plus tardive (généralement comprise entre 100 et 300 ms) et pour une durée plus longue, généralement de 300 à 500 ms avant que l'activité ne se dissipe aux niveaux de préstimulation. .

Sur les essais en rafale et sans rafale, les informations de stimulus les plus activement codées sont trouvées dans les 200 premières ms. C'est aussi une période où la réponse du réseau est moins variable. Pendant ces 200 ms initiales, les informations de stimulus sont principalement codées par la configuration spatiale des unités actives. Cependant, ce n'est pas un modèle spatial statique simple d'unités qui ressemble à l'image du stimulus optique seulement 50% des unités répondent à l'éclairage direct et les unités qui codent le stimulus changent au fil du temps, avec la relation entre l'activité du réseau et l'identité du stimulus se dégradant progressivement en aléatoire. Lors des essais de rafales, les informations de stimulus activement codées peuvent persister jusqu'à 1 s, mais ces informations semblent être principalement codées par des différences dans le nombre global de pointes ou des informations temporelles, en particulier des différences dans le début et la fin des rafales du réseau.

Lorsque le réseau a été mis au défi avec un deuxième stimulus « sonde », qui ne contient aucune information concernant le premier stimulus « repère », la réponse à la sonde était typique et principalement codée dans le modèle spatial des unités actives. Cependant, il y avait des preuves d'une mémoire résiduelle du stimulus de signal précédemment présenté. Les mécanismes qui codent cette mémoire à court terme n'étaient pas singuliers. Dans deux plats, la capacité de la sonde à rappeler les informations de repère reposait sur l'absence ou la présence d'une rafale de réseau, et la mémoire à court terme était principalement codée par un changement dans le nombre global de pointes. Dans un autre plat, la mémoire à court terme était principalement codée par des changements dans la configuration spatiale des unités actives.

Des questions importantes concernant le contenu informationnel des rafales de réseau synchrone ont également été répondues. Les rafales de réseau sont capables de représenter et d'étendre les informations de stimulus dans la mémoire active, mais simultanément, il a été montré que les rafales de réseau effaçaient les mémoires cachées du signal. Si la mémoire cachée joue un rôle important dans la mémoire à court terme, alors ces observations peuvent avoir des implications pour les troubles cognitifs associés aux décharges pathologiques qui peuvent accompagner les troubles épileptiques. C'est un domaine qui nécessite plus d'investigation.

L'observation selon laquelle un stimulus de sonde peut obtenir des informations sur des stimuli précédemment présentés se compare favorablement à certains modèles théoriques de mémoire à court terme. Mongillo et al. (2008) ont proposé un modèle de mémoire de travail dans lequel un réseau neuronal organisé de manière aléatoire avec des synapses adaptatives est présenté avec un stimulus, puis maintient périodiquement les informations de stimulus en réactivant le réseau avec une entrée de sonde uniforme ou non spécifique. Figure 9UNE montre un de ces cas où nous avons utilisé un stimulus blanc uniforme comme sonde et observé une extension dépendante de la sonde des informations liées aux signaux. 11B). La théorie peut cependant anticiper ce résultat car l'une de ses principales prémisses est que les synapses excitatrices dans le cortex préfrontal facilitent. Les neurones excitateurs de nos réseaux neuronaux vivants sont susceptibles d'avoir principalement des synapses déprimantes, comme le cortex sensoriel du rat (Markram et al., 1998).

Les résultats de notre expérience cue-probe correspondent plus étroitement aux résultats rapportés par Nikolić et al. (2009), qui ont enregistré à partir du cortex visuel de chats anesthésiés. Malgré les grandes différences entre nos in vitro système et le in vivo système utilisé par Nikolić et al. (2009), il existe de nombreuses similitudes. La durée de la mémoire pour des stimuli uniques est comparable à celle des souvenirs de stimuli qui s'estompent et qui duraient ∼ 700 ms. in vivo tandis que in vitro la moyenne était de 675 ms. La corrélation entre le taux de tir moyen et les taux de classification corrects est à peu près la même in vivo (r = 0,65) et in vitro (r = 0,64), indiquant que le taux de tir moyen transporte une quantité similaire d'informations dans chaque système. La présence d'une mémoire « one-back » mais l'absence d'une mémoire « two-back » a également été rapportée in vivo. Nikolić et al. (2009) ont émis l'hypothèse que l'absence de cette mémoire « à deux arrières » pourrait être un mécanisme associé au masquage visuel, mais le fait que cette tendance existe in vitro suggère qu'il s'agit d'une propriété générique des réseaux de neurones plutôt que d'une propriété inhabituelle du cortex visuel. Les réseaux ont aussi leurs différences. Les in vitro le réseau est sujet aux rafales de réseau après ∼300 ms. Le rapport des neurones inhibiteurs aux neurones excitateurs est similaire pour les deux systèmes (Marom et Shahaf, 2002), de sorte que la stabilité supplémentaire du in vivo système est probablement fonction de son architecture. Une autre cause de cette différence peut être liée au développement plutôt qu'à l'architecture, reflétant l'absence d'apports externes à la in vitro réseau pendant le développement. Lorsque les réseaux se développant sur un MEA ont été stimulés en continu avec des entrées aléatoires, le développement de l'éclatement de réseau synchronisé a été supprimé (Wagenaar et al., 2006b). Par conséquent, des signaux externes peuvent être nécessaires au cours du développement pour assurer la stabilité du réseau, en aidant à régler et à équilibrer les sorties des neurones excitateurs et inhibiteurs.

Les processus de mémoire que nous démontrons confèrent au réseau la capacité d'effectuer des calculs dépendants de l'état, de sorte que la réponse à un stimulus varie avec l'identité du stimulus précédent. Cela constitue une forme de calcul « réservoir » (Buonomano et Maass, 2009) : des interactions non linéaires dans le temps et dans l'espace. L'application habituelle du calcul de réservoir est la séparation de motifs, et ces interactions non linéaires permettent à des signaux similaires d'évoluer vers des états de réseau très différents. La mémoire à court terme observée lors des expériences de présentation cue-probe démontre que les réseaux de neurones corticaux dissociés peuvent avoir une sensibilité non linéaire à l'ordre temporel. Dans le même temps, notre analyse de séries chronologiques de la réponse du réseau à la stimulation optique démontre que ces réseaux ont une mémoire décolorée qui préserve les informations de stimulus suffisamment longtemps pour permettre des interactions récurrentes. La seule complication est que les rafales de réseau peuvent limiter certains calculs, bien qu'elles puissent propager des informations de stimulus, elles semblent effacer la mémoire cachée.

En conclusion, les méthodes optogénétiques peuvent permettre aux chercheurs d'explorer les mécanismes neuronaux de la mémoire in vitro en utilisant des stimuli et des conceptions expérimentales similaires à celles utilisées in vivo. Un in vitro La plate-forme offre l'avantage supplémentaire de permettre aux chercheurs de rechercher rapidement des médicaments susceptibles d'avoir des effets thérapeutiques, de manipuler les gènes et l'expression des gènes, de fournir un banc d'essai pour la recherche sur les cellules souches ou d'examiner comment les ordinateurs pourraient être utilisés en conjonction avec les cellules du cerveau pour améliorer la mémoire et traitement de l'information (Chiappalone et al., 2003 Bakkum et al., 2008a Jain et Muthuswamy, 2008 Berger et al., 2011 Stephens et al., 2012). Toutes ces possibilités peuvent avoir des conséquences importantes pour le traitement des maladies associées à des troubles de la mémoire à court terme.


Résumé

Le traitement du langage implique la capacité de stocker et d'intégrer des éléments d'information dans la mémoire de travail sur de courtes périodes de temps. Selon le point de vue dominant, l'information est maintenue grâce à une activité neuronale élevée et soutenue. D'autres travaux ont soutenu que la facilitation synaptique à court terme peut servir de substrat à la mémoire. Nous proposons ici un compte rendu où la mémoire est soutenue par une plasticité intrinsèque qui régule à la baisse les taux de décharge neuronale. Les réponses d'un seul neurone dépendent de l'expérience, et nous montrons à travers des simulations que ces changements adaptatifs d'excitabilité fournissent une mémoire sur des échelles de temps allant de la milliseconde à la seconde. Pour cette raison, l'activité de pointe écrit des informations dans des variables dynamiques couplées qui contrôlent l'adaptation et se déplacent à des échelles de temps plus lentes que le potentiel membranaire. À partir de ces variables, les informations sont lues en continu dans l'état actif de la membrane pour le traitement. Ce mécanisme de mémoire neuronale ne repose pas sur une activité persistante, une rétroaction excitatrice ou une plasticité synaptique pour le stockage. Au lieu de cela, les informations sont conservées dans des conductances adaptatives qui réduisent les taux de tir et peuvent être consultées directement sans récupération signalée. La durée de la mémoire est systématiquement liée à la fois à la constante de temps d'adaptation et aux niveaux de base de l'excitabilité neuronale. Les effets d'interférence au sein de la mémoire surviennent lorsque l'adaptation est de longue durée. Nous démontrons que ce mécanisme est sensible au contexte et à l'ordre sériel, ce qui le rend approprié pour une intégration temporelle dans le traitement des séquences dans le domaine du langage. Nous montrons également qu'il permet la liaison de caractéristiques linguistiques au cours du temps au sein de registres de mémoire dynamique. Ce travail constitue une étape vers une neurobiologie computationnelle du langage.

La mémoire de travail (MW) est la capacité de conserver et de manipuler des informations sur de courtes périodes de temps, et elle joue un rôle crucial dans de nombreux domaines cognitifs. La mémoire sur de courtes échelles de temps a été caractérisée par une activité neuronale élevée qui persiste au-delà du décalage du stimulus (1, 2). Sur ce compte, les informations sont codées dans des trains de pointes et conservées dans la mémoire grâce à un tir soutenu qui est soutenu par un retour synaptique correctement réglé (3, 4) ou une multistabilité cellulaire (5 -7). Des preuves plus récentes, cependant, suggèrent que l'activité neuronale peut être très variable pendant la maintenance (8 –10) et est considérablement réduite par les demandes de double tâche (11). Dans certains cas, l'identité des éléments contenus dans la MW a été décodée de manière fiable à partir de la réponse dépendante du niveau d'oxygène dans le sang (BOLD) sans activité soutenue (12). D'autres études ont trouvé des salves discrètes dans la fréquence de la bande pendant l'encodage et la récupération (13), ce qui est difficile à concilier avec le point de vue de l'activité persistante. Pour ces raisons, la contribution de l'activité neuronale à la MW reste un sujet de débat en cours (14). Une autre approche a soutenu que la MW est soutenue par des changements transitoires de l'efficacité synaptique (15, 16). Dans un modèle de réseau, la facilitation synaptique à court terme (17) a induit des modèles de connectivité fonctionnelle spécifiques au stimulus pendant l'encodage. Après une période de faible activité de pointe, les informations pourraient être réactivées par un indice de récupération non spécifique et décodées avec succès. Ainsi, un tir soutenu n'était pas nécessaire pour le maintien de la mémoire dans ces simulations.

L'activité persistante et les théories synaptiques de la MW ont été développées dans des tâches simples à réponse différée où un petit nombre d'éléments doivent être mémorisés et rappelés explicitement après un délai. Dans d'autres domaines cognitifs, les demandes de traitement sur la MW diffèrent substantiellement de ce paradigme. Par exemple, dans le traitement du langage, le système est exposé à une entrée série rapide sans pause ni retard. Il n'y a pas d'indices de rappel dans l'entrée, et le souvenir explicite des mots n'est pas un objectif. Au lieu de cela, le système de langage transforme activement les entrées auditives ou visuelles afin de construire une interprétation au sein de la MW de manière incrémentielle en ligne. Les indices de sens peuvent se produire n'importe où dans une phrase et non adjacents à l'emplacement de l'utilisation dépendant du contexte. De plus, le traitement de la mémoire doit être sensible aux relations de précédence afin de traiter les langues où l'ordre des mots est important (par exemple, « le chien mord l'homme » et « l'homme mord le chien » contiennent le même sac de mots mais ont un sens différent). La question de savoir si l'activité persistante ou les modèles synaptiques de la MW pourraient atteindre une intégration temporelle en ligne rapide qui est sensible à l'ordre et dépendant du contexte est une question ouverte. Nous proposons une explication neurocentrique de la MW qui répond à ces exigences. Ce compte rendu est basé sur le principe de plasticité intrinsèque qui décrit les changements dans l'excitabilité neuronale en fonction de l'histoire d'entrée. La plasticité intrinsèque peut être exprimée, entre autres, par une diminution du seuil de libération du pic, une réduction du pic après hyperpolarisation ou des modifications du potentiel membranaire au repos (18, 19). Ces effets conduisent à une sensibilité neuronale plus élevée et à une augmentation du taux de décharge. À l'inverse, l'excitabilité peut diminuer en réponse à une surstimulation, provoquant une régulation à la baisse des taux de sortie comme dans l'adaptation du taux de pointe (20, 21). Ainsi, diverses formes de plasticité intrinsèque peuvent moduler temporairement l'excitabilité et altérer l'état fonctionnel des neurones (22). La plasticité intrinsèque a été impliquée dans la régulation homéostatique de l'activité du réseau, contrecarrant l'instabilité dynamique due à la plasticité Hebbian (23). Des preuves supplémentaires indiquent qu'il existe un lien de causalité entre la plasticité intrinsèque et la mémoire. Les modifications de l'excitabilité neuronale favorisent la formation et le maintien de l'engramme en modulant le seuil d'induction d'une potentialisation à long terme (24 –26). Fait important, il a également été suggéré que la plasticité intrinsèque peut servir de dispositif de stockage transitoire sur des échelles de temps plus courtes (19, 27, 28). Des découvertes récentes sur l'apprentissage des durées d'intervalle, par exemple, ont montré que les cellules répondaient avec des modulations temporellement spécifiques de leur taux de décharge (sur plusieurs centaines de millisecondes) tandis que la commande synaptique interne était pharmacologiquement bloquée (29). Cela suggère que les traces mnésiques des relations temporelles ont été maintenues par des changements intracellulaires de l'excitabilité. Ces changements sont régis par l'activation ou la désactivation rapide des conductances membranaires, ce qui rend les réponses neuronales dépendantes de l'historique des entrées et des niveaux d'activité. Ainsi, la mémoire à court terme pourrait être basée uniquement sur des mécanismes de plasticité intrinsèque, sans changements synaptiques ni activité persistante (27, 30). Pour tester cette hypothèse, nous avons mis en œuvre la MW en tant qu'adaptation neuronale de courte durée dans des circuits simulés de neurones à pointes qui réduit progressivement l'excitabilité neuronale en fonction de l'expérience. Nous décrivons d'abord ce mécanisme de base et montrons qu'il fournit une mémoire à court terme dépendante du contexte et sensible à l'ordre sériel. Ensuite, nous étudions le rôle fonctionnel de la mémoire neuronale dans le traitement des séquences linguistiques où des relations sémantiques doivent être établies entre les mots. Enfin, nous décrivons une mémoire neurobiologique en lecture-écriture basée sur des variables dynamiques couplées à différentes échelles de temps.


Annexe B : Dépendance des performances de calcul sur le délai de tâche et la taille du réseau

La mesure du rendement pexp(C, TÂCHEm) introduit dans l'équation 3.1 pour une tâche TASKm de m bits (par exemple, PAR5) et un circuit C est donnée par sommation des performances κ(C, TÂCHEm) pour la tâche -retardée TASKm sur tous les retards τ ⩾ 0. La quantité pexp(C, TÂCHEm) n'est donc pas facile à interpréter, car il n'est pas borné pour toutes les tailles de système ⁠ . Pour donner une idée de la performance du qESN, le coefficient kappa κ(C, RANDm) (qui est dans [0, 1]) est explicitement tracée en fonction de sur la figure 13A pour binaire (m = 1) et sur la figure 13B pour les réseaux haute résolution (m = 6) avec différentes tailles de réseau N = 25, 50, 150 pour la tâche RAND5. On peut remarquer que pour les fixes N, le coefficient kappa κ décroît de façon monotone avec τ, et pour τ fixe, il augmente de façon monotone avec N (en accord avec les résultats présentés dans la figure 10). La mesure de la performance pexp(C, TÂCHEm) est l'aire sous les courbes illustrées à la figure 13.

Coefficient kappa de Cohen (C, RAND5,τ) tracée en fonction du paramètre de retard τ pour les réseaux binaires avec m = 1 (log σ = 0,2, K = 3 A) et pour les réseaux haute résolution avec m = 6 (log σ = 0, K = 3B). Les graphiques montrent les résultats pour différents réseaux avec la taille N = 25 (pointillé), N = 50 (en pointillés), et N = 150 (solide). Résultats pour chaque paire de paramètres (τ, N) ont été moyennés sur 50 circuits différents C. La mesure du rendement pexp(C, TÂCHEm) peut être interprété comme l'aire sous les courbes tracées (correspondant à une sommation sur τ).

Coefficient kappa de Cohen (C, RAND5,τ) tracée en fonction du paramètre de retard τ pour les réseaux binaires avec m = 1 (log σ = 0,2, K = 3 A) et pour les réseaux haute résolution avec m = 6 (log σ = 0, K = 3B). Les graphiques montrent les résultats pour différents réseaux avec la taille N = 25 (pointillé), N = 50 (en pointillés), et N = 150 (solide). Résultats pour chaque paire de paramètres (τ, N) ont été moyennés sur 50 circuits différents C. La mesure du rendement pexp(C, TÂCHEm) peut être interprété comme l'aire sous les courbes tracées (correspondant à une sommation sur τ).


La mémoire à court terme est-elle théoriquement possible avec des neurones dopés ? - Psychologie

Tous les articles publiés par MDPI sont rendus immédiatement disponibles dans le monde entier sous une licence en libre accès. Aucune autorisation particulière n'est requise pour réutiliser tout ou partie de l'article publié par MDPI, y compris les figures et les tableaux. Pour les articles publiés sous licence Creative Common CC BY en accès libre, toute partie de l'article peut être réutilisée sans autorisation à condition que l'article original soit clairement cité.

Les articles de fond représentent la recherche la plus avancée avec un potentiel important d'impact élevé dans le domaine. Les articles de fond sont soumis sur invitation individuelle ou sur recommandation des éditeurs scientifiques et font l'objet d'un examen par les pairs avant leur publication.

L'article de fond peut être soit un article de recherche original, une nouvelle étude de recherche substantielle qui implique souvent plusieurs techniques ou approches, ou un article de synthèse complet avec des mises à jour concises et précises sur les derniers progrès dans le domaine qui passe systématiquement en revue les avancées les plus passionnantes dans le domaine scientifique. Littérature. Ce type d'article donne un aperçu des orientations futures de la recherche ou des applications possibles.

Les articles du Choix de l'éditeur sont basés sur les recommandations des éditeurs scientifiques des revues MDPI du monde entier. Les rédacteurs en chef sélectionnent un petit nombre d'articles récemment publiés dans la revue qui, selon eux, seront particulièrement intéressants pour les auteurs ou importants dans ce domaine. L'objectif est de fournir un aperçu de certains des travaux les plus passionnants publiés dans les différents domaines de recherche de la revue.


Une théorie neuronale de l'attention visuelle et de la mémoire à court terme (NTVA)

La théorie neuronale de l'attention visuelle et de la mémoire à court terme (NTVA) proposée par Bundesen, Habekost et Kyllingsbæk (2005) est passée en revue. Dans NTVA, filtration (sélection de objets) modifie le nombre de neurones corticaux dans lesquels un objet est représenté de sorte que ce nombre augmente avec l'importance comportementale de l'objet. Un autre mécanisme de sélection, classement (sélection de caractéristiques), met à l'échelle le niveau d'activation des neurones codant pour une caractéristique particulière. By these mechanisms, behaviourally important objects and features are likely to win the competition to become encoded into visual short-term memory (VSTM). The VSTM system is conceived as a feedback mechanism that sustains activity in the neurons that have won the attentional competition. NTVA accounts both for a wide range of attentional effects in human performance (reaction times and error rates) and a wide range of effects observed in firing rates of single cells in the primate visual system.

Research highlights

► We review our neural theory of visual attention and short-term memory (NTVA). ► In NTVA, filtering changes the number of cortical neurons in which an object is represented. ► Pigeonholing scales the activation in neurons coding a particular feature. ► By filtering and pigeonholing important objects and features are selected for VSTM. ► VSTM is a feedback mechanism that sustains the activity of selected representations.


NEUROIMAGING OF MEMORY-NETWORK ACTIVATION

The judicious use of functional imaging methods in the human has contributed mightily to support the network paradigm of memory. It has also contributed to the understanding of the dynamics of memory networks. However, the imaging methodology has considerable limitations. It is essential to be aware of them before any review of imaging data on memory.

The following are the most relevant limitations of PET and fMRI: (1) The neurovascular coupling function is still poorly understood. (2) Temporal resolution is inadequate to measure rapid changes in memory acquisition and recall. (3) Large individual variability limits conclusions on memory distribution or mechanisms. (4) Linear models of blood-flow change may not be fully compatible with memory functions inherently nonlinear. (5) To the extent that memory uses the same cortical networks as other related cognitive functions (e.g., attention, perception, language), it is difficult to disambiguate memory activation from that of those other functions. And (6) the neural inhibition of memory cannot be easily differentiated, by imaging, from its activation. Because of these limitations, the merits of any imaging study of memory depend on the investigator's ability to make only indispensable assumptions and use appropriate controls and analytical methods. The evidence summarized in this section comes from studies that meet those criteria.

Neuroimaging does not allow the precise tracing of the boundaries of active memory networks. The conventional assessment of cortical activation, in both intensity and extensity, is essentially analogous to that of separating signal from noise. The investigator sets a threshold—calculated from normalized baseline values—and determines the significant deviations that exceed it. Here the problem is to distinguish the variance of active memory from that of background noise. The presence of “default networks,” active in the resting state (Fox & Raichle, 2007), as well as the increased variance and the diminished activation at the edges of an active memory network makes the threshold setting critical yet somewhat arbitrary. If that threshold is too low, the networks appear larger than they are if it is too high, the networks appear smaller.

Like microelectrode research, the functional neuroimaging of working memory focused at first on the pFC, that is, on the executive sector of memory networks. PET studies showed activation of lateral pFC, especially on the right, in spatial working memory (Jonides et al., 1993 Petrides, Alivisatos, Evans, & Meyer, 1993). That was subsequently corroborated by fMRI studies (Ricciardi et al., 2006 Ranganath, Cohen, Dam, & D'Esposito, 2004). Both PET (Swartz et al., 1995) and fMRI (Cohen et al., 1994) showed also lateral prefrontal activation in visual nonspatial working memory. A special case of the latter is the memory for faces, which activates not only the lateral prefrontal areas but also the cortex of the fusiform gyrus, an area involved in face recognition (Rama & Courtney, 2005 Gazzaley, Rissman, & D'Esposito, 2004 Ranganath et al., 2004 Mecklinger, Bosch, Gruenewald, Bentin, & Von Cramon, 2000). The pFC, especially on the left, is activated in verbal working memory (Buchsbaum, Olsen, Koch, & Berman, 2005 Goldstein et al., 2005 Narayanan et al., 2005 Crottaz-Herbette, Anagnoson, & Menon, 2004 Paulesu, Frith, & Frackowiak, 1993 Petrides, Alivisatos, Meyer, & Evans, 1993) and also in working memory for mental arithmetic (De Pisapia, Slomski, & Braver, 2007 Kondo et al., 2004).

Whatever the content in working memory, the amount of prefrontal activation is directly proportional to the memory load (Narayanan et al., 2005 Cairo, Liddle, Woodward, & Ngan, 2004 Leung, Seelig, & Gore, 2004 Jaeggi et al., 2003 Linden et al., 2003 Postle, Berger, Goldstein, Curtis, & D'Esposito, 2001). In other words, prefrontal activation increases as a function of the number and complexity of items in memory. Practice, however, decreases load-related activation. Is this a sign of memory consolidation, which entails economy of synaptic resources? Or, is it of the migration of executive memory to subcortical structures (e.g., basal ganglia)?

Practically all the relevant studies show that the pFC is not the only region activated in working memory. Almost invariably, one or more posterior cortical areas are concomitantly activated. Which posterior area or areas are activated depends on the modality of the memorandum: inferior temporal areas if it is visual (additionally fusiform cortex, if it is a face), posterior parietal if it is spatial, superior temporal if it is auditory or verbal, and anterior parietal if it is tactile. Homologous areas of cortex appear activated in imaging records of the human as in microelectrode records of the monkey. Prefrontal areas are activated inasmuch as executive memory is involved and posterior areas inasmuch as perceptual memory is involved.

Consistent with the microelectrode evidence of interactions between prefrontal and posterior association areas, several imaging studies indicate that those interactions underlie the role of pFC in so-called “executive cognitive control” or “top–down attention” (Roth, Serences, & Courtney, 2006 Yoon, Curtis, & D'Esposito, 2006 Buchsbaum et al., 2005 Curtis, Sun, Miller, & D'Esposito, 2005 Postle, 2005 Kondo et al., 2004 Li et al., 2004 Sakai & Passingham, 2004). The medial pFC—especially anterior cingulate—seems part of a so-called “anterior attention system,” dedicated to spatial attention (Lenartowicz & McIntosh, 2005 Kondo et al., 2004 Petit, Courtney, Ungerleider, & Haxby, 1998 Posner & Petersen, 1990). However, the attribution of “control” to the pFC, in attention or any other cognitive function, implies for that cortex a role of “central executive,” which makes little sense in biological terms and leads to an infinite regress (Fuster, 2008 McIntosh, 2000).

In the light of imaging data, the “central executive” role of the pFC is in principle reducible to its role of integrating for prospective action a continuous flow of inputs from the internal and the external environments. The memory networks of posterior cortex are part of the internal environment, which in turn can be activated by external stimuli and the effects of action, all within the perception–action cycle (below). In that same framework, it is possible to understand the role that imaging studies attribute to the pFC in the retrieval and encoding of memory (Mitchell, Johnson, Raye, & Greene, 2004 Ranganath et al., 2004 Rypma & D'Esposito, 2003 Lee, Robbins, & Owen, 2000 Buckner et al., 1995 Kapur et al., 1994 Tulving, Kapur, Craik, Moscovitch, & Houle, 1994 Tulving, Kapur, Markowitsch, et al., 1994) both retrieval (except in involuntary or free recall) and encoding are executive acts prompted by external stimuli.

Figures 9, 10 11 –12 illustrate schematically the trends of cortical activation on the left hemisphere during performance of three working-memory tasks: visual, spatial, and verbal. The activation images consist of stills extracted from motion pictures constructed by graphic synthesis of data in the following publications (those preceded by an asterisk are based on quantitative meta-analysis of multiple studies): Buchsbaum et al., 2005 Goldstein et al., 2005 *Rajah & D'Esposito, 2005 Crottaz-Herbette et al., 2004 *Wager & Smith, 2003 *Cabeza & Nyberg, 2000 D'Esposito, Postle, & Rypma, 2000 *Duncan & Owen, 2000 Mecklinger et al., 2000 Pollmann & Von Cramon, 2000 *Casey et al., 1998 Petit et al., 1998 and Courtney, Ungerleider, Keil, & Haxby, 1997. No attempt was made to normalize quantitative differences. The time course of activation, which is unavailable in the majority of publications, was grossly estimated based on unit data from the primate in working-memory tasks.

Approximate location of various cortical areas on the three-dimensional imaging maps of subsequent figures. Areas in convexity cortex designated with white labels those in medial cortex with gray labels. SMA = supplementary motor area. Below, temporal display of a trial in a typical visual working-memory (WM) task (delayed matching-to-sample) with faces. First upward inflexion of blue time line marks the time of presentation of the sample face second inflexion, that of the choice faces. Delay—memory—period, between sample and choice, lasts 20 sec. This and three subsequent figures are made with the assistance of Allen Ardestani and personnel of the UCLA Laboratory of Neuro Imaging: Arthur Toga (director), Amanda Hammond, and Kim Haber.

Approximate location of various cortical areas on the three-dimensional imaging maps of subsequent figures. Areas in convexity cortex designated with white labels those in medial cortex with gray labels. SMA = supplementary motor area. Below, temporal display of a trial in a typical visual working-memory (WM) task (delayed matching-to-sample) with faces. First upward inflexion of blue time line marks the time of presentation of the sample face second inflexion, that of the choice faces. Delay—memory—period, between sample and choice, lasts 20 sec. This and three subsequent figures are made with the assistance of Allen Ardestani and personnel of the UCLA Laboratory of Neuro Imaging: Arthur Toga (director), Amanda Hammond, and Kim Haber.

Relative (above baseline) cortical activation at six moments in time (marked by yellow triangle) in the course of the visual (face) memory task outlined in the previous figure. Activations of convexity cortex in red, of medial cortex in pink. (1) At the sample, activation is restricted to visual and posterior inferotemporal cortex (2) in the early delay, it extends to lateral pFC, anterior cingulate, anterior inferotemporal cortex, and fusiform cortex (3) in mid-delay, it persists in prefrontal, inferotemporal, and fusiform cortex (4) in late delay, it migrates to premotor areas, persisting in inferotemporal and fusiform cortex (5) at the response (choice of sample-matching face), it covers visual, inferotemporal, and fusiform cortex in the back and extends to motor areas (including FEFs), SMA, and OFC in the front and (6) after the trial, activation lingers in anterior cingulate and OFC.

Relative (above baseline) cortical activation at six moments in time (marked by yellow triangle) in the course of the visual (face) memory task outlined in the previous figure. Activations of convexity cortex in red, of medial cortex in pink. (1) At the sample, activation is restricted to visual and posterior inferotemporal cortex (2) in the early delay, it extends to lateral pFC, anterior cingulate, anterior inferotemporal cortex, and fusiform cortex (3) in mid-delay, it persists in prefrontal, inferotemporal, and fusiform cortex (4) in late delay, it migrates to premotor areas, persisting in inferotemporal and fusiform cortex (5) at the response (choice of sample-matching face), it covers visual, inferotemporal, and fusiform cortex in the back and extends to motor areas (including FEFs), SMA, and OFC in the front and (6) after the trial, activation lingers in anterior cingulate and OFC.

Activation in a spatial memory task the memorandum, in 1, is a star at a certain position on the screen—eye fixation on center, red cross. Activations of convexity cortex in green, of medial cortex in yellow. (1) At the memorandum, activation is restricted to visual cortex (2) in early delay, it extends to lateral prefrontal, anterior cingulate, and posterior parietal cortex (3) in mid-delay, it persists in prefrontal and posterior parietal cortex (4) in late delay, it migrates to premotor areas (including SMA) and FEFs, persisting in posterior parietal cortex (5) at the response (eye saccade to position of the cue), it covers visual and inferior parietal cortex in the back and extends to FEFs, SMA, and OFC in the front and (6) after the trial, activation lingers in anterior cingulate and OFC.

Activation in a spatial memory task the memorandum, in 1, is a star at a certain position on the screen—eye fixation on center, red cross. Activations of convexity cortex in green, of medial cortex in yellow. (1) At the memorandum, activation is restricted to visual cortex (2) in early delay, it extends to lateral prefrontal, anterior cingulate, and posterior parietal cortex (3) in mid-delay, it persists in prefrontal and posterior parietal cortex (4) in late delay, it migrates to premotor areas (including SMA) and FEFs, persisting in posterior parietal cortex (5) at the response (eye saccade to position of the cue), it covers visual and inferior parietal cortex in the back and extends to FEFs, SMA, and OFC in the front and (6) after the trial, activation lingers in anterior cingulate and OFC.

Activation in a verbal memory task the memorandum, in 1, is a word through earphones. Activations of convexity cortex in orange, of medial or sulcal cortex in yellow. (1) At the memorandum, activation is restricted to auditory cortex, superior temporal gyrus, and inferior frontal cortex (2) in early delay, it extends to lateral prefrontal, anterior cingulate, and superior-temporal and parietal association cortex (3) in mid-delay, it persists in prefrontal and temporo-parietal cortex (4) in late delay, it persists in prefrontal and migrates to premotor areas while persisting in temporo-parietal cortex (5) at the response (signaling whether cue word is on the screen), it covers visual and temporo-parietal cortex in the back and extends to FEFs, SMA, inferior frontal, and OFC in the front and (6) after the trial, activation lingers in anterior cingulate, OFC, and language areas.

Activation in a verbal memory task the memorandum, in 1, is a word through earphones. Activations of convexity cortex in orange, of medial or sulcal cortex in yellow. (1) At the memorandum, activation is restricted to auditory cortex, superior temporal gyrus, and inferior frontal cortex (2) in early delay, it extends to lateral prefrontal, anterior cingulate, and superior-temporal and parietal association cortex (3) in mid-delay, it persists in prefrontal and temporo-parietal cortex (4) in late delay, it persists in prefrontal and migrates to premotor areas while persisting in temporo-parietal cortex (5) at the response (signaling whether cue word is on the screen), it covers visual and temporo-parietal cortex in the back and extends to FEFs, SMA, inferior frontal, and OFC in the front and (6) after the trial, activation lingers in anterior cingulate, OFC, and language areas.

A reasonable explanation of the joint prefrontal–posterior activation and functional interdependence in working memory is that in the course of behavior—as in reasoning and language—a prefrontal network of executive memory interacts with a posterior network of perceptual memory. Both complement each other and cooperate in short-term, long-term, and working memory. Both control each other reciprocally at the top of the perception–action cycle. In serial behavior, the control shifts successively in circular fashion between the two. In working memory, that reciprocal interaction adopts the form of neural reverberation between—and within—the two to retain the memorandum and its associations, including the expected response and reward.

In summary, imaging shows that working memory activates simultaneously a region of pFC and at least one other region of posterior cortex. As indicated by the other reviewed methodologies, reverberating reentry between the two, at the top of the perception–action cycle, is probably the key mechanism of working-memory maintenance. The particular posterior region or regions most activated in working memory roughly coincide with the region(s) containing the most modality-specific memory cells in the monkey. Neuropsychological data implicate those regions in the learning, discrimination, and long-term memory of modality-specific material. Functional imaging, further, supports the conclusion that working memory is based on the sustained activation of a widespread cortical network of long-term memory or cognit. That network unifies neuron assemblies in noncontiguous cortical areas and represents the associated aspects of the memorandum, executive as well as sensory, including the ad hoc trial- or situation-specific information.


Is short-term memory theoretically possible to with spiking neurons? - Psychologie

It has been commonly believed that information in short-term memory (STM) is maintained in persistent delay-period spiking activity.

Recent experiments have begun to question this assumption, as the strength of persistent activity appears greater for tasks that require active manipulation of the memoranda, as opposed to tasks that require only passive maintenance.

New experiments have revealed that information in STM can be maintained in neural ‘hidden’ states, such as short-term synaptic plasticity.

Machine-learning-based recurrent neural networks have been successfully trained to solve a diversity of working memory tasks and can be leveraged to understand putative neural substrates of STM.

A traditional view of short-term working memory (STM) is that task-relevant information is maintained ‘online’ in persistent spiking activity. However, recent experimental and modeling studies have begun to question this long-held belief. In this review, we discuss new evidence demonstrating that information can be ‘silently’ maintained via short-term synaptic plasticity (STSP) without the need for persistent activity. We discuss how the neural mechanisms underlying STM are inextricably linked with the cognitive demands of the task, such that the passive maintenance and the active manipulation of information are subserved differently in the brain. Together, these recent findings point towards a more nuanced view of STM in which multiple substrates work in concert to support our ability to temporarily maintain and manipulate information.


Voir la vidéo: Como Mejorar la Memoria a corto plazo con estos 9 sencillos ejercicios #SEOArticulo (Janvier 2022).