Épisodes

  • Pourquoi le temps semble-t-il ralentir à la salle de sport ?
    Dec 5 2025

    Pourquoi une minute sur un rameur paraît soudain plus longue qu’une minute sur un canapé ? Selon une étude récente publiée dans la revue Brain and Behavior, cette impression n’est pas qu’un ressenti : notre cerveau perçoit réellement le temps différemment pendant l’effort physique.


    Les chercheurs ont recruté un groupe de participants et les ont soumis à des exercices d’intensité variable, tout en leur demandant d’estimer la durée de séquences très courtes. Résultat : plus l’effort augmentait, plus les participants surestimaient le temps. En clair, le cerveau étire littéralement la perception du temps pendant l’exercice.

    Pourquoi cela arrive-t-il ? L’étude met en avant plusieurs mécanismes. D’abord, lorsque l’intensité physique augmente, le cœur s’accélère, la respiration se fait plus rapide et le système nerveux sympathique – celui de l’alerte – s’active. Cette montée physiologique envoie au cerveau un signal clair : « ce qui se passe nécessite ton attention ». Or, l’attention est un facteur majeur de la perception temporelle. Plus nous sommes attentifs à nos sensations corporelles – souffle, chaleur, douleur musculaire –, plus le temps nous paraît long. Le cerveau découpe alors les informations en segments plus nombreux, ce qui donne l’impression que le temps s’étire.


    Deuxième élément : la fatigue cognitive. L’effort physique soutenu active des régions du cerveau comme le cortex insulaire et le cortex cingulaire antérieur, impliqués dans la gestion de l’effort, de la douleur et du contrôle. Or, lorsque ces régions sont sursollicitées, elles laissent moins de ressources disponibles pour évaluer précisément le passage du temps. Résultat : le cerveau adopte un mode de comptage approximatif qui tend à rallonger les durées perçues.


    Troisième mécanisme : l’anticipation. Pendant une série de squats ou une séance de tapis de course, le cerveau se projette inconsciemment vers la fin de l’effort. Il survele la progression, attend la prochaine pause, guette la dernière répétition. Cette attente crée une tension cognitive qui peut altérer le flux temporel et donner l’impression que chaque seconde est plus longue que la précédente.


    Enfin, le contexte compte. À la salle de sport, nous faisons souvent une activité volontaire mais inconfortable. Or, des travaux antérieurs ont montré que l’ennui, la contrainte ou la douleur ralentissent la perception du temps, contrairement au plaisir ou à la distraction, qui l’accélèrent.


    En résumé, si le temps semble ralentir pendant l’effort, ce n’est pas une illusion psychologique mais une modification réelle du traitement du temps par le cerveau. Le système nerveux surveille davantage le corps, surestime les durées, anticipe la fin et mobilise des circuits cognitifs qui, sous tension, altèrent le jugement temporel. C’est cette combinaison qui transforme une minute de sport en une petite éternité.

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Voir plus Voir moins
    2 min
  • Quelles sont les conséquences cognitives des réseaux sociauxs sur les 9-13 ans ?
    Dec 3 2025

    Une nouvelle étude du JAMA s’est penchée sur une question de plus en plus pressante : que se passe-t-il dans le cerveau des enfants de 9 à 13 ans lorsque leur usage des réseaux sociaux augmente fortement entre l’enfance et le début de l’adolescence ? Pour y répondre, les chercheurs ont suivi 6 500 enfants américains pendant deux ans et ont mesuré l’évolution de leurs performances cognitives : lecture à voix haute, vocabulaire, mémoire. Le résultat est clair : l’augmentation du temps passé sur les réseaux sociaux est associée à une baisse mesurable de ces compétences.


    Premier enseignement : la lecture et le vocabulaire sont les premiers domaines touchés. Les enfants dont l’usage des réseaux sociaux a augmenté modérément ou fortement sur deux ans obtiennent des scores plus faibles aux tests de lecture orale et de vocabulaire, comparés à ceux qui en font un usage faible ou stable. La différence n’est pas spectaculaire, mais réelle : moins de fluidité, des difficultés à lire rapidement ou à mobiliser certains mots. Ce sont des écarts subtils qui peuvent, au fil du temps, se traduire par un apprentissage plus lent ou un léger décrochage en classe.


    Deuxième conséquence cognitive : la mémoire. L’étude montre une baisse des performances aux tests de mémoire chez les utilisateurs dont le temps d’écran social augmente régulièrement. Les chercheurs suggèrent plusieurs explications possibles : le multitâche permanent, la succession rapide de stimuli, ou encore la fragmentation de l’attention due aux notifications constantes. Ces mécanismes peuvent réduire la capacité à encoder et à retenir l’information.


    Troisième point : ce n’est pas seulement le niveau d’usage qui compte, mais la trajectoire. Les enfants qui restent « faibles utilisateurs » conservent de meilleurs scores cognitifs, tandis que ceux dont l’usage augmente d’année en année voient leurs performances décliner. En d’autres termes, un enfant qui commence à scroller chaque jour à 10 ans n’a pas le même profil cognitif deux ans plus tard qu’un enfant qui utilise les réseaux uniquement de manière ponctuelle.


    L’étude souligne toutefois des nuances importantes. Les effets observés sont modestes : tous les scores restent dans la moyenne normale. Rien n’indique que les réseaux sociaux « abîment » le cerveau, mais ils semblent exercer une influence cumulative sur certaines compétences scolaires. Les données ne permettent pas non plus d’affirmer un lien de causalité directe : d’autres facteurs entrent en jeu, comme la qualité du sommeil, l’environnement familial, le temps passé à lire ou les conditions scolaires.


    En résumé, l’étude du JAMA révèle que l’usage croissant des réseaux sociaux entre 9 et 13 ans est associé à des baisses subtiles mais constantes en lecture, vocabulaire et mémoire. De quoi rappeler qu’un usage encadré, équilibré et sans dérive progressive reste essentiel à cet âge clé du développement cognitif.

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Voir plus Voir moins
    2 min
  • Quels sont les effets étonnants du jeûne sur le cerveau ?
    Dec 1 2025

    Imaginez ceci : votre cerveau et votre intestin discutent en coulisses, comme deux partenaires secrets. Lorsque vous imposez une période de jeûne intermittent à votre corps, cette conversation change. C’est exactement ce qu’a révélé une étude publiée en décembre 2023 dans Frontiers in Cellular and Infection Microbiology, menée sur 25 personnes obèses suivant un programme de restriction énergétique intermittente durant deux mois.


    Premier effet insoupçonné : le cerveau se réorganise. Les chercheurs ont utilisé l’IRM fonctionnelle pour observer l’activité de certaines régions. Résultat : les zones impliquées dans le contrôle des envies, la gestion des émotions et la perception de la nourriture voient leur activité diminuer. Le gyrus frontal orbital inférieur (lié au contrôle), le putamen (lié à l’apprentissage et à l’émotion) et le cortex cingulaire antérieur s’apaisent progressivement. Cela signifie que le jeûne intermittent ne modifie pas seulement le comportement alimentaire : il transforme la façon dont le cerveau réagit à la nourriture et au contrôle de soi.


    Deuxième effet étonnant : l’intestin change lui aussi. Le microbiote intestinal évolue vers un profil plus favorable. Les chercheurs ont observé une diminution d’Escherichia coli, souvent associée à un état inflammatoire, et une augmentation de bactéries bénéfiques comme Faecalibacterium prausnitzii, Parabacteroides distasonis et Bacteroides uniformis. Le jeûne intermittent semble donc remodeler la flore intestinale, améliorant potentiellement l’environnement métabolique de l’organisme.


    Troisième effet, et non des moindres : ces deux phénomènes sont liés. L’étude montre que les variations de certaines bactéries intestinales évoluent en parallèle des modifications d’activité de certaines régions du cerveau. C’est l’illustration directe de l’axe intestin-cerveau : un réseau de communication complexe où l’intestin influence le cerveau (via le nerf vague ou des métabolites), tandis que le cerveau, en retour, influence l’écosystème intestinal.


    Ce qui rend cette étude particulièrement originale, c’est son approche dynamique : les chercheurs n’ont pas observé seulement un « avant/après », mais la manière dont les changements apparaissent au fil du temps. Certaines bactéries bénéfiques augmentent fortement au milieu du protocole, puis reviennent presque à leur niveau initial à la fin, montrant que ces effets sont adaptatifs, peut-être transitoires.


    En résumé : le jeûne intermittent n’agit pas uniquement sur le poids. Il modifie l’activité cérébrale dans des circuits essentiels, transforme le microbiote intestinal et révèle un dialogue étroit entre l’intestin et le cerveau. Ces résultats, encore préliminaires, suggèrent que jeûner revient à réécrire, même temporairement, la manière dont votre cerveau et votre intestin se parlent. Une perspective fascinante pour comprendre le lien entre alimentation, cognition et santé.

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Voir plus Voir moins
    3 min
  • Pourquoi votre cerveau ne sait plus apprécier les petits plaisirs ?
    Nov 28 2025

    La réponse, de plus en plus évidente pour les neuroscientifiques, tient en grande partie à la dopamine libérée lorsque vous consultez votre téléphone.


    Chaque notification, chaque défilement de fil d’actualité, chaque ouverture d'application déclenche un petit pic de dopamine dans le système de récompense du cerveau. Ce circuit, centré sur le striatum et le cortex préfrontal, réagit fortement à la nouveauté, à l’anticipation et à la surprise – trois éléments que les smartphones offrent en continu. Le problème, c’est que ces micro-stimulants répétés finissent par modifier la sensibilité de ce circuit.


    À force d’être sollicité des dizaines, parfois des centaines de fois par jour, le cerveau s’adapte. Il augmente son seuil d’activation : il faut plus de stimulation pour obtenir le même degré de satisfaction. Résultat : les plaisirs simples – écouter de la musique calmement, savourer un café, marcher, lire – déclenchent moins de dopamine, donc moins de plaisir. Le contraste avec l’intensité rapide et imprévisible du téléphone rend les activités du quotidien « plates » en comparaison.


    Une étude publiée en 2022 par Upshaw et al., intitulée The hidden cost of a smartphone: The effects of smartphone notifications on cognitive control from a behavioral and electrophysiological perspective, apporte un éclairage important. Les chercheurs montrent que les notifications de smartphone captent instantanément les ressources attentionnelles et altèrent le contrôle cognitif, modifiant le fonctionnement du cerveau même lorsqu’on ignore volontairement la notification. Si l’étude ne mesure pas directement la dopamine, elle met en évidence un mécanisme compatible avec la saturation du système de récompense : une exposition continue aux signaux numériques perturbe les circuits impliqués dans l’attention, la motivation et, indirectement, la perception du plaisir.


    Ce phénomène s’apparente à une forme de « tolérance ». Comme pour toute stimulation répétée du circuit dopaminergique, le cerveau devient moins réceptif aux récompenses modestes et réclame des stimuli plus intenses ou plus fréquents pour atteindre le même niveau de satisfaction. Le téléphone, avec ses micro-récompenses permanentes, devient alors l’option la plus simple pour obtenir un petit shoot dopaminergique. Et à l’inverse, les petites joies du quotidien deviennent silencieuses.


    La bonne nouvelle, c’est que ce processus est réversible. En réduisant l’exposition aux notifications, en créant des plages sans écran, et en réintroduisant des activités lentes et régulières, le circuit de récompense peut se réajuster. Mais il faut du temps : un cerveau saturé de petites récompenses demande un sevrage progressif pour réapprendre à goûter l’essentiel.



    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Voir plus Voir moins
    2 min
  • Sauter le petit-déjeuner affecte-t-il le cerveau ?
    Nov 26 2025

    Pour beaucoup d’adultes, le petit déjeuner n’est pas seulement un repas : c’est un rituel culturel, presque un ancrage quotidien. On dit souvent qu’il faut « donner du carburant au cerveau » dès le réveil pour penser clairement, mémoriser, se concentrer. Pourtant, une méta-analyse d’envergure, publiée récemment dans la revue Psychological Bulletin, vient sérieusement nuancer cette conviction.


    Cette méta-analyse, qui agrège des dizaines d’études menées sur plusieurs décennies, montre que l’impact cognitif du petit-déjeuner n’est ni simple ni universel. Contrairement à l’idée selon laquelle sauter le premier repas de la journée provoquerait systématiquement une baisse d’attention ou de mémoire, les auteurs concluent que les effets varient fortement selon les individus, leur état de santé, et même leur habitude alimentaire.


    Chez les enfants, les adolescents ou les personnes souffrant d’hypoglycémie ou de troubles métaboliques, prendre un petit-déjeuner peut effectivement améliorer l’attention et la mémoire immédiate. C’est logique : leur cerveau, plus sensible aux variations de glucose, bénéficie directement d’un apport énergétique stable dès le matin.


    Mais chez l’adulte en bonne santé, l’histoire est très différente. L’étude révèle que la qualité du fonctionnement cérébral dépend beaucoup moins de la présence d’un petit-déjeuner que de la régularité alimentaire globale, du sommeil, du niveau de stress et du métabolisme individuel. Autrement dit : sauter un repas de temps en temps – voire régulièrement, comme dans le jeûne intermittent – n’induit pas de déficit cognitif mesurable chez la majorité des adultes.


    Pourquoi ? Parce que le cerveau est extraordinairement adaptable. En l’absence d’apport immédiat en glucose, il puise dans ses réserves internes, mobilise d’autres sources d’énergie et maintient très bien ses fonctions essentielles. Certaines études incluses dans la méta-analyse montrent même une légère amélioration de la vigilance après un jeûne léger, possiblement liée à des mécanismes d’alerte et de mobilisation hormonale.


    En revanche, la méta-analyse souligne un point souvent négligé : ce n’est pas tant « sauter le petit-déjeuner » qui pose problème que la façon dont on compense ensuite. Les personnes qui ne mangent pas le matin mais se tournent ensuite vers des aliments très sucrés ou des prises alimentaires irrégulières montrent, elles, davantage de fluctuations d’humeur et de concentration.


    En résumé, le petit-déjeuner n’est pas le bouton ON du cerveau qu’on imaginait. Il peut aider certains profils, être inutile pour d’autres, et n’a en tout cas rien d’un passage obligatoire pour maintenir ses capacités cognitives. Ce qui compte réellement, ce n’est pas l’heure du premier repas, mais la stabilité de l’alimentation dans son ensemble.

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Voir plus Voir moins
    2 min
  • Pourquoi les malades d’Alzheimer oublient-ils d'abord leurs proches ?
    Nov 24 2025

    Une étude récente publiée dans la revue Alzheimer’s & Dementia, the journal of the Alzheimer’s Association, apporte un éclairage nouveau sur ce phénomène. Les chercheurs y montrent que les régions du cerveau spécialisées dans la reconnaissance des visages – notamment le gyrus fusiforme et certaines zones du lobe temporal – sont parmi les premières affectées par l’accumulation de protéines toxiques caractéristiques de la maladie, comme la bêta-amyloïde et la protéine tau. Ces zones semblent perdre rapidement leur capacité à traiter ce que les neuroscientifiques appellent la reconnaissance “holistique” : la perception d’un visage comme un tout cohérent, et non comme une simple collection d’éléments.


    Reconnaître un visage est, en réalité, l’un des actes cognitifs les plus complexes que nous réalisons au quotidien. Il ne s’agit pas seulement de “voir” la personne : il faut comparer la forme du visage à un souvenir stocké, activer la mémoire autobiographique, puis accéder à l’identité, au prénom, au lien affectif. C’est un processus qui implique simultanément perception, mémoire épisodique, mémoire sémantique et émotion. Lorsque les réseaux temporaux et hippocampiques commencent à se dégrader – ce qui survient très tôt dans la maladie – cette chaîne se brise.


    Les objets, eux, reposent sur un tout autre type de traitement. Un bol, une clé ou une chaise n’ont pas besoin d’être reconnus de manière holistique. Le cerveau s’appuie surtout sur leur forme, leur usage et leur contexte. Autrement dit, les objets activent davantage la mémoire sémantique, qui résiste généralement plus longtemps aux atteintes d’Alzheimer que la mémoire autobiographique et les circuits de traitement social.


    L’étude publiée dans Alzheimer’s & Dementia montre également que la “mémoire associative visage-nom”, une fonction clé pour identifier les proches, est l’une des premières à décliner. Les auteurs notent que même lorsque les patients se repèrent encore dans leur environnement ou manipulent correctement les objets du quotidien, la reconnaissance des visages familiers peut déjà être altérée. Le cerveau perd d’abord la capacité d’associer un visage à une histoire, avant même de perdre la mémoire des choses.


    Enfin, un facteur émotionnel amplifie ce phénomène : oublier un objet passe inaperçu, mais oublier le visage d’un proche est immédiatement visible, bouleversant et insupportable. Ce contraste contribue à l’impression que la perte des visages arrive “en premier”, alors qu’elle reflète surtout la vulnérabilité des réseaux cognitifs qui soutiennent nos liens les plus intimes.

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Voir plus Voir moins
    2 min
  • La musique peut-elle modifier nos souvenirs ?
    Nov 21 2025

    Oui, la musique peut réellement modifier nos souvenirs — pas seulement les raviver, mais aussi les transformer. C’est ce que montre une étude menée par des chercheurs de l’Institut de Technologie de Géorgie (Georgia Institute of Technology), publiée en 2023 dans la revue Nature Communications.


    Les neuroscientifiques y ont observé comment la musique influence la consolidation et la précision des souvenirs. L’expérience reposait sur un protocole simple : des volontaires devaient mémoriser des images pendant qu’ils écoutaient différentes séquences sonores — certaines musicales, d’autres neutres ou discordantes. Les chercheurs ont ensuite évalué, plusieurs heures plus tard, la fidélité des souvenirs associés à ces images.


    Résultat : la musique émotionnellement marquante modifiait la trace mnésique. Lorsqu’un morceau suscitait une émotion positive ou nostalgique, le souvenir devenait plus vivace, plus riche en détails. En revanche, une musique triste ou dissonante pouvait brouiller la mémoire d’origine, en y introduisant une coloration émotionnelle différente. Autrement dit, le souvenir se “réécrivait” partiellement, sous l’influence du ressenti musical.


    L’équipe dirigée par le Dr Caitlin Mullins a utilisé l’imagerie cérébrale (IRM fonctionnelle) pour comprendre le mécanisme. Elle a observé une coopération accrue entre l’amygdale, qui traite les émotions, et l’hippocampe, le centre de la mémoire épisodique. Cette synchronisation neuronale, induite par la musique, favorise à la fois la réactivation et la “mise à jour” du souvenir. Le cerveau, en quelque sorte, reconsolide la mémoire en y intégrant l’émotion du moment présent.


    Les chercheurs comparent ce phénomène à un processus d’édition : chaque fois que l’on se remémore un événement accompagné de musique, on le réimprime avec une nouvelle encre émotionnelle. Cela explique pourquoi une chanson peut nous replonger dans un souvenir heureux, mais aussi pourquoi, avec le temps, ce souvenir peut se teinter d’une nuance différente selon notre état émotionnel.


    En conclusion, selon l’étude du Georgia Institute of Technology, la musique ne se contente pas d’être une bande sonore de nos souvenirs : elle en est aussi un outil de réécriture. À chaque écoute, le cerveau réactive, colore et modifie subtilement le passé, prouvant qu’en matière de mémoire, rien n’est jamais complètement figé.

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Voir plus Voir moins
    2 min
  • Qu'est-il arrivé au cerveau d'Albert Einstein ?
    Nov 19 2025

    Le 18 avril 1955, Albert Einstein meurt à l’hôpital de Princeton, à 76 ans. Son cerveau est alors retiré lors de l’autopsie par le pathologiste Thomas Stoltz Harvey. L’organe, pesant environ 1 230 grammes, est fixé au formol, photographié sous plusieurs angles, puis découpé en près de 240 fragments. Chaque morceau est conservé ou envoyé à des chercheurs, accompagnés d’une carte précise indiquant leur origine anatomique. Ce prélèvement fut réalisé sans autorisation préalable, ce qui provoqua une controverse. Harvey obtint ensuite, rétroactivement, l’accord du fils d’Einstein, à condition que les analyses servent uniquement la science.


    Les premières observations ont révélé un cerveau plutôt normal par sa taille, mais singulier par sa structure. Les photographies étudiées en 2012 ont montré que les lobes frontaux d’Einstein présentaient un nombre inhabituel de circonvolutions et une asymétrie marquée entre les hémisphères. Le cortex préfrontal, siège de la planification et du raisonnement abstrait, apparaissait particulièrement développé. Les lobes pariétaux — impliqués dans les capacités visuospatiales et mathématiques — étaient également plus complexes que la moyenne, avec des plis supplémentaires qui augmentent la surface corticale disponible pour le traitement de l’information.


    Sur le plan microscopique, la biologiste Marian Diamond, de l’Université de Californie à Berkeley, publia en 1985 une étude comparant des coupes du cerveau d’Einstein à celles d’hommes du même âge. Elle observa un ratio plus élevé de cellules gliales par neurone dans la zone pariétale gauche, une région associée au raisonnement spatial et symbolique. Les cellules gliales assurant la nutrition et la protection des neurones, certains chercheurs y ont vu un indice d’activité métabolique soutenue — bien que l’échantillon soit trop limité pour en tirer des conclusions générales.


    D’autres travaux, en 2013, ont porté sur le corps calleux, le pont de fibres reliant les deux hémisphères. Il était plus épais qu’en moyenne dans plusieurs segments, suggérant une communication interhémisphérique particulièrement dense. Cela pourrait avoir favorisé une meilleure intégration entre intuition spatiale (droite) et logique analytique (gauche).


    En résumé, le cerveau d’Einstein se distinguait par certaines particularités anatomiques : plis corticaux atypiques, forte densité gliale locale, connexions interhémisphériques marquées. Mais les scientifiques restent prudents : il n’existe pas de “cerveau du génie” type. L’intelligence d’Einstein résidait sans doute autant dans sa curiosité, son imagination et sa persévérance que dans la forme de ses circonvolutions.

    Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

    Voir plus Voir moins
    3 min