Comment la canicule détraque notre sommeil

Les fortes chaleurs déstabilisent l’équilibre délicat entre sommeil et température corporelle. Shutterstock

Ron Grunstein, University of Sydney

La canicule s’apprête à s’abattre sur la France, avec des températures approchant les 40 °C. Par une telle chaleur, trouver le sommeil peut se révéler extrêmement difficile.

Car le sommeil et la thermorégulation corporelle sont intimement liés. La température du corps suit en effet un cycle de 24 heures lié au rythme d’alternance entre sommeil et éveil. En théorie, le corps se refroidit pendant la phase où l’on dort et se réchauffe lorsque l’on est éveillé. Le sommeil nous vient plus facilement quand la température du corps décroît, et peine davantage à s’imposer lorsqu’elle augmente.

Nos mains et nos pieds jouent un rôle clé pour aider au sommeil. Ils permettent au sang chauffé du centre du corps de se refroidir par le contact de la peau avec l’environnement extérieur. L’hormone du sommeil, dite mélatonine, participe aussi largement à cette complexe perte de chaleur, à travers les parties périphériques du corps.

En début de nuit, la température corporelle diminue, mais la température périphérique de la peau augmente. Ces variations se complexifient ensuite au cours de la nuit, car notre autorégulation de la température varie selon le stade du sommeil.

Les cycles de sommeil perturbés

Des recherches ont montré combien la chaleur extérieure peut perturber cet équilibre délicat entre sommeil et température corporelle.

L’idéal est une température ambiante de 22 ou 23 °C. Toute variation importante par rapport à cette référence engendre des perturbations du sommeil : le sommeil lent, au cours duquel l’activité électrique du cerveau ralentit et le cerveau « se repose », est restreint, et la phase de rêve – ou sommeil paradoxal – est elle aussi raccourcie.

Au cours du sommeil paradoxal en effet, notre capacité à réguler la température du corps est affaiblie, donc en cas de froid ou de chaleur extrême, le corps comprend qu’il vaut mieux « sauter » cette étape. Une vague de chaleur peut ainsi provoquer plusieurs nuits de sommeil fragmenté. D’où la sensation bien justifiée d’avoir mal dormi et de ne pas se sentir reposé à ces périodes, ce qui peut affecter négativement notre attention et notre humeur.

En théorie, le phénomène peut aussi avoir des effets plus subtils, tels que des problèmes de mémorisation, un jugement altéré (une capacité de décision affaiblie et des comportements à risques), ou sur le contrôle de la tension artérielle et la régulation du glucose dans le corps. Bref, si vous devez prendre d’importantes décisions en période de canicule, dormez dans un environnement bien climatisé.

Dormir sur le côté, prendre une douche

En dehors de l’air conditionné, quelles solutions pour mieux dormir pendant une vague de chaleur ? S’allonger en position latérale pour minimiser le contact avec le matelas peut être une solution, vers laquelle le corps tendra de toute façon naturellement pendant votre sommeil, en réponse à la hausse des températures.

Rafraîchir le milieu du corps avec un vêtement mouillé ou une serviette, ou prendre une douche fraîche peut également aider. Il est en tout cas essentiel d’éviter de s’agiter trop dans les heures précédant votre coucher car cela compliquera d’autant plus la baisse de la température corporelle.


Cet article a été traduit de l’anglais par Nolwenn Jaumouillé.

Ron Grunstein, Professor of Sleep Medicine and NHMRC Practitioner Fellow, Woolcock Institute of Medical Research, University of Sydney

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.


Ondes et autres histoires ondulatoires

File 20181105 83638 1mr2kz3.jpg?ixlib=rb 1.1
Claude Monet, Nymphéas avec reflet de hautes herbes. Claude Monet

Viviane Lalande, Polytechnique Montréal

Nous publions ici un extrait de l’ouvrage « Le monde a des racines carrées » qui paraît ce jour aux Éditions de l’Homme.


L’entrechoc des trous noirs

Il y a des voisins dont on se passerait bien volontiers et d’autres que l’on cherche, au contraire, désespérément à joindre. À un point tel que l’on construit des machines extrêmement complexes pour détecter leur présence. Ces voisins ne sont pas humains, ils se trouvent à des milliards d’années-lumière de nous et ils détiennent des informations primordiales sur l’origine de notre univers. De quoi nous donner envie de les écouter avec une extrême attention…

Rainer Weiss, Barry C. Barish et Kip S. Thorne sont les prix Nobel de physique 2017. Ces trois physiciens sont à l’origine de la mesure des ondes gravitationnelles dont la notion avait été théorisée il y a plus d’un siècle par l’illustre Albert Einstein. Tout comme les ondes sonores ou électromagnétiques, les ondes gravitationnelles sont des déplacements d’énergie, mais qui se font par le biais de déformations du milieu dans lequel baignent tous les astres : l’espace-temps.

Illustrons ce que sont ces ondes par un exemple simple. Lorsque nous nous asseyons sur un canapé, nous déformons le coussin qui nous supporte du fait de notre poids (certains moins que d’autres d’ailleurs). Que cela soit nous ou n’importe quel objet sur le canapé, chaque élément déforme le coussin de façon proportionnelle à sa masse. Par exemple, un téléphone induit une déformation quasi imperceptible (à moins que l’on parle d’un téléphone fixe des années 1930…). Elle est si faible que, si celui-ci se trouve à proximité de nous, il glissera vers notre fessier. Dans cette analogie, nous représentons une étoile ou un trou noir, le canapé représente l’espace-temps, sa déformation représente la gravité de notre fessier ou du téléphone et le téléphone correspond à n’importe quel autre objet céleste moins massif (tel qu’une planète, des débris, une petite étoile).

Maintenant, si, au lieu de nous asseoir, nous nous laissons tomber sur le canapé, cette fois-ci le téléphone sera propulsé dans les airs… alors même que nous ne l’avions pas touché en tombant. Le contact de notre fessier avec le canapé a été si vif qu’il a créé une onde qui s’est propagée dans le canapé et que le téléphone a ressentie. Les ondes gravitationnelles sont similaires à nos ondes de canapé, à la différence près qu’elles ne proviennent pas d’un fessier, mais d’un événement intense et soudain impliquant un ou plusieurs objets massifs célestes – par exemple une étoile qui implose, deux trous noirs qui entrent en collision… Les ondes qui en résultent voyagent dans l’espace-temps jusqu’à ce que nous en captions les ondulations sur Terre, comme le téléphone sur le canapé, à la différence près que ces ondes sont tellement lointaines qu’elles sont devenues à peine perceptibles sur notre planète !

Interférences

Pour mesurer de telles oscillations, des appareils immenses appelés interféromètres ont été installés dans les États de Washington et de Louisiane, aux États-Unis, mais aussi en Europe. Bien que les détections qu’ils permettent soient l’objet d’une collaboration internationale, nous nous focaliserons ici sur les détecteurs localisés en Amérique du Nord, les premiers à avoir détecté la toute première onde gravitationnelle.

Les interféromètres mesurent des interférences. Ces dernières peuvent se représenter par le fait de jeter deux cailloux à une certaine distance l’un de l’autre, chacun produira des vagues dont la forme changera au moment de leur rencontre : elles interféreront. En regardant simplement les interférences des ondes, on peut déduire les propriétés des ondes à l’origine de celles-ci. Les interféromètres utilisés pour les ondes gravitationnelles sont composés de deux lasers de 4 km de long, perpendiculaires, qui interfèrent optiquement entre eux. Sur une telle distance, si l’espace-temps est déformé, l’onde lumineuse du laser le sera aussi et on pourra voir un nouveau diagramme ­d’interférence dans l’appareil de mesure. « Voir » est un bien grand terme, car le déplacement qui a été observé est minuscule : de l’ordre d’un millième du diamètre d’un proton (10-18 m).

Toutes les mesures sont effectuées simultanément par les interféromètres de Washington et de Louisiane. En ayant deux appareils de mesure aussi éloignés l’un de l’autre, on s’assure que les vibrations mesurées proviennent bien d’une source extraterrestre et non d’un séisme local ou simplement de la circulation routière. Car les vibrations, ce n’est pas ce qui manque autour de nous. En permanence, les capteurs détectent les tremblements terriens (le passage d’un avion, des mouvements géologiques, etc.) et cosmiques. Tout se confond, les ondes se mélangent. Il y en a tellement que c’est une cacophonie ! Même si ces oscillations ne sont pas sonores, c’est ce que l’on appelle du bruit : des informations de vibration qui se confondent et qui, a priori, ne nous intéressent pas.

Un signal se distingue du bruit par son intensité, qui est beaucoup plus forte. La notion de rapport signal/bruit est cruciale. Quand, par exemple, vous êtes dans une foule avec un brouhaha ambiant et que, subitement, vous vous retournez parce que quelqu’un commence à parler au micro, c’est parce que le rapport signal/bruit vous a permis de détecter qu’il y avait un son beaucoup plus fort (et sans doute plus important) que le reste. Mais comme vos cris vains pour attirer de loin l’attention de quelqu’un dans une foule bruyante, les signaux à détecter se fondent parfois dans la cacophonie ambiante, ce qui complique la tâche des scientifiques pour les détecter.

Le 14 septembre 2015 à 4 h du matin, alors que les détecteurs étaient en phase finale de test, un signal beaucoup plus fort que les autres et d’une durée de 0,15 seconde est apparu sur les instruments de mesure. C’était le premier signal d’une onde gravitationnelle. Un signal d’onde pareil, visible à l’œil nu (ce qui est exceptionnel), correspondait forcément à un événement cosmique majeur.

Les ondes captées, gravitationnelles, sonores ou lumineuses, se définissent ainsi : la fréquence représente le nombre de fois que l’onde réalise un cycle complet en une seconde (son unité de mesure est le Hertz, noté Hz). La longueur d’onde représente la distance (en mètres) entre deux pics de l’onde et la période représente le temps qu’il faut à l’onde pour faire un cycle complet. L’amplitude représente à quel point l’onde est forte (son unité est le décibel pour le son, le mètre pour des vagues, le lux pour de la lumière, etc.). Enfin, la phase représente le point de départ de l’onde. Viviane Lalande, Author provided

À partir du signal détecté, on dispose de deux types d’information : la fréquence et l’amplitude des ondes. C’est tout. Avec si peu, il est impossible de deviner quel événement est à l’origine de l’émission de ces ondes. Il faut alors avoir recours à des modèles numériques. Par exemple, sachant comment se forme un trou noir, les physiciens simulent informatiquement, selon tous les scénarios imaginables, ce à quoi pourrait ressembler une onde gravitationnelle résultant de la formation d’un trou noir que l’on capterait sur Terre. Ils ont ainsi construit numériquement une bibliothèque de signaux d’ondes gravitationnelles qu’ils comparent avec les mesures qu’ils prennent. Quand cette comparaison est positive, ils savent que leur simulation est représentative de la réalité.

Ondulation de l’espace-temps

Après de longues analyses, les chercheurs ont découvert que cette ondulation de l’espace-temps résultait de la fusion, appelée coalescence, d’un trou noir de 29 masses solaires avec un autre de 36 masses solaires. Ce fut un choc dans le monde de l’astrophysique. Comme les physiciens n’avaient pas prévu l’existence d’aussi gros trous noirs, peu de simulations comparatives étaient disponibles. Ils ont donc dû enrichir leur bibliothèque d’ondes pour trouver quel avait été le scénario originel.

La fusion qui a été captée a donné lieu à un trou noir énorme de 62 masses solaires. Or, si l’on additionne les masses des deux trous noirs, 29 + 36, on obtient 65 et non 62. La conservation de la masse et de l’énergie (voir chapitre 8 du livre) s’applique également à des « objets » aussi étranges que les trous noirs. Les trois masses solaires manquantes ne peuvent pas avoir disparu : elles correspondent à l’énergie qui s’est dissipée sous forme d’ondes gravitationnelles pour parvenir sur Terre, 1,3 milliard d’années plus tard. Les ondes captées avaient des fréquences entre 30 et 500 Hz, ce qui correspond à des fréquences qui, une fois converties en ondes sonores, sont audibles pour nous, humains. Les chercheurs ont alors réalisé cette conversion : au lieu de faire osciller l’espace-temps, ils ont fait vibrer une membrane de haut-parleur à la même fréquence que les ondes détectées. Le tout peut s’écouter sur Internet, je vous le recommande. Ce que vous entendrez, c’est l’équivalent d’une vague de l’espace-temps qui a voyagé pendant 1,3 milliard d’années, à travers l’espace. Quand elles ont été émises, l’Homme n’existait pas encore…

Mais revenons aux ondes. Non seulement la détection elle-même était un événement scientifique majeur qui a soulevé de nouvelles questions, mais la nature de la détection constituait elle aussi une grande avancée dans la compréhension de la formation des trous noirs et de la composition de l’univers au moment de leur formation. Les trous noirs se forment à partir d’une très grosse étoile. Au cours de sa vie, l’étoile n’est pas inerte et elle produit des « vents ». Nos vents terrestres sont composés d’air et restent autour de notre planète. Mais les vents stellaires, eux, sont composés de matière provenant de l’étoile et s’échappent de celle-ci, comme si elle s’effritait avec le temps. Ainsi, à la fin de sa vie, quand elle se prépare à s’effondrer sur elle-même pour devenir un trou noir, elle aura beaucoup minci par rapport à ses origines et ne présentera plus qu’un certain pourcentage de sa masse originale.

Lorsque les physiciens lèvent les yeux au ciel et font des prédictions, ils se basent sur la composition de l’univers qu’ils connaissent, celle d’aujourd’hui : « Avec un univers tel que celui que nous connaissons, une étoile composée de tels éléments peut faire telle masse ; au bout de X années, elle se transformera en un trou noir qui aura une taille entre Y et Z. » Même si ce raisonnement est extrêmement simplifié, il illustre bien que la prédiction de la taille des trous noirs part de la connaissance des éléments qui composent actuellement notre univers.

Les trous noirs détectés le 14 septembre 2015 sont beaucoup trop gros par rapport aux prédictions qui avaient cours jusque-là. Cela veut donc dire que l’univers avait une composition très différente lors de leur formation, il y a 4 à 8 milliards d’années. Voilà une découverte qui a de quoi chambouler le monde de l’astrophysique !

Le monde a des racines carrées. Éditions de l’Homme, Author provided

Ondes fascinantes

Les ondes sont, pour moi, un des sujets les plus fascinants de la physique. Nous sommes bercés et émotionnellement touchés par la musique, cette collection de fréquences bien agencées. Nous nous réchauffons auprès d’un feu émetteur de précieuses ondes infrarouges, nous mangeons des plats réchauffés au micro-ondes et racontons à nos amis, via notre réseau d’ondes téléphoniques, comment nous avons joué dans les grandes ondes mécaniques que sont les vagues de la mer. Nous nous divertissons devant la télé (ou YouTube) et transmettons notre savoir de génération en génération en faisant osciller nos cordes vocales. Nous nous émerveillons devant les couleurs vives d’un champ de coquelicots et sommes rebutés par un choix vestimentaire douteux, lorsque les ondes du spectre visible ne sont pas assemblées à notre goût. Les médecins nous auscultent avec leur stéthoscope qui capte les vibrations du sang dans nos veines, ils nous font passer des examens médicaux avec des rayons X ou bien écoutent le futur bébé avec des ultrasons, alors que ce même bébé se rassure avec les battements du cœur et la voix de sa mère. Nous rentrons chez nous grâce au GPS qui nous guide depuis l’espace, lui-même scruté par les astrophysiciens à l’écoute des ondulations de l’espace-temps pour, simplement, comprendre l’origine de l’univers…

Viviane Lalande, Doctorante en génie mécanique à Polytechnique Montréal, animatrice de la chaîne de vulgarisation Scilabus , Polytechnique Montréal

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

La Semaine du son – Janvier 2019

OUVERTURE DE LA SEMAINE DU SON à PARIS le 21 janvier au Ministère de la Santé : Les thérapies fondées sur le sonore dans l'amélioration du bien-être des patients.

Il s'agissait d'une soirée -débat -Table ronde animée par Michel Alberganti avec plusieurs intervenants.

Pour ceux et celles qui n'ont pas pu venir ou se déplacer, nous insérons ici :

l' Allocution

Ecoute d'un diapason via le micro

Je vais vous présenter la spécificité de notre pratique :

Celle-ci est double :

Nous pratiquons une thérapie par le son puisque nous utilisons une composante solidienne du son vectorisé par un diapason. 

Notre pratique s'appuie sur la Chronophysiologie du corps humain que Jean-Claude Ameisen décrit dans son livre les « battements du temps ».

Cela veut dire quoi ?

Nous les humains, comme tous les animaux, nous sommes représentés comme un système d’auto-organisation en adaptation permanente avec notre environnement. Notre corps s’adapte toutes les 24 heures au fait que la terre se présente face au soleil et à sa lumière : Celui-ci est donc rythmé périodiquement.

  • Les chercheurs en chronobiologie ont mis en évidence l'existence d'une horloge centrale située dans notre cerveau, d'horloges périphériques dans chacun de nos organes et de CLOCKGENES(ou gènes d’horloge) au niveau de l'ADN. Ce qui signifie qu'au cours de l’évolution de l’humanité, nous avons intégré des fonctions temporelles à tous les niveaux de notre organisme.
  • Par ailleurs, Ils ont associé les notions de rythme biologique et d’oscillation. Pour eux, nous sommes des systèmes oscillatoires.
  • Pour faire référence à tous ces mécanismes, le sociologue Hartmut Rosa a développé la notion de "Fréquence Temporelle".

Voici 2 minuscules structures qui battent la mesure dans notre cerveau à notre insu.  Il s’agit des 2 noyaux supra-chiasmatiques, chef d’orchestre du corps humain. Cette vidéo en accéléré est issue du laboratoire San Diego. (NSC de souris)

Avec l’oscillation mécanique d’un son sobre voire monochromatique issu d’un diapason, nous travaillons via notre structure organique sur nos fonctions temporelles, c’est à dire sur les pulsations rythmiques qui oscillent en nous en permanence.

Pourquoi en avons-nous besoin ?

Depuis plus d'un siècle environ les humains se sont affranchis du tempo jour-nuit, perdant ainsi l'effet stabilisateur de 2 synchronisateurs périphériques puissants que sont la prise de repas et le sommeil à heure fixe. En cessant de nous soumettre, petit à petit, à nos propres rythmes physiologiques, nous nous créons des décalages de phases. Aujourd’hui, l’accélération des rythmes de nos sociétés est devenue telle que certains doivent même vivre à l’encontre de leurs rythmes biologiques : les travailleurs postés.

Ÿ  Quand le décalage de phase devient pérenne notre système d’auto-organisation en pâtit. En effet, notre système nerveux autonome est sous ou sur-stimulé et finit par se déréguler. Nous parlons alors de désynchronisation.

Plus les décalages de phases sont importants et plus le corps humain est désaccordé, voire en cacophonie dit le Dr Gronfier.

Comment cela peut-il marcher ?

L’oscillation d’un diapason, selon sa fréquence mécanique hertzienne, possède pourrait-on dire un tempo, une mesure, un rythme. En appliquant un diapason sur le corps humain nous donnons une information rythmique qui aide le système d’autorégulation à retrouver sa " Fréquence Temporelle ". Nous parlons alors de synchronisation des rythmes biologiques.

Pour que l'information soit la plus sobre (moins parasitée) possible, nous choisissons un seul type d’oscillation et donc un seul diapason au cours d’une même séance. Ici, je fais référence à la théorie de Shannon (il y a un donneur, un message et un récepteur)le message passe mieux jusqu’au récepteur, s'il y a le moins de bruitage possible. L’application du diapason sur une zone sera répétée autant de fois que nécessaire jusqu’à mettre tous les rythmes biologiques en phase tout en faisant attention à ne pas saturer les tissus.

https://www.lasemaineduson.org/les-therapies-par-le-son

Christian Hugonnet et Michel Alberganti

Comment les horloges moléculaires donnent l’heure de l’espèce humaine

File 20180117 53292 p3l2hq.jpg?ixlib=rb 1.1
Il y avait une fois la naissance de l’Homo sapiens
Milan Nykodym/Flickr, CC BY

Les mutations génétiques se font en rythme

L’ADN est le support de notre histoire familiale et plus largement de l’histoire de l’évolution de notre espèce : comment sommes-nous liés à nos parents non-humains chimpanzés ; comment Homo sapiens a rencontré les Néandertaliens ; et comment les gens ont migré hors d’Afrique, s’adaptant à de nouveaux environnements et modes de vie au long de la route. Notre ADN contient également des indices sur le calendrier de ces événements clés dans l’évolution humaine.

Quand les scientifiques disent que les humains modernes ont émergé en Afrique il y a environ 200 000 ans et ont commencé leur expansion mondiale il y a environ 60 000 ans : comment estiment-ils ces dates ?

Traditionnellement, les chercheurs construisaient des chronologies de la préhistoire humaine en se basant sur des fossiles et des artefacts, qui peuvent être directement datés avec des méthodes telles que [ la datation par le Carbone 14 et la datation au potassium-argon. Cependant, ces méthodes nécessitent des vestiges antiques dans certaines conditions de conservation, ce qui n’est pas toujours le cas. De plus, des fossiles ou des artefacts pertinents n’ont pas été découverts pour décrire tous les jalons de l’évolution humaine.

L’analyse de l’ADN des génomes actuels et anciens fournit une approche complémentaire pour la datation des événements de l’évolution. Certains changements génétiques se produisent à un rythme constant par génération, ils fournissent ainsi une estimation du temps qui passe : une horloge moléculaire en somme. En comparant les séquences d’ADN, les généticiens peuvent non seulement reconstituer les relations entre différentes populations ou espèces, mais également déduire l’histoire de l’évolution sur des échelles très grandes.

Grâce à des techniques de séquençage d’ADN plus sophistiqués et à une meilleure compréhension des processus biologiques à l’origine des changements génétiques, les horloges moléculaires deviennent de plus en plus précises. En appliquant ces méthodes à des bases de données ADN toujours plus riches de diverses populations (d’aujourd’hui et du passé), les généticiens aident à construire une chronologie plus précise de l’évolution humaine.

ADN et mutations

Les horloges moléculaires sont basées sur deux processus biologiques clés qui sont la source de toute variation héréditaire : la mutation et la recombinaison.

Les mutations sont des changements dans le code de l’ADN, comme quand une base (nucléotide) : A, T, C ou G sont remplacés par une autre par erreur.
Shutterstock

Les mutations sont des changements dans les lettres du code génétique de l’ADN – par exemple, un nucléotide guanine (G) devient une thymine (T). Ces changements seront hérités par les générations futures s’ils se produisent dans les cellules œufs issues de la fusion d’un spermatozoïde et d’un ovule. La plupart résultent d’erreurs commises lorsque l’ADN se copie au cours de la division cellulaire, bien que d’autres types de mutations surviennent spontanément ou à la suite de facteurs de risques tels que les radiations et les produits chimiques : des agents mutagènes.

Dans un génome humain, il y a environ 70 changements de nucléotides par génération – une paille quand l’on sait que notre génome est composé de six milliards de lettres. Mais globalement, sur plusieurs générations, ces changements entraînent une variation évolutive substantielle.

Les scientifiques peuvent utiliser les mutations pour estimer le moment où se créent des branches dans notre arbre évolutif, soit la différenciation entre deux espèces. D’abord, ils comparent les séquences d’ADN de deux individus ou espèces, en comptant les différences neutres qui ne modifient pas les chances de survie et de reproduction d’une personne. Puis, connaissant le taux de ces changements, ils peuvent calculer le temps nécessaire pour accumuler autant de différences.

La comparaison de l’ADN entre vous et votre fratrie montrerait relativement peu de différences mutations parce que vous partagiez des ancêtres – maman et papa – il y a seulement une génération. Cependant, il existe des millions de différences entre les humains et les chimpanzés : notre dernier ancêtre commun aurait vécu il y a plus de six millions d’années.

Des fragments des chromosomes de votre mère et de votre père se recombinent avant de vous être transmis.
Chromosomes image via Shutterstock.

La recombinaison, également connue sous le nom de crossing-over, est l’autre principale façon avec laquelle l’ADN accumule les changements dans le temps. Il conduit à un brassage des deux copies du génome (une de chaque parent), qui sont regroupées en chromosomes. Au cours de la recombinaison, les chromosomes correspondants (homologues) s’alignent et échangent des segments, de sorte que le génome que vous transmettez à vos enfants est une mosaïque de l’ADN de vos parents.

Chez les humains, environ 36 événements de recombinaison se produisent chaque génération, un ou deux par chromosome. Comme cela se produit à chaque génération, les segments hérités d’un individu particulier se brisent en morceaux de plus en plus petits. Les généticiens peuvent donc se baser sur la taille de ces morceaux et la fréquence des croisements pour estimer à quel moment de l’histoire deux individus ont partagé un ancêtre commun.

Le flux de gènes entre des populations divergentes conduit à des chromosomes avec une ascendance en mosaïque. Comme la recombinaison se produit à chaque génération, les morceaux d’ascendance néandertalienne dans les génomes humains modernes deviennent de plus en plus petits au fil du temps.
Bridget Alex, CC BY-ND

Construire une frise chronologique avec des mutations

Les changements génétiques issus de la mutation et de la recombinaison fournissent deux horloges distinctes, chacune adaptée à la datation de différents événements évolutifs et échelles de temps.

Les mutations s’accumulent très lentement donc cette horloge fonctionne mieux pour les événements très anciens, comme pour les différenciations entre espèces. D’autre part, l’horloge de recombinaison est utile pour dater des évènements ayant eu lieu ces 100 000 dernières années. Ces événements « récents » (en temps évolutif) incluent le flux de gènes entre des populations humaines distinctes, la montée d’adaptations bénéfiques ou l’émergence de maladies génétiques.

Le cas des Néandertaliens illustre bien comment les horloges de mutation et de recombinaison peuvent être utilisées ensemble pour nous aider à démêler des relations ancestrales complexes. Les généticiens estiment qu’il existe entre 1,5 et 2 millions de différences de mutation entre les Néandertaliens et les humains modernes. L’application de l’horloge de mutation à ce compte suggère que les groupes se sont séparés initialement il y a 750 000 à 550 000 ans.

À cette époque, une population – les ancêtres communs des deux groupes humains – s’est séparée géographiquement et génétiquement. Quelques individus du groupe ont migré vers l’Eurasie et au fil du temps ont évolué en Néandertaliens. Ceux qui sont restés en Afrique sont devenus des humains anatomiquement modernes.

Un arbre phylogénétique affiche les dates de divergence et de croisement que les chercheurs ont estimées avec des méthodes d’horloge moléculaire pour ces groupes.
Bridget Alex, CC BY-ND

Cependant, leurs interactions n’étaient pas terminées : les humains modernes ont finalement colonisé l’Eurasie et se sont accouplés avec des Néandertaliens. En appliquant l’horloge de recombinaison à l’ADN néandertalien conservé chez les humains actuels, les chercheurs estiment que les groupes se sont croisés entre 54 000 et 40 000 ans. Lorsque les scientifiques ont analysé un fossile d’Homo sapiens, connu sous le nom d’Oase 1, ayant vécu il y a environ 40 000 ans, ils ont trouvé de grandes régions d’ascendance néandertalienne dans le génome d’Oase 1, suggérant que Oase 1 avait un ancêtre néandertalien il y a seulement quatre ou six générations. En d’autres termes, l’arrière-arrière-grand-parent d’Oase 1 était un néandertalien.

Comparaison du chromosome 6 du fossile Oase vieux de 40 000 ans à un humain d’aujourd’hui. Les bandes bleues représentent des segments d’ADN de Néandertal issus de croisements antérieurs. Les segments d’Oase sont plus longs parce qu’il a eu un ancêtre néandertalien juste 4-6 générations avant qu’il ait vécu, basé sur des estimations utilisant l’horloge de recombinaison.
Bridget Alex, CC BY-ND

Des horloges instables

Les horloges moléculaires sont un pilier des calculs évolutifs, non seulement pour les humains mais pour toutes les formes d’organismes vivants. Mais il existe des facteurs rendant complexes les estimations.

Le principal défi provient du fait que les taux de mutation et de recombinaison ne sont pas restés constants au fil de l’évolution humaine. Les taux eux-mêmes évoluent, ils varient donc avec le temps et peuvent différer entre les espèces et même entre les populations humaines. C’est comme si l’on essayait de mesurer le temps avec une horloge qui tourne à différentes vitesses dans différentes conditions.

Un problème concerne un gène appelé Prdm9, qui détermine l’emplacement des cross-overs de l’ADN. Il a été montré que la modification des endroits de l’ADN où ont lieu les recombinaisons est due à la variation de ce gène, et cela chez les humains, les chimpanzés et les souris. En raison de l’évolution de Prdm9, les taux de recombinaison diffèrent entre les humains et les chimpanzés, et peut-être aussi entre les Africains et les Européens. Cela implique que sur des échelles de temps et des populations différentes, l’horloge de recombinaison varie légèrement à mesure que les zones de recombinaisons évoluent.

L’autre problème est que les taux de mutation varient selon le sexe et l’âge. À mesure que les pères vieillissent, ils transmettent quelques mutations supplémentaires à leur progéniture. Le sperme des pères plus âgés a subi plus de cycles de division cellulaire, donc plus de possibilités de mutations. Les mères transmettent moins de mutations (environ 0,25 par an), car les ovules d’une femelle sont formés globalement en même temps, avant sa propre naissance.

Les taux de mutation dépendent également de facteurs tels que le début de la puberté, l’âge à la reproduction et le taux de production de spermatozoïdes. Ces facteurs de vie varient chez les primates vivants et ont probablement aussi différé entre les espèces éteintes des ancêtres humains.

Par conséquent, au cours de l’évolution humaine, le taux de mutation moyen semble avoir considérablement ralenti. Le taux moyen sur des millions d’années depuis la séparation des humains et des chimpanzés a été estimé à environ 1 x10⁻⁹ mutations par site et par an – soit environ six lettres d’ADN modifiées par an.

Ce taux est déterminé en divisant le nombre de différences de nucléotides entre les humains et les autres singes par la date de leurs divisions évolutives, déduite à partir de fossiles. Mais lorsque les généticiens mesurent directement les différences nucléotidiques entre parents vivants et enfants, le taux de mutation est moitié moins important : environ 0,5x10⁻⁹ par site et par an, soit seulement environ trois mutations par an.

Pour la divergence entre les Néandertaliens et les humains modernes, le taux le plus lent fournit une estimation entre 765 000 à 550 000 ans. Le taux le plus rapide, cependant, suggérerait la moitié de cet âge : 380 000 à 275 000 ans.

Pour savoir quel taux utiliser, les chercheurs ont développé de nouvelles méthodes d’horloges moléculaires, qui répondent aux défis de l’évolution des taux de mutation et de recombinaison.

Une meilleure horloge

Une approche consiste à se concentrer sur les mutations qui surviennent à un rythme constant, indépendamment du sexe, de l’âge et de l’espèce. Cela peut être le cas pour un type particulier de mutation que les généticiens appellent les transitions CpG par lesquelles les nucléotides C deviennent spontanément des T. Les transitions CpG ne résultent généralement pas d’erreurs de copie d’ADN pendant la division cellulaire, leurs taux devraient ainsi être plus uniformes dans le temps.

En se concentrant sur les transitions CpG, les généticiens ont récemment estimé que la fracture entre les humains et les chimpanzés s’était produite entre 9,3 et 6,5 millions d’années, ce qui concorde avec l’âge attendu des fossiles. Même si ces mutations semblent se comporter plus comme une horloge, elles ne sont toujours pas complètement stables.

Une autre approche consiste à développer des modèles qui ajustent les rythmes d’horloge moléculaire en fonction du sexe et d’autres facteurs de la vie. En utilisant cette méthode, les chercheurs ont calculé une divergence chimpanzé-humain compatible avec l’estimation CpG et les dates des fossiles. L’inconvénient ici est que, en ce qui concerne les espèces ancestrales, nous ne pouvons pas être sûrs de certaines caractéristiques, comme l’âge à la puberté ou la durée de vie d’une génération, conduisant à une certaine incertitude dans les estimations.

La solution la plus directe provient des analyses de l’ADN ancien récupéré des fossiles. Les spécimens fossiles sont indépendamment datés par des méthodes géologiques, les généticiens peuvent alors les utiliser pour calibrer les horloges moléculaires pour une période donnée ou une population.

Cette stratégie a récemment résolu le débat sur le moment de notre divergence avec les Néandertaliens. En 2016, des généticiens ont extrait de l’ADN ancien de fossiles de 430 000 ans, ancêtres de Néandertal, après que leur lignée a été séparée de l’Homo sapiens. Sachant où ces fossiles se situent sur l’arbre de l’évolution, les généticiens pourraient confirmer que pour cette période de l’évolution humaine, le taux d’horloge moléculaire plus lent de 0,5 x 10⁻⁹ fournit des dates précises. Cela place la fracture entre 765 000 et 550 000 ans.

The ConversationÀ mesure que les généticiens comprennent les subtilités des horloges moléculaires et séquencent toujours plus de génomes, ils sont prêts à comprendre l’évolution humaine, directement à partir de notre ADN.

Bridget Alex, Postdoctoral College Fellow, Department of Human Evolutionary Biology, Harvard University et Priya Moorjani, Postdoctoral Research Fellow in Biological Sciences, Columbia University

La version originale de cet article a été publiée sur The Conversation.

Cerveau, musique et jeux de lumière

File 20180531 69497 e40ktn.jpg?ixlib=rb 1.1
Aux Nuits Sonores, édition 2018.  Facebook / Brice Robert

Fabien Dworczak, Université Lumière Lyon 2

À un an d’élections européennes qui s’annoncent cruciales, la 8e édition du forum European Lab de Lyon a réuni 2 500 personnes et 130 intervenants en provenance de 25 pays sur le thème « Europe, l’utopie c’est maintenant ».

Associées à European Lab, les Nuits sonores, associant musique et jeux de lumière, ont        « musicalisé » ces débats.

Contenu non disponible.
veuillez accepter les cookies sur la bannière, s'il vous plaît

Les liens entre musique et cerveau

Étudier et comprendre les liens entre musique et cerveau pourrait permettre de saisir l’impact des expériences et des apprentissages sur le cerveau et également tenter d’expliquer quels sont les mécanismes qui permettent à la musique d’être thérapeutique ou pédagogique.

Les observations cliniques en neurologie ont suggéré, dès la fin du XIXe siècle, que notre cerveau présentait une réponse singulière à la musique, notamment au regard des capacités liées au langage.

C’est à la fin du XXe siècle, avec la révolution de l’imagerie cérébrale, que les études des effets de l’écoute et de la pratique musicale ont pris soudain une autre dimension.

On s’est alors demandé, entre autres, si l’apprentissage de la musique pouvait avoir des effets collatéraux sur d’autres fonctions cognitives, en particulier la mémoire ou le langage, ou bien encore les fonctions cognitives d’apprentissage scolaire.

Pour Hervé Platel :

« Écouter une œuvre musicale crée dans le cerveau une “symphonie neuronale” qui met en jeu les quatre lobes cérébraux, le cervelet ou encore l’hippocampe, surtout connu pour son rôle dans la mémoire. »

Il ajoute également :

« La musique serait donc bien une forme d’expression particulière de notre intelligence qui trouverait sa source dans le besoin de notre cerveau d’associer expériences sensorielles, motrices et émotionnelles, que ce soit pour une visée purement hédonique ou pour un objectif de création.

Et la musique serait, donc, assurément, un stimulant cognitif et cérébral. »_

Contenu non disponible.
veuillez accepter les cookies sur la bannière, s'il vous plaît

Mémoire de la lumière

Quant aux jeux de lumière, associés à la musique (électro dans le cadre des Nuits sonores), des chercheurs (Unité Inserm 846, Cellules Souches et Cerveau et Centre de Recherche du Cyclotron de l’Université de Liège, Belgique), ont montré qu’il existait une sorte de mémoire de la lumière (mémoire photique). Ce nouveau type de cellule sensible à la lumière dans l’œil (photorécepteur), appelé mélanopsine serait impliqué dans la transmission de l’information lumineuse vers de nombreux centres du cerveau dits « non-visuels », notamment l’horloge biologique. La mélanopsine présente in vivo des propriétés remarquables qui lui permettent, notamment, de maintenir une réponse constante face à une exposition lumineuse constante. On peut rappeler que la découverte chez l’homme, il y a 10 ans, de ce nouveau photopigment a été une surprise au sein de la communauté scientifique.

Contenu non disponible.
veuillez accepter les cookies sur la bannière, s'il vous plaît

Grâce à l’imagerie par résonance magnétique fonctionnelle (IRMf), ces chercheurs ont pu observer les différentes régions du cerveau stimulées par la lumière lors de tests cognitifs. Ils ont pu reconnaître le rôle de la mélanopsine en fonction des réponses observées avec des sources différentes de lumière (orange, bleue ou verte).

Ces recherches ont pu montrer aussi que la lumière bleue est plus efficace pour stimuler l’activité cérébrale ; d’autres études, chez des personnes aveugles, ainsi que chez des personnes voyantes, pointent la mélanopsine comme médiateur principal des effets de la lumière sur l’activité cognitive cérébrale.

Contenu non disponible.
veuillez accepter les cookies sur la bannière, s'il vous plaît

Et les chercheurs de conclure que cette découverte plaiderait pour l’utilisation de systèmes lumineux qui optimiseraient les performances cognitives !

Les effets physiologiques de la musique ne se cantonneraient cependant pas à ce seul rôle de drogue douce mais peuvent avoir des répercussions réelles sur la plasticité anatomique et fonctionnelle du cerveau. Selon Fukui et Toyoshima (2008), la musique agirait au niveau cellulaire en favorisant la neurogénèse, la régénération et la réparation des neurones et circuits neuronaux via l’ajustement des sécrétions hormonales de type stéroïdes (comme le cortisol, la testostérone et l’œstrogène), qui sont par ailleurs reconnues comme jouant un rôle dans les processus de plasticité cérébrale.

The ConversationOn ne peut, donc, qu’inciter les apprenants de tous âges, les enfants d’âge scolaire en particulier, à participer à des chorales ou groupes musicaux pour développer leurs capacités cognitives… et si le « bleu » était là… !

Fabien Dworczak, PhD, chercheur associé neurosciences et éducation, Université Lumière Lyon 2
La version originale de cet article a été publiée sur The Conversation.

Comment l’environnement provoque des allergies avant même la naissance

File 20170602 18817 1a8lldc
Les pollens ne sont pas seuls en cause dans l'allergie – les polluants aériens émis par les véhicules jouent aussi un rôle clé. cenczi/Pixabay

Sabine Langie, Hasselt University

Et si cette saison était la pire de tous les temps pour les allergiques de l’hémisphère nord ? Les personnes souffrant du rhume des foins depuis longtemps comme celles qui découvrent tout juste son existence partagent le même sentiment : on voit plus d’allergies et d’allergènes aujourd’hui que jamais. Ainsi, la semaine en cours pourrait se révéler l'une des plus éprouvantes de l'année pour les personnes sensibles aux graminées, avec un niveau de risque « très élevé » – le maximum – dans presque tous les départements français, selon le Réseau national de surveillance aérobiologique.

De fait, les maladies allergiques sont en plein essor. Elles ont gagné en fréquence et en gravité au cours de la dernière décennie et constituent un problème de santé mondial. Selon la Fédération européenne des associations de patients allergiques et victimes de maladies respiratoires (EFA), 20 à 30 % de la population européenne souffrirait d’allergies respiratoires. Ces maladies peuvent se déclarer dès la petite enfance : 65 % des enfants sont touchés avant l’âge de 18 mois.

Le programme de recherche ISAAC, qui étudie l’asthme et les allergies chez l’enfant, rapporte que plus de 20 % des Européens sont allergiques aux allergènes présents dans l’air ou la nourriture avant la puberté. Bien que la prédisposition génétique constitue un facteur de risque important, j’ai étudié la manière dont l’environnement peut influer sur le risque de contracter une allergie respiratoire – ces travaux paraîtront dans un numéro spécial de la revue Mechanisms of Aging and Development consacré à l’épigénétique du vieillissement et du développement.

Les allergies pourraient commencer avant la naissance

Comme presque un Européen sur deux, vous souffrez peut-être d’une maladie allergique, et il se peut que celle-ci se soit déclarée quand vous étiez enfant. Et si son origine remontait plus loin encore ? Les causes de ces maladies sont en partie génétiques, mais les experts savent depuis un certain temps que ce que la future mère mange et respire peut avoir un impact sur son fœtus.

Au cours de la décennie écoulée, les scientifiques ont apporté de nouvelles preuves attestant l’existence d’un lien entre le régime alimentaire, le mode de vie de la femme enceinte et le futur état de santé de ses enfants.

Les conclusions récentes d’une étude de cohorte flamande (financée par les autorités et coordonnée par l’organisme scientifique VITO) ayant suivi des mères et leurs enfants de la grossesse à la naissance établissent une corrélation entre l’exposition prénatale aux polluants aériens émis par les véhicules – surtout du dioxyde d’azote (NO2) et des particules fines (PM10) détectées par des stations mesurant la qualité de l’air – et l’apparition des symptômes de l’asthme infantile ou de difficultés respiratoires chez des enfants de 3 ans. L’exposition prénatale à certaines substances chimiques peut donc avoir un impact sur le risque que court l’enfant de développer des allergies.

Le rôle des modifications « sur » votre ADN

Des études récentes indique qu’un mécanisme épigénétique, la méthylation de l’ADN, causé par certains facteurs environnementaux, explique peut-être ce lien entre les premières phases du développement et un risque accru de maladie plus tard dans la vie.

En quoi consistent ces modifications épigénétiques ? L’ADN, notre programme génétique, détermine notre apparence physique (aussi appelée phénotype). Mais les particularités dépendent de l’épigénétique, qui recouvre l’ensemble des modifications non génétiques intervenant « sur » les gènes, sans toutefois transformer la séquence d’ADN elle-même.

La méthylation de l’ADN désigne le mécanisme par lequel des groupes méthyles (CH3) sont ajoutés à l’ADN, ce qui affecte le comportement des gènes (la manière dont ils « s’expriment ») et donc, indirectement, notre phénotype.

L’addition de groupes méthyles à notre ADN peut modifier l’expression de nos gènes.
Sabine Langie/VITO, CC BY-ND

Ainsi, l’adoption par la future maman d’un régime alimentaire néfaste, ou son exposition à certains composés chimiques, en particulier durant les premières phases de la grossesse, peut altérer le processus de méthylation de l’ADN sur le génome du fœtus, activant certains gènes et en désactivant d’autres. Cela peut influer sur son risque de contracter une allergie.

La consommation régulière de fruits peut contribuer à réduire le risque asthmatique. Bill Ebbessen/Wikimedia, CC BY-ND

On a montré qu’un régime « moderne », dominé par des aliments transformés faibles en antioxydants mais riches en acides gras saturés, pouvait contribuer à rendre plus sensible aux allergies. En revanche, la consommation fréquente de fruits, de légumes et de poisson est corrélée à une moindre prévalence de l’asthme.

On a également établi qu’un régime intégrant des poissons à haute teneur en oméga 3 pouvait compenser la réaction pro-allergique. De plus, une application rigoureuse du régime méditerranéen dans les premières années de la vie semble protéger les enfants contre le développement d’allergies.

Heureusement, ces modifications épigénétiques sont, dans une certaine mesure, réversibles. Des études ont montré que les altérations se traduisant par un accroissement de la masse corporelle pouvaient être contrebalancées par un apport en nutriments essentiels riches en méthyle (comme la choline, la bétaïne et l’acide folique).

Cela dit, l’exposition extrême ou chronique à certains facteurs, en particulier durant la grossesse (sous-nutrition, suralimentation, exposition à certaines substances chimiques sur le lieu de travail) semble perturber les processus épigénétiques au point de laisser une « empreinte » sur le génome, susceptible d’être transmise à la génération suivante et donc d’accroître encore davantage les risques. Il est donc extrêmement important de sensibiliser le grand public à ces risques et de conseiller judicieusement les femmes enceintes, pour leur permettre d’offrir un avenir sain à leurs enfants et petits-enfants.

De nouveaux marqueurs épigénétiques pour détecter les allergies respiratoires

L’étude que j’ai réalisée au sein du VITO consistait à vérifier si l’exposition aux substances chimiques durant la grossesse et les premières années altérait les processus de méthylation de l’ADN de l’enfant (les sujets étaient âgés de 5 à 11 ans), affectant par là même son système immunitaire et ses risques allergiques.

Nous avons analysé des questionnaires et des échantillons de salive recueillis auprès de quelque 170 paires mère/enfant issues de deux cohortes de naissance différentes, originaires des Flandres (FLESH1 et FLESH2). En scannant, sur la totalité de leur génome, les processus de méthylation de l’ADN chez les enfants souffrant d’allergies respiratoires (rhume des foins, asthme, allergie aux acariens) et en les comparant à ceux des enfants non allergiques, nous avons mis au jour une liste de 27 gènes présentant un processus de méthylation altéré. Cette liste pourrait ainsi servir à diagnostiquer les allergies respiratoires.

Curieusement, nous avons relevé une corrélation entre l’altération des formes de méthylation au niveau de trois de ces gènes et l’exposition des mères enceintes (et des enfants avant leur onzième année) aux polluants aériens. Cela laisse à penser que ces altérations épigénétiques liées aux allergies pourraient résulter de cette exposition durant les premières années de la vie.

Comme les gènes en question jouent un rôle régulateur lors des crises allergiques, il peut être intéressant de les étudier en vue de mettre au point un système permettant de diagnostiquer à l’avance le risque allergique en scannant le génome. Si l’exposition aux substances chimiques et les altérations qu’elle provoque dans les formes de méthylation de l’ADN peuvent être détectées assez tôt, on peut envisager la mise au point de stratégies à différents niveaux permettant de prévenir cette exposition ou le risque de contracter une allergie, en particulier chez l’enfant. On pourrait alors conseiller le législateur dans le cadre d’une révision des normes encadrant la pollution aérienne, et apporter une meilleure information aux adultes qui souhaitent avoir des enfants.


Traduit de l’anglais par Arnaud Gancel pour Fast for Word.

The ConversationDécouvrez les travaux de Sabine Langie sur la programmation environnementale et nutritionnelle des allergies chez l’enfant dans le cadre de l’Axa Research Fund.

Sabine Langie, Postdoctoral fellow - Flemish Institute for Technological Research (VITO), Hasselt University

La version originale de cet article a été publiée sur The Conversation.

Vous connaissez le microbiote de l’intestin, que savez-vous de celui du nez ?

File 20170525 23234 1tgh3xr

La communauté microbienne présente dans notre nez pourrait-elle influencer nos choix alimentaires ? Dean Drobot/Shutterstock

Nicolas Meunier, INRA

Hommes ou femmes, jeunes ou vieux, nous sommes tous colonisés par un à deux kilos de micro-organismes. Ces bactéries, virus et champignons, présents à l’intérieur et à l’extérieur de notre corps, sont réunis sous un terme de plus en plus familier, le microbiote. La majorité d’entre eux se trouve dans notre intestin, mais on en trouve également sur toutes les surfaces du corps, incluant les alvéoles de nos poumons ainsi que nos muqueuses, dont celle du nez.

Les nombreuses études scientifiques consacrées au microbiote, champ de recherche en pleine ébullition, nous ont fait prendre conscience de son importance pour rester en bonne santé. On réalise aujourd’hui qu’il joue peut-être un rôle dans notre comportement vis-à-vis de nos semblables, qu’il influence notre odeur corporelle et même notre rapport à la nourriture. Si vous vous êtes passionné pour les découvertes portant sur le microbiote intestinal, alors vous serez étonné d’apprendre que l’on commence seulement à explorer l’influence du microbiote sur l’odorat.

L’influence du microbiote sur l’épithélium de l’intestin (couche de cellules tapissant la face interne de cet organe) a suscité un développement considérable de la recherche, depuis sa caractérisation génétique en 2006. Il est désormais largement admis que la flore intestinale est impliquée dans la plupart des grandes fonctions de l’organisme, de la régulation de la pression artérielle de l’individu à la quantité ou au type d’aliments consommés.

De l’influence du microbiote sur la sociabilité

Des travaux publiés en 2016 vont même plus loin. Ils attribuent au microbiote un rôle majeur dans les comportements sociaux. Cette étude américaine porte sur le développement de l’autisme en lien avec une obésité de la mère. Les auteurs y étudient des souris issues de mères obèses nourries avec un régime gras et sucré. Ces souris, bien que nourries après leur naissance avec un régime standard, ont des relations sociales déficientes.

Il faut savoir que les souris sont des animaux sociaux. En présence d’un nouvel individu, elles passent habituellement du temps à s’explorer mutuellement. Or les souris nées de mères obèses s’intéressent très peu aux autres souris. Ainsi, elles représentent un modèle animal précieux pour étudier l’autisme, dont on sait par ailleurs que la fréquence est supérieure chez les enfants issus de mère obèse.

Tout d’abord, les chercheurs constatent que le microbiote de ces souris est différent de celui de leurs congénères issus de mères soumises à un régime alimentaire équilibré. Ensuite, ils montrent qu’en ajoutant une bactérie majeure manquante dans leur microbiote, via leur alimentation, leurs relations sociales reviennent à la normale. Ils concluent que leur étude ouvre des perspectives dans le traitement des troubles du comportement chez l’Homme, par le recours aux probiotiques. Sachant que ces « bonnes » bactéries sont déjà utilisés couramment, en complément de l’alimentation, en cas de mycoses ou de diarrhées. La conclusion de ces chercheurs pose question, comme nous le verrons un peu plus loin.

De manière surprenante, alors que le microbiote intestinal et ses effets physiologiques sont très étudiés, peu de travaux se focalisent sur celui des autres organes. L’auteur de la page « microbiote » sur Wikipédia se plaint même que, sur plus de 4 200 études consacrées au microbiote humain, seulement sept s’intéressent à la communauté microbienne… du pénis. Aucune étude ne s’étant penchée sur celle du nez, mon domaine à l’Institut national de la recherche agronomique (Inra), nous avons décidé avec un groupe de collègues de nous y intéresser.

Le microbiote modifie la détection des odeurs

L’épithélium olfactif, le tissu qui tapisse l’intérieur de notre nez, réalise l’étape initiale de la détection des odeurs, avant le traitement des informations par le cerveau. Nous avons dans un premier temps choisi d’étudier les variations du système olfactif chez des animaux sans aucun microbiote, dits « axéniques ». Selon nos observations, l’absence de microbiote modifie bien la structure de l’épithélium olfactif – de manière moins drastique, cependant, que pour l’épithélium de l’intestin.

D’abord, son renouvellement est ralenti. Ce phénomène s’explique probablement par la disparition des micro-organismes habituellement présents dans la cavité nasale. Moins attaquées par des micro-organismes pathogènes venus de l’environnement, les cellules de l’épithélium ne sont pas poussées à se renouveler aussi fréquemment.

Ensuite, chez les animaux axéniques, la couche ciliaire des neurones olfactifs où se déroule la détection des molécules odorantes est plus mince. Eh oui, il y a des neurones dans notre nez, et pas seulement dans le cerveau !. Malgré cette couche de cils plus minces, les signaux électriques neuronaux générés par l’arrivée des odorants sont, paradoxalement, plus intenses chez les animaux axéniques. Sans fournir d’explication à ce paradoxe, ces premiers travaux montrent en tout cas que le microbiote influence la structure des tissus nerveux localisés dans notre nez.

Des préférences pour des odeurs différentes

Nous avons alors réalisé une nouvelle série d’expériences dans le but d’étudier si la nature du microbiote pouvait influencer la manière dont les souris perçoivent les odeurs. À cette fin, nous avons utilisé des souris ayant toutes le même profil génétique mais séparées en trois groupes colonisés chacun par un microbiote différent. Nous avons constaté que les trois groupes de rongeurs ne manifestaient pas les mêmes préférences face à un panel d’odeurs sélectionnées spécialement pour susciter leur intérêt.

Pour en savoir plus, nous avons enregistré l’activité électrique des neurones de l’épithélium olfactif des souris en réponse aux odeurs testées. La encore, nous avons constaté des variations entre les trois groupes. Cependant, certains groupes de souris pouvaient s’intéresser de manière différente à deux odeurs tandis que les neurones de leur nez y répondaient de manière similaire.

Les neurones du nez ne réalisent que la première étape de traitement de l’information apportée par les odeurs. L’intérêt plus ou moins prononcé d’une souris vis-à-vis d’une odeur résulte donc de l’intégration de l’information venue de l’épithélium olfactif par de nombreuses structures de son cerveau. La discordance observée entre le comportement des souris et la réponse des neurones de leur nez suggère donc que la nature du microbiote colonisant l’organisme de la souris influence la manière dont son cerveau interprète les odeurs.

Notre odeur corporelle nous est familière

Au moins deux hypothèses permettent de comprendre que les préférences des souris soient influencées par leur microbiote. Les odeurs émises par tous les animaux sont très liées aux micro-organismes qui les colonisent. C’est le cas chez l’Homme où la majorité des odeurs corporelles sont issues du métabolisme de nos bactéries à la surface de notre peau, dans notre intestin et dans nos organes génitaux. Il en est de même chez les rongeurs. Leur odeur corporelle, qui leur est familière, peut donc expliquer les différences d’attirance pour les odeurs testées.

Par ailleurs, les préférences olfactives des rongeurs adultes sont très dépendantes des odeurs ayant émané de l’environnement pendant leur développement cérébral et ce, dès le stade utérin, comme le montrent de nombreuses études récentes. Les odeurs avec lesquelles ils ont été en contact très tôt dans leur vie leur sont, elles aussi, familières et peuvent donc influer sur leur intérêt vis-à-vis des odeurs qu’ils rencontrent une fois adulte. Cet apprentissage très précoce des odeurs pendant le développement fœtal semble très général dans le monde animal, et est également bien décrit chez l’Homme.

Les odeurs que nous rencontrons très tôt dans notre vie nous influencent une fois adultes. Iva/Flickr, CC BY-NC-SA

À ce stade de notre raisonnement, il est cependant utile de rappeler que la souris diffère de l’Homme dans l’utilisation de ses cinq sens. La souris privilégie l’odorat – fondamental dans ses interactions sociales – tandis que l’Homme sollicite davantage la vision et l’ouïe. Ainsi, des souris rendues incapables de détecter les odeurs par une modification génétique (souris dites anosmiques) perdent les comportements de reproduction et de défense de leur territoire. Elles ont, en plus, un comportement parental altéré.

Si le microbiote affecte le fonctionnement du système olfactif des souris, alors il convient de regarder sous un nouvel angle les travaux des équipes utilisant les rongeurs comme modèles d’études de l’impact du microbiote sur le comportement. C’est le cas des travaux de l’équipe américaine sur l’autisme et le microbiote, cités au début de cet article. Il faut se demander si les perturbations du comportement social observées chez les souris dans leur expérience ne viendraient pas, en fait, d’une perturbation de leurs repères olfactifs.

Des souriceaux perturbés dans leurs repères olfactifs

En effet, les chercheurs ont appliqué aux souriceaux, après leur sevrage, un régime alimentaire différent de celui de leurs mères. Ce changement de nourriture entraîne une modification de leurs odeurs corporelles. Ils perdent sans doute à cette occasion une bonne partie de leurs repères olfactifs initiaux ! Aussi, on peut faire l’hypothèse que la perturbation du comportement social chez ces rongeurs implique avant tout leur odorat.

Contrairement aux souris, nous les humains ne donnons pas la priorité aux informations olfactives pour établir nos relations sociales. Cette remarque amène à relativiser la portée de l’étude portant sur ces animaux.

The ConversationPar contre, si comme chez le rongeur, notre microbiote modifie notre manière d’appréhender les odeurs autour de nous, il est tout à fait envisageable qu’il nous influence dans le choix de nos aliments. Car il est bien établi que notre odorat nous guide dans nos attirances ou nos répulsions pour tel ou tel aliment. Ainsi, une tout autre piste de recherche pourrait être d’évaluer dans quelle mesure nous pouvons changer notre microbiote afin que nos envies nous poussent, tout naturellement, vers une nourriture plus saine.

Nicolas Meunier, Neurobiologiste spécialiste de l'olfaction, université Paris Saclay, INRA

La version originale de cet article a été publiée sur The Conversation.

Les rythmes des saisons enfin visibles !

Est-ce une respiration, un battement ?

Est-ce un mouvement de danse ?

Les saisons passent et la terre se couvre de neige, de végétation, s'assèche. Les océans se refroidissent, se réchauffent...

Cliquez sur cette photo, elle vous révèlera sa beauté.

Grâce à la NASA qui a enregistré pendant 20 ans les images de la terre depuis des satellites.

En regroupant toutes ces informations, nous pouvons découvrir en raccourci l'alternance des saisons qui sont passées.

Aider notre état psychologique en soutenant notre microbiote ?

Les chercheurs étudient si les micro-organismes peuplant notre intestin pourraient jouer un rôle dans la dépression. Nik Shuliahin/Unsplash

La découverte la plus frappante est sans doute celle de liens entre les perturbations de cette flore intestinale et des troubles psychiatriques comme l’anxiété, la dépression, les troubles bipolaires, la schizophrénie, ou encore un trouble neurodéveloppemental comme l’autisme. Il est trop tôt, à ce stade, pour affirmer qu’il s’agit d’une cause, et non pas d’une conséquence de ces troubles. Néanmoins, l’hypothèse selon laquelle la communauté microbienne abritée par notre intestin détermine en partie notre humeur et nos comportements mérite d’être étudiée. Si elle venait à être confirmée, cela ouvrirait des perspectives de prévention ou de traitement inédites en santé mentale.

Les trois premières années de la vie, période clé

Le microbiote intestinal se forme au cours des trois premières années de la vie. Il reste ensuite relativement stable au cours de la vie mais peut être transitoirement modifié, par exemple par un nouveau régime alimentaire, une infection intestinale ou un traitement antibiotique. Le rôle de cet écosystème est fondamental dans la motricité intestinale, c’est-à-dire la progression des aliments dans le système digestif. Il l’est aussi dans le développement du système immunitaire, protégeant l’individu contre l’agression de certaines pathogènes. Il l’est, enfin, dans le système métabolique, participant à la digestion, influençant l’absorption et la distribution des nutriments voire, en cas de maladie, des médicaments.

On estime actuellement que 90 % des maladies pourraient avoir un lien avec des perturbations du microbiote, les unes causant les autres ou inversement. On parle de « dysbiose », pour des situations dans lesquelles une altération de la biodiversité du microbiote peut occasionner des effets négatifs pour l’individu. La « paucibiose » fait référence à la perturbation quantitative du microbiote, c’est-à-dire une baisse du nombre total de bactéries, indépendamment du nombre d’espèces différentes.

Les effets de telles perturbations sur les comportements ont été mis en évidence, pour l’instant, par des études sur des modèles animaux. Ainsi des chercheurs ont fait naître des rats par césarienne, dans des conditions stériles, pour qu’ils aient le moins de contacts possible avec des micro-organismes présents chez leur mère ou dans l’environnement. Ces rongeurs développent rapidement des troubles comportementaux évoquant des maladies psychiatriques : le repli sur soi, une perte de poids, des troubles du sommeil, de l’anxiété, la perte de l’hygiène voire des automutilations.

Or ces troubles s’avèrent réversibles si on administre à ces mêmes rats des probiotiques (des bactéries bonnes pour leur santé) au cours des six premières semaines de leur vie. Au-delà, les troubles deviennent irréversibles, suggérant que le microbiote joue un rôle crucial dans la période de développement du système nerveux central.

Comment le microbiote influence le cerveau

Qu’en est-il chez l’homme ? Notre microbiote peut influencer notre cerveau par plusieurs voies. Il peut modifier la perméabilité intestinale (c’est-à-dire le passage des molécules à travers la paroi de l’intestin vers la circulation sanguine et de là vers le cerveau), moduler l’inflammation au niveau de l’intestin et dans le sang, l’absorption de nutriments bénéfiques ou essentiels pour le cerveau, et influencer le système nerveux autonome responsable des réactions d’éveil et de fuite. Ces phénomènes semblent être à l’œuvre dans plusieurs types de troubles.

À ce jour, les chercheurs ont surtout étudié le lien entre la perturbation du microbiote intestinal et l’autisme, un trouble neurodéveloppemental caractérisé par la diminution des interactions sociales et de la communication, avec des comportements stéréotypés et répétitifs. L’autisme s’accompagne très fréquemment de troubles digestifs. Les enfants autistes, comparés aux non-autistes, auraient dix fois plus de bactéries de type Clostridium, une augmentation des Bacteroidetes et Desulfovibrio, et une diminution des Firmicutes et Bifidobacterium.

Une augmentation de la perméabilité intestinale (l’intestin jouant moins bien son rôle de filtre retenant les pathogènes) a également été décrite dans l’autisme, ainsi qu’une élévation de marqueurs d’inflammation dans le sang. De nombreuses autres anomalies au niveau de la paroi de l’intestin et de la composition des selles chez ces enfants ont également été rapportées.

Le syndrome de l’intestin irritable associé à l’anxiété

Schéma de l’intestin. William Crochot/Wikimedia, CC BY-SA

À l’inverse, des maladies inflammatoires chroniques de l’intestin, comme le syndrome de l’intestin irritable, sont associées à des taux très élevés d’anxiété et de dépression. De tels taux ne sont pas retrouvés dans d’autres maladies chroniques non-inflammatoires pourtant tout aussi difficiles à vivre au quotidien.

Chez les patients souffrant de troubles dépressifs majeurs, une faible sécrétion d’acide gastrique a été rapportée. Cette diminution de l’acidité gastrique a été associée à la croissance (réversible) du microbiote au niveau de l’intestin grêle, ce qui peut entraîner des troubles digestifs, une augmentation de la perméabilité intestinale, de la malabsorption des nutriments, des épisodes de diarrhée ou de constipation.

Une autre observation plaide en faveur du rôle du microbiote intestinal dans la régulation ou le déclenchement des troubles anxio-dépressifs. Des bactéries sécrètent des substances qui sont aussi des neurotransmetteurs, c’est à dire des composés chimiques produits par les neurones pour agir comme messager en direction des autres neurones. Ainsi, certaines souches de Lactobacillus et de Bifidobacterium produisent de l’acide gamma-amino-butyrique (GABA). Les genres Escherichia, Bacillus, et Saccharomyces produisent de la noradrénaline ; Candida, Streptococcus, Escherichia, et Enterococcus produisent de la sérotonine ; alors que Bacillus et Serratia peuvent produire de la dopamine. Tous ces neurotransmetteurs jouent un rôle majeur dans les mécanismes de la dépression.

La schizophrénie et les troubles bipolaires, des maladies psychiatriques chroniques sévères, ont également fait l’objet de travaux. Une étude récente s’est intéressée aux marqueurs de translocation bactérienne anormale, des molécules qui, en temps normal, doivent être trouvées seulement à l’intérieur de l’intestin. Quand ces molécules sont trouvées dans le sang, cela peut être le signe d’une augmentation de la perméabilité de l’intestin. Ce phénomène a précisément été observé chez des personnes touchées par ces deux maladies.

La recherche sur le rôle du microbiote et son influence sur nos comportements en est à ses balbutiements. Ce champ de recherche apparaît aujourd’hui comme un possible chaînon manquant pour expliquer comment se déclenchent ou perdurent certaines maladies mentales. Des probiotiques, des prébiotiques (des substrats favorisant la croissance de souches de bactéries bénéfiques) et des approches nutritionnelles spécifiques sont utilisés actuellement dans certaines pathologies intestinales. Pourraient-ils trouver, un jour, une utilité dans le domaine de la santé mentale ? De nouvelles études seront nécessaires avant de pouvoir confirmer, ou infirmer, l’efficacité de telles interventions.

Auteur : Psychiatre, chercheur associé, Université Pierre et Marie Curie (UPMC) – Sorbonne Universités.

Publié sur : The Conversation / Le microbiote intestinal dicte-t-il notre humeur et nos comportements ?

La pollution lumineuse devenue l’affaire de tous.tes

Sa première version avait fait date dans l’histoire du « dark-sky movement » (le « mouvement de protection du ciel nocturne »). Publié en 2001 dans la revue Monthly Notices of the Royal Astronomical Society, The First World Atlas of the Artificial Night Sky Brightness constitue l’un des articles les plus cités dans les travaux universitaires s’intéressant aux nuisances et pollutions lumineuses.

La parution en juin dernier, quinze ans plus tard, de The New World Atlas of Artificial Night Sky Brightness marque une nouvelle étape. Le grand écho médiatique rencontré par cette publication montre que la question des effets négatifs de l’éclairage artificiel nocturne est devenu un problème public.

La pollution lumineuse, c’est quoi ?

Son effet le plus immédiatement visible concerne la dégradation de la qualité du ciel étoilé. La diffusion atmosphérique de la lumière artificielle génère des halos lumineux qui dégradent les contrastes et interdisent la vision des objets célestes faiblement lumineux.

Diffusion dans l’atmosphère de l’éclairage artificiel généré par la ville de Lourdes. Samuel Challéat (2016)

Dans les grandes agglomérations, le ciel nocturne est réduit aux quelques étoiles les plus brillantes, à quelques planètes et à la Lune. Selon les auteurs du premier Atlas mondial de la clarté artificielle du ciel nocturne, 20 % de la population mondiale ont ainsi perdu la vision de la Voie Lactée à l’œil nu (50 % pour l’Union européenne).

Du point de vue environnemental, les écologues montrent des espèces fortement perturbées par la lumière artificielle. On note des mécanismes d’attraction et de répulsion par les sources lumineuses et des perturbations, à échelles plus larges, d’espèces désorientées lors de leurs migrations. Plusieurs perturbations comportementales sont également relevées (communication, reproduction, prédation). Enfin, certains effets négatifs sont montrés sur la flore.

En période de ponte, les tortues marines recherchent les plages à l’obscurité préservée.   Claudio Giovenzana/wikipedia, CC BY-SA
Pour la santé humaine, la recherche médicale montre que l’alternance naturelle du jour et de la nuit est le premier donneur de temps pour notre horloge interne. Ce synchronisateur rythme la sécrétion de plusieurs hormones, comme la mélatonine. Une désynchronisation peut donc générer stress, fatigue, perte de la qualité du sommeil, irritabilité ou troubles de l’appétit.

Si la dégradation de la vision du ciel étoilé constitue une nuisance – ici c’est l’accès au ciel étoilé qui se trouve dégradé par la lumière artificielle, et non les étoiles elles-mêmes –, les coûts écologiques et sanitaires autorisent à employer le terme de polluant pour la lumière artificielle.

L’astronomie lance l’alerte

La remise en cause des doctrines de l’éclairagisme est le résultat d’un lent mouvement amorcé à la fin des années 1950 aux États-Unis par des astronomes professionnels. On peut en effet dater la première décision publique de protection de la qualité du ciel nocturne à 1958, lorsque la ville de Flagstaff décide d’une réglementation de l’éclairage public pour protéger l’activité des astronomes de l’observatoire Lowell en Arizona (c’est là que Pluton avait été découverte en 1930 par Clyde Tombaugh).

Depuis les États-Unis, le problème se diffuse à l’échelle internationale. D’un côté comme de l’autre de l’Atlantique, les villes connaissent durant les décennies 1960 et 1970 des mutations morphologiques rapides. Le développement massif de l’automobilité, l’étalement urbain, les nouvelles technologies d’éclairage et les faibles coûts de production de l’électricité engendrent l’installation d’un éclairage public toujours plus puissant, augmentant la taille et l’intensité des halos lumineux.

Halo lumineux de la ville de Dijon.    Samuel Challéat

C’est durant ces mêmes décennies que s’affirme une conscience écologique globale qui s’accompagne de conceptions nouvelles, associant finitude de la planète et risques technologiques et environnementaux.

Dans ce contexte, l’idée d’une « pollution lumineuse » émerge peu à peu ; elle prend corps autour d’un bien environnemental à part entière : le ciel étoilé. En réaction à la perte d’accès à ce bien, différents réseaux de l’astronomie et de l’éclairagisme sont mobilisés.

En 1976, l’Union astronomique internationale adopte une résolution pour la protection des sites astronomiques. À la suite, une collaboration avec la Commission internationale de l’éclairage débouche en 1980 sur des recommandations pratiques visant à diminuer le halo lumineux à proximité des observatoires.

Les astronomes amateurs entrent dans la danse et relaient localement ces préoccupations professionnelles. En 1993, ils se fédèrent autour de la rédaction d’une charte pour la préservation de l’environnement nocturne. Au-delà de cette initiative, la mobilisation se traduit en France par la création du Centre pour la protection du ciel nocturne qui deviendra, en 1998, l’Association nationale pour la protection du ciel nocturne.

Globaliser la controverse

Fin 2006, cette association opère un changement significatif en intégrant à son nom la notion d’environnement nocturne. Cette notion floue sert une visée stratégique claire : la mise à l’agenda politique des nuisances lumineuses lors du Grenelle de l’environnement.

Les atteintes à « l’environnement nocturne » saisissent ainsi les aspects socioculturels (accessibilité au ciel étoilé), écologiques (espèces et systèmes affectés par la lumière artificielle) ou encore sanitaires (perturbations des rythmes circadiens et hormonaux, etc.).

Au-delà des dimensions scientifiques, il est aussi question d’atteindre de nouveaux publics, notamment grâce à des projets de science citoyenne ou participative, à l’image du programme Globe at Night.

La question du bon indicateur

Nombreux sont les travaux qui tentent d’objectiver la mesure de la pollution lumineuse grâce à « l’indicateur Voie Lactée ». La question se trouve ici réduite à la vision ou non de ce marqueur de la qualité du ciel nocturne, facilement appropriable et convoqué dans les imaginaires naturalistes. La production des deux Atlas de la clarté artificielle du ciel nocturne évoqués plus haut se situe dans cette mouvance.

Mais à bien considérer les effets négatifs de l’éclairage artificiel nocturne, « l’indicateur Voie Lactée » semble ne pas suffire ; et il révèle, en négatif, ce que l’on ne sait pas encore mesurer, soulignant le manque de connaissances au sujet des effets de la lumière sur les écosystèmes aux échelles complexes ainsi que sur la santé humaine au-delà d’études en laboratoire.

En la matière, « l’indicateur Voie Lactée » opère de façon très hasardeuse des liens entre différents types d’effets et d’impacts : il n’est pourtant pas de lien mécanique, en un lieu donné, entre la qualité du ciel nocturne du point de vue de l’œil humain et les impacts de l’éclairage artificiel nocturne sur tel ou tel trait fonctionnel de telle ou telle espèce.

L’usage trop fréquent de cet indicateur entretient ainsi la confusion entre la mesure des émissions de pollution lumineuse et la mesure de ses effets plus complexes, au-delà de la seule dégradation de la qualité du ciel étoilé. Pire : le fait de se contenter de cet indicateur pourrait à plus long terme freiner voire empêcher le développement des recherches, notamment dans une perspective interdisciplinaire.

Au plus près des usages de la nuit

On le voit, la lutte contre les nuisances et pollutions lumineuses ne peut rester l’apanage de quelques associations encore fortement marquées par le milieu de l’astronomie. Habitants, élus, ingénieurs territoriaux, bureaux d’études, chercheurs issus de multiples disciplines : la fabrique de l’éclairage urbain doit être ouverte à toutes les formes d’expertises et porter attention aux différents usages de la nuit pour, par exemple, mettre en place des politiques localement concertées de réduction des niveaux d’éclairement, voire de coupure de l’éclairage durant certaines plages horaires.

L’éclairage urbain d’une ruelle de la ville de Cluj-Napoca, en Roumanie.
Samuel Challéat (2016)

C’est l’attention portée à ce que les usagers – humain et non-humains – font de et dans l'obscurité qui peut mener à l’adaptation locale de la norme d’éclairage.

Ce travail permet d’ériger la protection de l’environnement nocturne en nouveau principe d’aménagement. Il donne naissance à des outils pour les territoires et les sciences de la conservation ; c’est le cas des Réserves internationales de ciel étoilé, adaptées aux besoins des astronomes et pouvant aussi servir de réservoirs de biodiversité nocturne au sein de « trames noires », ces espaces en réseaux qui rendent possible la protection de l’environnement nocturne jusque dans les villes.

Luminosité naturelle du ciel. Science Advances Juin 2016.

Article écrit par Samuel Challéat, Université Toulouse – Jean Jaurès

Samuel Challéat, Chercheur en géographie de l’environnement, Université Toulouse – Jean Jaurès

La version originale de cet article a été publiée sur The Conversation.

Les praticiens Sÿndaô vous souhaitent

Bilan 2016

Nous avons amélioré et approfondi notre site internet Sÿndaô,
Nous avons écrit régulièrement des articles sur la chronobiologie et ses effets sur notre "chrono"physiologie,
Nous avons suivi pour vous l'actualité scientifique sur les 2 principes fondateurs de notre méthode :
la musicothérapie et la chronobiologie
que nous avons publié sur notre page Facebook.

Souhait et demande 2017

Que notre site Sÿndaô soit encore plus vivant et plus partagé :

Nous avons besoin de vous, pour faire connaitre Sÿndaô !

Depuis la page du blog,
pouvez-vous partager sur vos pages Facebook, Tweeter Linkdin, Google+ ?
au moins 2 articles ?

En retard ? cela dépend où vous vivez !

Après notre article sur la sensation de courir derrière le temps, des conséquences sur notre santé de l'accélération des rythmes de vie, voici un article sur une approche culturelle de la notion du temps.

Au bout de combien de temps est-on vraiment en retard ?

Gestion du temps, dates butoirs, pression du calendrier… nous courons tous après le temps. Cependant, là où telle culture dans le monde considérera qu’on est effroyablement en retard, une autre trouvera que l’on est raisonnablement à l’heure.

Ce matin, vous vous réveillez au son de votre iPhone qui vous rappelle au passage que vous avez rendez-vous avec un fournisseur à 9 heures 15 à l’autre bout de la ville. Mais la journée s’annonce mal… Votre petit dernier casse un pot de confiture dans lequel votre aîné a la bonne idée de marcher. Vous vous retrouvez à perdre encore plus de temps à tout nettoyer. Encore quelques minutes de perdues à chercher vos clés qui se cachaient dans le placard de la cuisine, mais, par chance, vous parvenez à déposer vos enfants à l’école au moment où la sonnerie retentit et où la porte se ferme. C’est alors que votre iPhone sonne 9 heures, ce qui signifie que vous aurez six ou sept minutes de retard pour cette importante réunion – si tant est qu’il n’y ait pas plus de circulation que d’habitude. Que faire dans ce cas ?

Vous avez bien sûr la possibilité d’appeler votre fournisseur pour vous excuser et lui expliquer que vous arriverez à 9 heures 21 précise. Ou 9 heures 22. Mais vous pouvez aussi vous dire qu’un retard de six ou sept minutes n’est pas fondamentalement un retard et décider de vous engager dans la circulation sans prendre la peine de prévenir. Sauf si vous ne vous préoccupez absolument pas de l’heure : que vous arriviez à 9 heures 21, 22 ou même 45, on considérera encore que vous êtes « dans les temps » et personne n’en fera une histoire, ni vous, ni votre fournisseur.

En France, 7 minutes de retard, c’est toujours être à l’heure

Si vous vivez au sein d’une culture qui a une conception rigoureuse de la gestion du temps, comme en Allemagne, en Scandinavie, aux États-Unis ou en Grande-Bretagne, il est probable que vous passiez un coup de fil. Dans le cas contraire, votre fournisseur risquerait de s’agacer à chaque seconde où vous n’apparaissez toujours pas. Inversement, si vous vivez en France ou dans le nord de l’Italie, il y a des chances que vous n’éprouviez pas le besoin de téléphoner, car arriver avec six ou sept minutes de retard, c’est encore être « fondamentalement à l’heure » (après 12 ou 15 minutes, l’histoire aurait été différente).

Et si vous appartenez à une culture qui a une conception souple du temps, comme c’est le cas au Moyen-Orient, en Afrique, en Inde ou en Amérique du Sud, le temps risque d’avoir pour vous une élasticité complètement différente. Dans ces sociétés où il faut se battre contre la circulation et le chaos général de l’existence qui ne cessent de vous mettre des bâtons dans les roues, la probabilité d’un retard est une donnée de base. Dans ce contexte, il n’y a guère de différence entre 9 heures 15 et 9 heures 45, et c’est accepté par tous.

Au tout début de mon installation en France (je suis américaine), j’avais été prévenue par des amis américains que les Français sont toujours en retard. Et cela s’est révélé partiellement exact, même si l’impact de ces retards sur mon travail a été assez faible au quotidien. À titre d’exemple, peu de temps après mon arrivée à Paris, j’avais pris rendez-vous avec un chasseur de têtes spécialisé dans les postes pour expatriés, dans l’une des tours de verre de La Défense. Ayant pris soin d’arriver avec cinq minutes d’avance à mon rendez-vous de 10 heures, j’essayais nerveusement de dérouiller mon français dans ma tête. La femme avec laquelle j’avais rendez-vous, Sandrine Guégan [les noms ont été changés], était une cliente de longue date de mon entreprise et connaissait bien mon patron. Il m’avait assuré qu’elle me réserverait un accueil chaleureux.

J’avais perdu patience

L’hôtesse prévint Madame Guégan à 10 heures précises et, après une seconde avec elle au bout du fil, elle me demanda poliment de bien vouloir patienter. Je me perchai donc délicatement sur le gros canapé de cuir et je patientai quelques minutes en faisant semblant de parcourir le journal. Mais, à 10 heures 07, je n’avais plus beaucoup de patience. M’étais-je trompée sur l’heure du rendez-vous ? Est-ce qu’elle avait eu une urgence indépendante de sa volonté ? Et à 10 heures 10, je me demandai si le rendez-vous allait être maintenu.

Madame Guégan sortit de l’ascenseur à 10 heures 11 et m’accueillit avec chaleur, mais sans un mot d’excuse pour son retard. Depuis le temps que je travaille aux États-Unis et en France, je suis en mesure de confirmer que, dans la plupart des cas, la marge de retard autorisée – pour commencer, finir ou partir – est d’une dizaine de minutes de plus en France qu’aux États-Unis. Si on le sait, ce n’est en général pas très compliqué de s’adapter.

C’est quand je travaillais en Amérique du Sud que j’ai pris conscience du caractère central de la gestion du temps. Au début de cette semaine-là, j’avais pris la parole pendant 40 minutes à Denver, dans le Colorado, devant un groupe d’environ 500 managers, Américains pour la plupart. L’après-midi du jour précédent, Danielle, l’organisatrice de la convention, m’avait montré un jeu de pancartes qu’elle aurait entre les mains pendant mon intervention.

Une pancarte « 0 minute » pour indiquer la fin de mon temps de parole

« Je vous ferai signe toutes les 10 minutes, m’expliqua-t-elle, en me montrant les pancartes sur lesquelles était écrit en gros caractères noirs « 30 minutes », « 20 minutes » et « 10 minutes ». Les dernières pancartes affichaient « 5 minutes », « 2 minutes » et « 0 minute ». Le gros zéro noir de la dernière signifiait, sans l’ombre d’un doute, que j’avais épuisé mon temps de parole et qu’au moment où je le verrais, je n’aurais plus qu’à quitter l’estrade.

Je comprenais parfaitement Danielle. Elle est typique de ma tribu (américaine) et je n’avais aucun problème avec l’idée de surveiller mon temps minute par minute. Mon discours se déroula parfaitement et mon auditoire, culturellement « rigide » en matière de gestion du temps, l’apprécia comme il convenait.

Quelques jours plus tard, je dînais avec Flavio Ranato, charmant Brésilien d’un certain âge, dans un restaurant aux larges baies vitrées qui donnait sur les lumières de Belo Horizonte, cinquième ville du Brésil. Nous étions en train de préparer l’exposé que je devais faire le lendemain à un grand groupe de Sud américains. « C’est un sujet très important pour notre entreprise, me dit-il. Tout le monde va être passionné. Sentez-vous libre de dépasser le temps prévu, si vous en avez envie. Ce sera dans l’intérêt du groupe. »

Je ne comprenais pas bien ce qu’il voulait dire, car j’avais déjà répété ma présentation avec le technicien informatique. En outre, le programme du jour était déjà imprimé et affiché sur la porte de la salle. « Je dispose de 45 minutes, selon le programme de la réunion. Vous pensez me donner combien de temps ? Une heure ? », demandai-je. « Bien sûr, me répondit-il avec un petit haussement d’épaules. Prenez tout le temps dont vous avez besoin. » Pour être absolument sûre de son intention, je confirmai que je serais ravie de prendre 60 minutes, et Flavio Ranato hocha la tête. Je rentrai à mon hôtel pour revoir ma présentation pour l’adapter à une durée d’une heure.

Brésil « Prenez tout votre temps »

Le lendemain, en arrivant à la convention, je remarquai immédiatement que le programme annonçait toujours que j’allais parler pendant 45 minutes. Un peu perturbée, je cherchai Flavio dans la foule pour lui demander si j’avais bien compris : « Vous souhaitiez que je prenne 45 minutes ou une heure pour mon intervention de ce matin ? » Il eut un petit rire, comme si mon comportement était bizarre. « Ne vous faites pas de souci, Erin, dit-il en essayant de me rassurer. Vous allez les passionner. Je vous en prie, prenez tout le temps dont vous avez besoin. »

Dès le début de ma présentation, qui avait subi plusieurs retards imprévus, la réaction de l’auditoire fut conforme à ce qui m’avait été annoncé. Les participants manifestaient bruyamment leur intérêt et, à la fin de mon intervention, ils furent nombreux à agiter le bras pour poser des questions et pour donner des exemples. Les yeux rivés sur la grande horloge qui était au fond de la pièce, je terminai ma session au bout de 65 minutes, avec un retard de quelques minutes dû à une question qui avait pris plus de temps que je n’aurais pensé. Flavio s’approcha de moi : « C’était super, comme je l’espérais, mais vous avez terminé trop vite ! »

Vite ? Je n’y comprenais rien : « Je croyais que j’avais une heure et j’ai déjà pris cinq minutes de plus », hasardai-je. « Vous auriez pu prendre davantage ! Ils étaient passionnés », insista-t-il.

Une marque de manque de respect

Au cours de la soirée qui suivit, nous eûmes une conversation qui m’éclaira beaucoup sur notre malentendu : « Je ne voulais pas mobiliser votre groupe plus longtemps que prévu sans y être clairement autorisée, lui expliquai-je. Vous m’aviez donné une heure. Prendre davantage de temps sans votre permission aurait constitué, à mes yeux, un manque de respect vis-à-vis du programme qui avait été donné. »

« Je ne comprends pas, répondit-il. Dans la situation présente, c’est nous votre client. C’est nous qui vous payons pour vous entendre. Si vous voyez que nous avons encore des questions et que nous avons envie de poursuivre la discussion, n’est-ce pas dans l’intérêt de la qualité du service client que de prolonger votre intervention pour répondre à nos demandes ? » J’étais troublée. « Mais si vous ne me dites pas explicitement que je peux prendre 15 minutes de plus, comment puis-je savoir que c’est ce que vous voulez ? »

Il me dévisagea avec curiosité, commençant à comprendre à quel point je venais d’un autre monde. « C’est évident qu’ils étaient intéressés et qu’ils en redemandaient. Vous ne vous en êtes pas rendu compte ? »
Je commençais à voir l’énormité de l’impact que peuvent avoir des attitudes différentes vis-à-vis du temps. Du fait de nos postulats respectifs concernant la gestion du temps, nous avions chacun une conception différente d’un « service client de qualité ».

Quand les vaches rentrent à l’étable

L’anthropologue américain Edward T. Hall a été l’un des premiers chercheurs à étudier la manière dont les sociétés diffèrent dans leur rapport au temps. Dans La Danse de la vie : temps culturel, temps vécu, Hall distingue les cultures « monochrones » et les cultures « polychrones ». Pour les premières, le temps est considéré comme une réalité tangible. « On le dit gagné, passé, gaspillé, perdu, rattrapé, long, ou encore on le tue ou il passe. Et il faut prendre ces métaphores au sérieux. La gestion monochrome ou linaire est utilisée comme système de classification qui crée de l’ordre dans la vie. Ces règles s’appliquent à tout, sauf à la naissance et à la mort. »

Inversement, les cultures polychrones ont un rapport souple au temps, à l’implication individuelle et à la finalisation des transactions. « Les rendez-vous, écrit Edward T. Hall, n’ont pas de caractère de sérieux et, par conséquent, on les néglige ou on les annule souvent […] car il est plus probable qu’on considère le temps comme un point que comme un ruban ou une route. […] Un Arabe dira « je vous verrai avant une heure » ou « je vous verrai dans deux jours ». En d’autres termes, quelqu’un qui vit dans une société polychrone suggèrera une plage de rendez-vous dans un futur proche sans fixer le moment exact de ce rendez-vous. Le temps est flexible.

Sur le quai de la gare.
Mypouss/Flickr, CC BY-NC-ND

Dans la lignée du travail de Hall, le psychologue américain Robert Levine a entrepris d’observer et d’analyser minutieusement l’attitude de différentes cultures vis-à-vis du temps de l’horloge. Il a constaté que certaines cultures mesurent le temps par intervalles de cinq minutes, tandis que d’autres ne se servent pratiquement pas d’horloges mais gèrent leur journée en fonction de ce qu’il désigne comme du « temps événementiel » : avant le déjeuner, après le lever du soleil ou, dans le cas des indigènes du Burundi, « quand les vaches rentrent à l’étable ».

La gestion du temps est profondément influencée par des facteurs historiques qui modèlent la façon dont on vit, travaille, pense et interagit les uns avec les autres. Si vous vivez en Allemagne, vous trouvez sans doute que les choses s’y déroulent en général comme prévu. Les trains sont à l’heure, la circulation est raisonnable, les institutions sont fiables ; les règles de l’administration sont claires et font l’objet d’une application relativement cohérente. Vous pouvez programmer toute votre année en partant du principe que votre environnement ne va pas interférer de façon majeure avec vos projets.

Les Allemands, calés sur les contraintes du travail d’usine

Il y a une relation claire entre ce schéma culturel et la place historique de l’Allemagne comme l’un des premiers pays du monde à avoir été fortement industrialisé. Imaginez que vous êtes ouvrier dans une usine automobile allemande. Si vous arrivez avec quatre minutes de retard, la machine dont vous êtes responsable démarre en retard, ce qui se traduit par une perte financière réelle et mesurable. De nos jours, la perception du temps qu’ont les Allemands plonge encore partiellement ses racines dans le paradigme de la révolution industrielle, à l’époque où le travail d’usine exigeait que la main d’œuvre soit disponible au moment précis qui avait été fixé.

Dans d’autres sociétés – en particulier dans les pays en développement –, le fait principal de l’existence est le changement permanent. Avec les révolutions politiques et la modification des systèmes financiers, avec les aléas de la circulation, avec la succession des moussons et des sécheresses et les défis imprévisibles qui en découlent, les bons managers sont ceux qui ont développé la capacité à épouser les changements avec aisance et souplesse.

La souplesse de l’agriculteur du Nigéria

Supposons que vous soyez agriculteur dans la campagne du Nigéria, où l’essentiel du travail est fait à la main, et où les machines sont rares. Dans cet environnement, peu importe que vous commenciez à travailler à 7 heures, 7 heures 12 ou même 7 heures 32. Ce qui compte, c’est que votre structure professionnelle soit assez souple pour s’adapter aux changements de l’environnement naturel, et que vous ayez investi dans les relations indispensables pour que vos ouvriers vous restent loyaux en temps de sécheresse ou d’inondation, d’érosion ou d’invasion d’insectes.

Les positions doivent être envisagées d’un point de vue relatif, d’une culture à l’autre. À ce titre, on pourra entendre les Allemands se plaindre amèrement du manque de ponctualité des Britanniques et les Indiens trouver les Français rigoureux dans leur gestion du temps. Cela n’empêche pas les pays germaniques, anglo-saxons et ceux du nord de l’Europe de se ranger en majorité du côté rigoureux, alors que les cultures latines, d’Europe comme d’Amérique, se retrouvent du côté de la souplesse, les cultures moyen-orientales et africaines occupant – toujours de ce côté – les positions les plus extrêmes. En Asie, le Japon est du côté de la rigueur temporelle, mais la Chine et, tout spécialement, l’Inde ont une approche souple du temps.The Conversation

Erin Meyer,  INSEAD

L'auteur, Américaine installée en France depuis 17 ans, est professeur de management et spécialiste des différences culturelles d’un pays à l’autre. Ses travaux, fondés sur des études d’anthropologues et de psychologues, montrent à quel point un Français, un Allemand et un Brésilien voient, derrière les mots « arriver en retard », des réalités bien différentes. Dans son livre « La carte des différences culturelles : 8 clés pour travailler à l’international » (Editions Diateino), elle explique comment décoder les étranges comportements des étrangers… et ne froisser personne.

"https://theconversation.com/profiles/erin-meyer-318643">Erin Meyer, Professeur associé en sciences de gestion, INSEAD

Publié sur "https://theconversation.com/au-bout-de-combien-de-temps-est-on-vraiment-en-retard-69449">version originale de cet article a été publiée sur The Conversation.

Dépression hivernale & chronophysiologie

Aux 2 questions, la chronobiologie peut-elle expliquer la dépression hivernale ?
La musicothérapie vibratoire peut-elle me venir en aide dans ces périodes-là ?
Voici notre réponse :

La chronophysiologie explique

C'est la rotation de la terre qui induit le rythme circadien 'jour-nuit' de 24h, c'est  l'inclinaison de la Terre sur son orbite elliptique solaire qui induit les saisons. À l'automne, l'hémisphère nord semble s'éloigner du Soleil et les journées sont plus courtes.
Certains humains sont plus sensibles que d'autres à cette diminution quantitative et progressive de la lumière du jour. Cela se remarque chez eux par des signes, des symptômes : une sensation de fatigue qui revient chronique tous les ans, un repli sur soi, une baisse de moral, des insomnies saisonnières, des troubles de la vigilance, une plus grande difficulté à se motiver pour aller travailler.

La chronobiologie a montré qu'il existe une relation étroite entre ces états dits dépressifs et la perturbation de l'organisation temporelle de l'humain. En effet, il a été vu que dans un très grand nombre de dépressions hivernales ou de troubles affectifs saisonniers,  une certaine forme de désynchronisation interne avait pu être observée. Ceux qui tolèrent le mieux l'hiver présentent des rythmes circadiens stables et de grandes amplitudes (variabilité interindividuelle de l'être humain).

Cette désynchronisation se matérialiserait au niveau de l'épiphyse ou glande pinéale qui sécrète la mélatonine et qui est étroitement liée à la lumière extérieure. Une chute de la mélatonine peut provenir d'un déphasage des rythmes biologiques de cette glande et serait, en l'état actuel de la recherche, la principale cause de la dépression hivernale.

Ne pas confondre dépression et besoin de sommeil

En hiver, notre corps demande à dormir plus,  lorsque les nuits sont longues et froides. Sans aller jusqu'à l'hibernation, comme ont pu le faire nos ancêtres, il est important d'accepter cette tendance naturelle et physiologique. Elle n'est pas signe de dépression mais au contraire de synchronisation avec les éléments naturels !

fever-310721_1280

Dormir plus l'hiver est un bon remède ! car à pendant cette période de froid, notre organisme est plus vulnérable aux virus et aux microbes. Une étude américaine (journalsleep.org) a montré que les personnes qui dorment moins de 6 h par nuit auraient 4 fois plus de risques d'attraper un rhume. Celles qui dorment régulièrement et suffisamment ( > 8h par nuit ) résistent mieux aux virus !

Approche préventive

Pour prévenir "cette dépression hivernale" non-pathologique, vous avez plusieurs possibilités non médicamenteuses :

Comme la synchronisation soutient la chronophysiologie, nous proposons une approche préventive grâce aux modelages vibratoires Sÿndaô® aux changements de saison. Ceux-ci stimulent, notamment, le système nerveux central et aident à la régulation des horloges internes de celui-ci.

Néanmoins, vous avez d'autres moyens à votre disposition : capture-decran-2016-10-01-a-09-43-06

S'engager  à une "hygiène lumineuse" afin de conserver ses heures naturelles de sommeil en cessant notamment la lecture sur écran à partir de 21 h le soir (ordinateur, tablette, écran tactile, télévision).

Marcher ou faire des activités physiques en extérieur, tout en regardant le ciel qu'il soit bleu ou gris, tous les jours au minimum une heure lorsque la luminosité naturelle est la plus élevée - "à la pause déjeuner", c'est-à-dire lorsque le soleil est au zénith même caché par les nuages. En effet, aucune lumière fabriquée par l'humain ne sera jamais aussi puissante ( max.5000 lumens) que la lumière naturelle du soleil (100 000 à 500 000 lumens). C'est pour cette raison que dans nos sociétés occidentales l'activité en montagne l'hiver, les voyages au soleil sont très appréciés.

Femme marchant en regardant le ciel bleu
Femme marchant en regardant le ciel bleu

Vous préparer psychiquement à cette période de "cocooning" pourrait aussi vous soutenir ; Cela se passe, par exemple,  par l'accumulation de livres, de musique ou de création  pour l'hiver. Vous pouvez faire le choix d'activités culturelles régulières si celles-ci vous nourrissent. Une pratique régulière de ce que nous appelons "le body-building vibratoire" est aussi efficace : en utilisant différentes formes de respiration, souffle diphonique, différentes postures.
(voir en cliquant ici notre proposition de formation de cycle I)

Envie de résorber son embonpoint ?

Décalage entre théorie et faits

"Si les Français devaient être notés sur la nutrition, ils décrocheraient sans aucun doute une mention "excellent" sur la théorie (recommandation de 5 légumes et fruits/jour), mais un "passable" en travaux pratiques."

Ce décalage entre les connaissances et les actes est manifeste dans les résultats tirés d'une analyse statistique auprès d’un échantillon de 38 000 individus faite par la "Cohorte Constances". http://invs.santepubliquefrance.fr/beh/2016/35-36/2016_35-36_8.html

L’excès de poids concerne près de la moitié de la population en France. Ces données confirment l’importance de cette pathologie nutritionnelle en termes de santé publique.

En 2013, la prévalence du surpoids était de :
41,0% chez les hommes et 25,3% pour les femmes.

"La prévalence de l’obésité globale était de :
15,8% pour les hommes et 15,6% pour les femmes.
Celle de l’obésité abdominale était de :
41,6%  chez les hommes et 48,5% chez les femmes".

L’obésité abdominale est définie selon les recommandations de la Haute Autorité de santé : Tour de taille de ≥ 95cm pour les hommes et de ≥ 80 cm pour les femmes.

En fait, toutes les campagnes nationales d'information réunies n’ont pas réglé le problème du surpoids, qui concerne aujourd’hui près d’un Français sur deux entre 30 et 69 ans – un autre résultat de la cohorte Constances. "La prise de conscience des citoyens des enjeux de nutrition était nécessaire, mais elle n’est pas suffisante." Leur seule bonne volonté ne suffit pas, c’est sur leur environnement qu’il faut désormais agir. http://invs.santepubliquefrance.fr/beh/2016/35-36/2016_35-36_5.html

"Fenêtre-temps" alimentaire

Chronophysiologie

Dans notre article de blog "choix qui accompagnent la physiologie" nous avions rappelé le précepte bien connu du Dr Kousmine :

"Petit déjeuner de roi,
Déjeuner de prince,
Diner du pauvre".

A cela s'ajoute la régularité des repas pris et l'horaire du repas du soir.
La chronophysiologie propose en plus un repas frugal c'est à dire très léger (si possible sans sucre) et pris tôt vers 18h30 – 19h00.

Enfin, l'arrêt d'absorption de sucres lents ou rapides après 16h30 est particulièrement recommandée, ceux-ci se transformant en gras après cet horaire. C'est un des aspects importants de la chrononutrition.

Etude " Temps alimentaire restreint " ou TRF

Aujourd'hui, une étude préliminaire dirigée par Courtney Peterson (Université d'Alabama à Birmingham) et le professeur Schoeller va beaucoup plus loin : Une chronodiète.
http://www.cell.com/cell-metabolism/pdf/S1550-4131(14)00498-7.pdf 

"Manger seulement pendant une fenêtre-temps beaucoup plus courte que celle que les gens utilisent généralement aide à la perte de poids", dit C. Peterson.

"Nous avons constaté que manger entre 8 heures et 14 heures suivi d'un jeûne journalier de 18 heures a maintenu l'appétit plus uniforme tout au long de la journée, par rapport à manger entre 8 heures et 20 heures, ce qui est la moyenne américaine." Les chercheurs ont trouvé que cette chronodiète permet des niveaux élevés d'oxydation des protéines et du gras pendant la nuit.

"Grâce à des recherches supplémentaires sur la prise alimentaire limitée dans le temps dès un âge précoce, nous pourrions créer une image plus complète pour savoir si cette méthode innovante pourrait mieux prévenir et traiter l'obésité" explique le professeur Schoeller.

Commentaires

Cela équivaut à passer de 3 repas à 2 repas par jour. Or beaucoup de français ne prennent que 2 repas / jour : le déjeuner et le diner. Faire glisser ces 2 repas sur les bons horaires (petit déjeuner et déjeuner) semble, pour ses auteurs,  être une solution intéressante.

L'étude montre que chez les personnes minces, ces nouveaux comportements alimentaires permettent une vie sociale le week-end, puisque l'on peut alors s'en libérer.
Sinon, faisons comme nos voisins européens : invitons nos amis à l'heure du "Brunch".

Notre expérience  personnelle nous a montré :
- Qu'il est important de la démarrer par l'arrêt alimentaire (Essai à 16h30) pour avoir faim le lendemain au petit déjeuner,
- Que lorsque l'on n'a pas d'enfant, nous dégageons alors beaucoup de temps pour d'autres activités,
- Que ce choix de vie est plus difficilement conciliable avec des enfants ou des adolescents.

Questions que pose une telle étude

  • Nous avons tous entendu parlé des régimes méditerranéens ou d'Okinawa, ce que nous lisons moins c'est qu'ils sont basés sur la frugalité. Or dans nos sociétés occidentales nous mangeons généralement trop. Manger autant mais sur 2 repas est-ce mieux que de manger moins à chaque fois ?

  • En amont, n'achèterions-nous pas trop ? Puisqu'il semblerait que les français jettent 27 kg de nourritures encore emballées par an. Nos grandes surfaces alimentaires ne regorgent-elles pas de trop de tentations ? http://www.novethic.fr/index.php?id=299&tx_ausynovethicarticles_articles[article]=144180&L=0
  • Ne serait-il pas obligatoire de revisiter la contradiction entre les messages de l'agro-alimentaire, de la publicité et de telles études ?
  • Si réduire sa quantité de nourriture le soir est difficile pour certains, est-il plus facile de sauter totalement le repas ?
  • A quel âge peut-on commencer ? Ne doit-on pas attendre que l'enfant grandisse pour l'aider ? tout en sachant que les bonnes habitudes se font par mimétisme ?

Mais encore....

  • Est-ce la panacée ? Est-ce la seule solution ?
  • D'autres études proposent d'autres solutions. 2 - 3 - 4 - 5  repas par jour, tout est possible. Le rythme de prise des repas n’est qu’un facteur parmi d’autres, auquel il faut ajouter la composition, l’heure de prise, et des facteurs propres aux individus, comme leur bagage génétique et leur fréquence d’exercice.
    http://www.alternet.org/story/152486/there_is_no_biological_reason_to_eat_three_meals_a_day_--_so_why_do_we_do_it
  • La chronophysiologie a aussi montré que "qui ne dort pas, mange trop", alors pour combattre le surpoids, avons-nous seulement l'arme de la fenêtre-temps alimentaire ? Ne faudrait-il pas une fois de plus porter l'effort sur la quantité de sommeil dont a besoin notre organisme pour bien se réguler ?
    http://www.journalsleep.org/ViewAbstract.aspx?pid=30766
  • La toute nouvelle prise en compte de la qualité du microbiote (associée à des maladies telle l'obésité) c'est à dire de notre flore intestinale, ne modifierait-t-elle pas ce genre d'étude ? ne serait-ce pas préférable de diversifier plus sa nourriture pour améliorer notre flore (par exemple en augmentant la part de fibres végétales absorbées dans les légumes et les fruits) ? L'étude du microbiote donne un rôle-clé à la diversité de l'écologie intestinale qui définit sa résistance, sa résilience et sa stabilité. http://www.pourlascience.fr/ewb_pages/a/article-microbiote-instestinal-les-bienfaits-de-la-diversite-37777.php
  • Les personnes qui évitent les aliments pour lesquels elles ont développé une intolérance alimentaire perdent toutes du poids, ne serait-ce pas encore une autre solution ? Ne faudrait-il pas favoriser la recherche d'intolérances éventuelles ?
  • La synchronisation de nos rythmes biologiques aide à la régulation de notre seuil de satiété ...ne serait-ce pas une possibilité à explorer pour chacun ?

Au final, ne vaudrait-il pas mieux plusieurs approches conjuguées que de s'en remettre à une seule idée, qui peut sembler assez extrémiste, de ne manger que pendant un créneau de 6 heures ?

Éloge de la sieste

La privation de sommeil touche un adulte sur trois et de très nombreux jeunes et adolescents. Les déterminants sont professionnels (travail de nuit et posté, temps de travail) et personnels liés à l’utilisation excessive des tablettes, téléphones et moyens de communication. http://www.sommeil-vigilance.fr/la-recherche/

Afin de contrecarrer les effets à court et long terme du manque de sommeil certains spécialistes du sommeil on proposé la sieste en tant qu’ « outil de santé publique ». http://www.smrv-journal.com/article/S1087-0792(16)30094-6/fulltext?rss=yes

sieste-velo

 

Le mot sieste vient du latin « sixta » qui signifie « la sixième heure du jour ». La sieste désigne ainsi le sommeil pris en milieu de journée, c’est-à-dire environ 6 heures après le réveil…Ne vous est-il jamais arrivé de ressentir cette fatigue insoutenable du début d’après-midi ?vous avez la réactivité d’un mollusque et l’attention d’un poisson rouge. De plus en plus d’entreprises, plutôt d’origine anglo-saxonnes ou du nord de l’Europe intègrent la sieste dans le milieu de travail. Et il est prouvé que l’énergie, la productivité et les performances des employés qui pratiquent la sieste sont grandement potentialisées.

De quel type de sieste avez-vous besoin ?

La sieste de 5-10 minutes : si vous ne vous endormez pas pendant cette micro-sieste, ce n'est pas grave.

La sieste de 20 minutes maximum : cette sieste semble la mieux adaptée à notre société.

La sieste de 60 à 90 minutes : cette sieste ne sera très utile qu'aux travailleurs de nuit .

Certains sont assez chanceux pour avoir un coin sieste au bureau…

3017356-inline-boxlife

https://www.fastcompany.com/3017356/work-smart/the-revealing-science-behind-what-naps-do-to-your-brain-and-why-you-should-have-o

Quand ne pas faire la sieste ?

Si vous êtes insomniaque.

Ne pas faire de sieste après 16 heures.  Cela afin de ne pas décaler votre cycle d'endormissement.

http://secrets-du-sommeil.com/comment-simple-sieste-10-minutes-changer-votre-vie/
Thierry Gallopin http://secrets-du-sommeil.com/pourquoi-ce-blog/mon-parcours-2/

Bonus, si vous n'êtes pas convaincu : sieste et apprentissage

La capacité d’apprendre va au-delà de la construction et de la consolidation de connexions neuronales. Notre capacité à nous défaire des anciennes connexions est peut-être bien plus importante. Cela s’appelle : «l'élagage synaptique». et voila comment cela fonctionne : imaginez que votre cerveau est un jardin , sauf qu’au lieu d’y faire pousser des fleurs, des fruits et des légumes vous y cultivez des connexions synaptiques.
Les cellules gliales sont les jardiniers de votre cerveau, et les élagueurs en sont les cellules microgliales.
Votre cerveau s’auto-nettoie quand vous dormez.
Penser avec un cerveau qui manque de sommeil c’est se tailler un chemin à coups de machette dans une jungle épaisse.
Et c’est pour cette même raison que les siestes sont si bénéfiques. Une sieste de 10-20 minutes permet aux cellules microgliales de faire leur travail.

Judah Pollack and Olivia Fox Caban

« Le bruit altère le goût »

L'expérience

«Dans une expérience récente, Robin Dando et Kimberly Yan, deux chercheurs de l'Université Cornell ont demandé à des bénévoles de siroter une variété de solutions goûteuses. Les participants ont d'abord bu des solutions -amères, salées, acides, sucrées et salées/umami - dans un silence complet en évaluant l'intensité de la saveur. Les mêmes participants ont ensuite bu les mêmes solutions, tout en portant des écouteurs reproduisant un bruit de plus de 80 décibels, associés aux conditions de la cabine.
l'intensité de la solution sucrée a diminué dans cet environnement tandis que l'intensité de l'umami –une des cinq saveurs de base - a augmenté.…les deux récepteurs du sucré et de l'umami partagent un gène commun et stimulent des modèles semblables de l'activité du cerveau»  peopledaily

L’anatomie et le rôle de la corde du tympan expliqueraient ce phénomène.

«Il a été montré que des lésions de l’oreille moyenne dues à la chirurgie ou à une infection provoquent une importante dénaturation du goût, de même que les chirurgies du nez et de la gorge ou l’extraction de molaires … La corde du tympan (ou caisse du tympan) traverse la membrane tympanique  réalisant un contact physique avec des structures vibrant lors d’une stimulation audio… Dans une situation telle que celle rencontrée dans un avion, il est tout à fait possible que la stimulation mécanique directe de la corde du tympan ait un effet sur les propriétés électriques de ce nerf important pour le goût.» Robin Dando et Kimberly Yan

Questions Sÿndaô

L’expérience d’origine concernait les repas servis dans les avions dans lequel le fond sonore appelé "bruit blanc" se situe entre 80 et 85 décibels.

  • A ce niveau-là de décibels, ne devrait-on pas plutôt parler de pollution sonore ?
    L'appellation de "bruit blanc" ne parait-elle pas bien douce, légère et comme sans danger ??
  • Est-il exagéré de penser que ce phénomène ne se limite pas seulement aux transports aériens ? Sachant qu'actuellement des zones d'activité humaine, telles que les gares, les cours de récréations, les cantines, les grands axes de circulation, atteignent voire dépassent ces seuils ?
  • Si nous prenons nos repas dans ces environnements très bruyants,  notre goût est-il également altéré ?
  • Devrions nous mettre des atténuateurs de décibels pour manger un sandwich dans la rue ?
  • Que faire pour les jeunes oreilles qui sont encore plus sensibles et sont à l'âge de développer leur papilles gustatives ?
  • Après le bio à l'école, ne faudrait-il pas demander des séances de méditation plutôt que des cours de récréation trop bruyantes ?

Les chansons commerciales sonnent pareil

Par Joshua Reiss, Reader, Centre for Digital Music, Queen Mary University of London
Le 14 septembre 2016

Pourquoi toutes les chantions commerciales sonnent pareil ?

S’il vous arrive d’écouter les radios grand public, vous avez peut-être l’impression que toutes les chansons se ressemblent. En réalité, ce n’est pas qu’une impression : la science semble confirmer que la musique pop revêt une forme assez homogène depuis ses débuts, et tend à le devenir de plus en plus.

Dans une étude de 2014, des chercheurs américains et autrichiens ont analysé plus de 500 000 albums issus de 15 genres musicaux et 374 sous-genres. La complexité de chaque genre et son évolution dans le temps a été mise en regard avec les ventes d’albums. Et dans presque tous les cas, les chercheurs ont découvert que plus un style devient populaire, plus le son qui y est associé se standardise.

En soi, ça ne veut pas dire grand-chose, dans la mesure où, en musique, de nouveaux genres et sous-genres apparaissent sans cesse. On pourrait même dire que cette découverte est une forme de truisme : évidemment, quand les codes d’un genre musical sont bien établis, ce genre devient de plus en plus populaire, et une fois qu’il s’est installé dans le paysage musical, un nouveau genre (ou sous-genre) « rebelle » apparaît. C’est par exemple le cas de la funk music, née de la soul et du RnB, mais avec des basses et des rythmiques beaucoup plus prononcées.

En 2012, une autre étude s’est penchée sur l’évolution de la musique pop occidentale en utilisant un fonds d’archives impressionnant, le « Million Song Dataset », qui renferme des données très détaillées sur le contenu de chaque chanson. Les chercheurs ont découvert qu’entre 1955 et 2010, la sensation subjective de volume sonore (sonie) des chansons n’a cessé d’augmenter, tandis que leur structure musicale était de moins en moins variée.

Ce ne sont certes que des tendances – mais cette perception d’une homogénéisation du paysage musical, partagée par bien des auditeurs, semble s’accélérer ces dernières années, peut-être à cause de certaines évolutions technologiques.

La guerre du volume

La compression dynamique du son est l’ajustement automatisé de la dynamique sonore pour augmenter la sensation subjective de volume sonore (sonie) tout en gardant le même niveau maximal lors du mastering des albums et de leur diffusion radio. Ce système devait au départ réduire les trop grandes variations de volume dans un même titre.

Mais un usage trop systématique de la compression a abouti à une « course au volume » (« loudness war »). La faute au musicien qui ne veut pas sonner moins fort que les autres, au producteur qui veut créer un « mur sonore », aux ingénieurs du son qui ajustent le volume au cours de l’enregistrement, à ceux qui préparent le son pour le diffuser à la radio et enfin aux radios eux-mêmes, qui cherchent à attirer un maximum de d’auditeurs.

Poussez le volume
Poussez le volume, Jeff Wilson

Mais le pire de cette course au volume est peut-être derrière nous. Les spécialistes de l’audition s’inquiètent désormais des dommages provoqués par l’exposition fréquente et prolongée à des volumes sonores trop élevés, tandis que les musiciens dénoncent ses dégâts sur la qualité du son. Une journée annuelle de la compression (Dynamic Range Day) a même été organisée pour sensibiliser à la question, et l’organisation à but non lucratif Turn me Up ! ! a été créée pour promouvoir des enregistrements dont la gamme dynamique est plus étendue. Les organisations de normalisation ont aussi mis en place des recommandations sur la mesure du volume et de la dynamique sonore à l’usage des radios. Autant d’initiatives qui montrent que la course au volume tend à s’essouffler.

Auto-tune

Il y a une autre tendance, qui, elle, semble s’installer dans la durée : l'usage de l'auto-tune. Il s’agit à l’origine de l’invention d’un ingénieur de l’industrie pétrolière, qui sert aujourd’hui à corriger la tonalité des chanteurs, et dont les producteurs de musique usent et abusent.

C'est une banale conversation qui a mené à l'invention de l'auto-tune
C'est une banale conversation qui a mené à l'invention de l'auto-tune, Antares, CC BY

De 1976 à 1989, Andy Hlidebrand a travaillé dans l’industrie pétrolière, où il interprétait des données en rapport avec l’activité sismique. Il envoyait des ondes sonores dans le sol pour le cartographier et connaître les sites à explorer afin d’y puiser du pétrole. L’ingénieur – surnommé Dr Andy – a aussi étudié la composition musicale à l’Université Rice de Houston, au Texas, et s’est servi de ses connaissances dans les deux domaines pour développer des outils de traitement audio – dont le plus connu est sans conteste l'auto-tune.

Une révolution discutable ?
Une révolution discutable ? - believekevin, CC BY

Lors d’un dîner, l’une des convives lui a lancé un défi : inventer un outil qui l’aiderait à chanter juste. En se fondant sur la technologie du vocodeur de phase, qui utilise les maths pour manipuler la représentation des signaux sous forme de fréquence, Hildebrand a imaginé des techniques qui permettent d’analyser et de traiter le son pour produire des sons harmonieux. Sa société, Antares Audio Technologies, a lancé l’auto-tune fin 1996.

À l’origine, l’auto-tune sert à corriger ou dissimuler les fausses notes. Le procédé permet de déplacer la hauteur d’une note vers le demi-ton le plus proche (c’est à dire vers l’intervalle musical le plus proche dans la musique tonale occidentale, fondée sur la gamme tempérée)

Au départ, l’auto-tune était équipé d’un régulateur paramétrable entre 0 et 400 millisecondes pour déterminer à quelle vitesse la note passait à la hauteur souhaitée. Mais rapidement, les ingénieurs du son se sont rendus compte que ce régulateur pouvait servir à déformer les voix et à les faire bondir d’une note à l’autre tout en sonnant toujours parfaitement juste. En plus, l’utilisation de cet effet donne une texture artificielle à la voix, qui sonne presque comme un synthétiseur – un effet qui irrite ou qui plaît en fonction des goûts musicaux.

Contenu non disponible.
veuillez accepter les cookies sur la bannière, s'il vous plaît

Cet effet inédit est devenu la marque de fabrique de Cher avec son hit de 1998, « Believe », le premier titre commercial dans lequel les « effets secondaires » d'auto-tune sont parfaitement assumés et audibles.

Bien sûr, comme pour beaucoup d’autres effets audio, les ingénieurs comme les artistes ont trouvé le moyen d’utiliser l’auto-tune de façon créative, en le détournant de son objectif initial. Hildebrand s’en étonne lui-même : « Je n’aurais jamais imaginé qu’une personne saine d’esprit puisse faire ça », dit-il. Et pourtant Auto-Tune et ses concurrents comme Melodyne font désormais partie intégrante du paysage musical (amateur ou professionnel, tous styles confondus), tant pour ses applications classiques que pour ses possibles détournements.

L’effet est devenu si banal que tous les enregistrements de pop commerciale se doivent de l’utiliser ; Pour les critiques, c’est une des raisons pour lesquelles tant de chansons sonnent pareil, même si la course au volume et la surproduction musicale y sont aussi pour quelque chose. Et parmi les plus jeunes – ceux qui ont grandi en écoutant de la musique « auto-tunée » – beaucoup pensent que le chanteur n’a pas de talent si sa voix n’a pas été trafiquée.

L'auto-tune est devenu un sujet de blagues sur les médias sociaux, à la télévision et à la radio ; Time Magazine l’a même nommé parmi les « 50 pires inventions de tous les temps ». Cela étant, l’effet auto-tune continue à faire son chemin, que ce soit sous forme subtile ou de manière plus visible. Alors, si vous n’arrivez pas à distinguer un titre de Chris Brown d’une chanson de Kanye West, c’est peut-être la faute de Dr Andy.

La version originale de cet article a été publiée en anglais.

Source : The Conversation -  Pourquoi toutes les chansons commerciales sonnent pareil

Café versus sommeil

De l'opportunité de boire du café quand on manque de sommeil

La première chose que l’on est tenté de sacrifier, afin d’avoir plus de temps, que ce soit pour réviser pour un examen, terminer un dissertation ou bien pour préparer une importante présentation, c’est le sommeil. Pour étudier tard dans la nuit et compenser le manque de sommeil, une solution très courante est de boire des cafés les uns derrière les autres. Sachez qu'au-delà de deux jours ce programme est compromis.

De nouvelles études indiquent que lorsque l'on dort moins sur des périodes prolongées - à peu près 5 heures de sommeil par nuit - la caféine cesse de fournir la stimulation cognitive recherchée à partir du troisième jour.

"Nous sommes particulièrement surpris que le gain de performance que confère deux doses journalières de 200 mg de caféine soit perdu après seulement trois nuits de restriction de sommeil", déclare Tracy Jill Doty, l’auteur principal de l’étude. "Ces résultats sont importants, parce que la caféine est un stimulant largement utilisé pour s’opposer à la baisse de performance qui suit des périodes de restriction de sommeil. Les données de cette étude indiquent qu'après plusieurs jours de manque de sommeil, la même dose journalière jusque là efficace n’est plus suffisante pour prévenir la baisse de performance."

L'étude

L’échantillon était plutôt petit (48 personnes), aussi nous ne pouvons présumer que tout le monde réponde strictement de la même façon. Ces 48 personnes ont dormi 5 heures par nuit cinq nuits consécutives.

Elles ont reçu une dose de caféine équivalente à une grande tasse de café ou un placebo vers 8 heures du matin, une autre vers midi tous les jours. Les deux premiers jours, ceux qui avaient eu de la caféine étaient plus performants dans les tests d’attention et de réaction. Mais le troisième jour la caféine ne les aidait plus à mieux faire en comparaison à ceux qui n’avaient pas reçu de caféine.

Augmenter la dose de caféine aurait-il pu changer cela?

"Nous ne savons pas si plus de caféine aiderait, mais nous savons que plus vous consommez de caféine, plus vous avez d’effets indésirables (e.g.énervement)", dit Doty.

"Ce travail vient s’ajouter à de nombreux autres qui démontrent que les effets négatifs d’un manque de sommeil sont difficiles à surmonter - et ceci est vrai même avec une solide dose journalière de caféine."

Conseil

Pour venir à bout d’une semaine frénétique d’examens gérez votre temps avec soin et assurez-vous que vous pourrez dormir suffisamment plutôt que de compter sur la caféine.

https ://mic.com/articles/146219/coffee-and-sleep-study-caffeine-not-effective-on-third-day-of-reduced-sleep?utm_source=newsletter&utm_medium=miccheck#.z0fH1jSoj

Isabelle Lachaud - Consultations Sÿndaô - Musicothérapie Vibratoire

Isabelle Lachaud consulte les samedis ou dimanches au Centre de Recherche Sons et Couleurs, de Paris.

Prochaines dates :

Dimanche 22 juillet 2018

Dimanche 30 septembre 2018

 

 

 

 

Sommeil : clef dans la maladie mentale ?

Le sommeil pourrait-il être la clé dans le traitement de la maladie mentale ?

Nous commençons seulement à démystifier les fondements génétiques et biochimiques de la maladie mentale — un terme vague comprenant des états aussi divers que l’anxiété, la dépression, les troubles de l’humeur ainsi que les troubles psychotiques. Des millions de personnes souffrent de ces pathologies, aussi est-il devenu crucial d’améliorer diagnostic et traitement. Des travaux scientifiques de plus en plus nombreux nous indiquent que nous devrions orienter nos recherches vers une de nos fonctions des plus basiques : le sommeil.

Des études suggèrent qu’un sommeil perturbé, comme dans le cas d’une insomnie,
serait un indicateur d’épisodes de maladie mentale à venir et que traiter les troubles du sommeil pourrait aider à traiter la maladie. En dépit de quoi, les effets du sommeil sur la maladie mentale ont été largement ignorés jusqu’ici en clinique.
Mais comment le sommeil et la maladie mentale sont-ils liés dans le cerveau ?
Pour comprendre ceci, considérons d’abord la biologie du sommeil et les rythmes circadiens.

Rythmes circadiens et santé

Il y a eu plus d’un trillion d’aubes et de crépuscules, depuis que la vie a commencé il y quelque 3, 8 milliards d’années. La physiologie, le métabolisme et le comportement des organismes, nous inclus, sont alignés sur ce cycle journalier grâce à nos horloges internes : ce sont elles qui nous permettent de "savoir" l’heure qu’il est. Cette horloge garantit que les processus biologiques surviennent dans l’ordre adéquat. Pour que les cellules fonctionnent convenablement elles ont besoin des bons matériaux, au bon endroit, et, au bon moment.

Des milliers de gênes doivent être activés ou inhibés en ordre et de concert. Protéines, enzymes, graisses, hormones et autres composés doivent être absorbés, fragmentés, métabolisés et produits dans une fenêtre temporelle précise pour permettre d’importants processus comme la croissance, la reproduction, le métabolisme, et la réparation cellulaire. Ceci consomme de l'énergie et doit, pour un résultat optimal, être programmé à la milliseconde, seconde, minute et heure d’un jour de 24 heures.

Pourquoi dormons-nous et que se passe-il si nous ne le faisons pas ?

Les rythmes circadiens sont innés et programmés dans le génome de tout ce qui vit sur la planète. Chez nous humains, la physiologie s’organise autour du cycle quotidien de veille-sommeil. Dans la phase active, quand la dépense énergétique est élevée, et que nous consommons nourriture et eau, les organes doivent être prêts pour l’absorption, la métabolisation et l’assimilation des nutriments.

Durant le sommeil, bien que la dépense énergétique et que les processus digestifs diminuent, beaucoup d’activités essentielles ont lieu y compris la réparation cellulaire, l’élimination des toxines, la consolidation de la mémoire et le traitement de l’information par le cerveau.

Quand ce mécanisme est perturbé, comme cela survient avec le décalage horaire, le travail posté, et la maladie mentale la synchronisation interne du réseau circadien se voit détruite et notre capacité à faire la bonne chose au bon moment est très diminuée. Ceci peut avoir un impact majeur sur notre santé.

Un sommeil et un rythme circadien perturbés peuvent avoir un impact majeur sur l’émotion, la cognition et la santé physique

Quelques effets sont décrits ci-dessous . (Source de l'auteur - Russell FOSTER)

L'Émotion, ce qui augmente :

les variations d’humeur
les dépressions et psychose
l’irritabilité
l’impulsivité
la frustration
la prise de risque
l’usage d’excitants (e.g. caféine)
l’usage de stupéfiants
les processus de dissociation mentale

La Cognition, ce qui diminue :

la performance cognitive
l’aptitude multitâche
la mémoire
l’attention
la concentration
la communication
la prise de décision
la créativité
la productivité
les performances motrices

La Physiologie et santé, il y a risque augmenté de :

somnolence
micro-sommeils
endormissement involontaire
sensations de douleur et de froid
cancer
anomalies métaboliques
diabètes de type II
maladie cardiovasculaire
baisse d’immunité
fonctions endocriniennes altérées

La perturbation du sommeil dans la maladie mentale

La relation entre la maladie mentale, le sommeil et la perturbation du rythme circadien a été décrite pour la première fois à la fin du XIX ème siècle par le psychiatre allemand Emil Kraepelin. Aujourd’hui, on signale cette perturbation chez 80 % de patients présentant une schizophrénie. Elle est de plus en plus reconnue comme la caractéristique la plus commune de ce trouble.

En dépit de sa fréquence dans la maladie mentale, les troubles du sommeil ont été en grande partie ignorés, et écartés comme étant la conséquence soit de l’isolement social ou d’une absence d’emploi, soit d’une médication anti-psychotique. Cependant, notre équipe a étudié cette hypothèse et montré que la perturbation du sommeil et du rythme circadien chez les patients souffrant de schizophrénie persistent indépendamment de médication anti-psychotique et cela ne peut s’expliquer sur la base d’un isolement social ou d’un manque d’emploi. Ces résultats nous conduisent à suggérer que maladie mentale et perturbation du sommeil sont susceptibles de partager dans le cerveau des chemins communs et qui se chevauchent.

Le système sommeil-rythme circadien est le résultat d’une interaction complexe entre plusieurs régions cérébrales, des neurotransmetteurs et des hormones. En conséquence, des anomalies dans n’importe quel système de neurotransmetteur auront probablement un impact sur le sommeil et le rythme circadien à plusieurs niveaux.

De la même façon, la maladie psychiatrique résulte d’anomalies dans des circuits qui interfèrent, et dans des systèmes de neurotransmetteurs du cerveau. Beaucoup d’entre eux interfèrent avec ceux qui régulent le sommeil et le rythme circadien. Vu sous cet angle, il n’est pas surprenant que les troubles du sommeil soient courants dans la maladie mentale, ou que la perturbation du rythme biologique puisse aggraver une santé mentale précaire. On retrouve, de façon très significative, beaucoup de problèmes de santé imputables à la perturbation du sommeil dans la maladie mentale, mais ils n’ont presque jamais été directement reliés à cette perturbation.

À la lumière de ces connaissances nous avançons les hypothèses suivantes :
Les gènes liés à la maladie mentale pourraient jouer un rôle dans l’origine et la régulation des rythmes circadiens.
Les gènes qui sont à l’origine du sommeil et des rythmes circadiens et les régulent pourraient jouer un rôle dans la santé et la maladie mentales.

À ce jour un nombre étonnant de gènes qui jouent un rôle à la fois dans les troubles du sommeil et dans la santé mentale a été identifié. Et si la santé mentale n’est pas due à une perturbation du sommeil et du rythme circadien, alors la perturbation du sommeil peut survenir avant un épisode de maladie mentale dans certaines circonstances.

Des anomalies du sommeil ont effectivement été identifiées dans les antécédents de cas de maladie mentale. Nous savons par exemple que des troubles du sommeil surviennent généralement avant un épisode de dépression. Par ailleurs, des individus, identifiés "à risque", en ce qui concerne le développement d’un trouble bipolaire, et de la schizophrénie débutant pendant l’enfance, présentent de façon caractéristique des problèmes de sommeil avant tout diagnostic de maladie.

De telles observations augmentent la probabilité que la perturbation du sommeil et du rythme circadien soit un facteur important dans le diagnostic précoce de cas de maladie mentale. Ceci est très important, dans la mesure où un diagnostic précoce permet une aide précoce. On peut aussi penser que le traitement des problèmes de sommeil actuels aura un impact positif sur la gravité de la maladie mentale. Une étude récente a été menée, au moyen de thérapie comportementale cognitive, dans le but de diminuer les troubles du sommeil chez des patients schizophrènes présentant des délires de persécution. Il a été mis en évidence qu’une meilleure nuit de sommeil était associée à une diminution de pensées paranoïdes ainsi qu'à une réduction de l’anxiété et de la dépression. Les nouvelles données suggèrent donc que traiter les problèmes de sommeil peut être un moyen efficace de réduire les symptômes.

Où cela nous mène-t-il ?

Il est maintenant on ne peut plus clair que les troubles du sommeil dans la maladie mentale ne se résument pas à ne pas pouvoir dormir à une heure appropriée, mais sont un facteur qui exacerbe ou cause de sérieux problèmes de santé.

Comprendre la nature des troubles du sommeil dans la maladie mentale, et développer des thérapies basées sur des preuves factuelles en utilisant des thérapies comportementales cognitives, des expositions à la lumière chronométrées de façon appropriée ainsi que quelques nouvelles substances prometteuses pour stabiliser les rythmes circadiens est un objectif majeur du travail actuellement mené à Oxford.

Il est temps que nous commencions à prendre au sérieux l’importance du sommeil dans tous les secteurs de la société, et particulièrement dans la maladie mentale.

Traiter les problèmes de sommeil dans la maladie mentale n’améliorera pas seulement la santé et la qualité de vie d’un nombre incalculable de personnes et de leur personnel soignant, cela aura aussi un impact massif sur l'économie de la santé.

Auteur : Russell FOSTER          Professor of Circadian Neuroscience , University of Oxford

source : https://theconversation.com/why-sleep-could-be-the-key-to-tackling-mental-illness-50102

Photo de Jey