Tous les articles par Sÿndaô

Comment la canicule détraque notre sommeil

Les fortes chaleurs déstabilisent l’équilibre délicat entre sommeil et température corporelle. Shutterstock

Ron Grunstein, University of Sydney

La canicule s’apprête à s’abattre sur la France, avec des températures approchant les 40 °C. Par une telle chaleur, trouver le sommeil peut se révéler extrêmement difficile.

Car le sommeil et la thermorégulation corporelle sont intimement liés. La température du corps suit en effet un cycle de 24 heures lié au rythme d’alternance entre sommeil et éveil. En théorie, le corps se refroidit pendant la phase où l’on dort et se réchauffe lorsque l’on est éveillé. Le sommeil nous vient plus facilement quand la température du corps décroît, et peine davantage à s’imposer lorsqu’elle augmente.

Nos mains et nos pieds jouent un rôle clé pour aider au sommeil. Ils permettent au sang chauffé du centre du corps de se refroidir par le contact de la peau avec l’environnement extérieur. L’hormone du sommeil, dite mélatonine, participe aussi largement à cette complexe perte de chaleur, à travers les parties périphériques du corps.

En début de nuit, la température corporelle diminue, mais la température périphérique de la peau augmente. Ces variations se complexifient ensuite au cours de la nuit, car notre autorégulation de la température varie selon le stade du sommeil.

Les cycles de sommeil perturbés

Des recherches ont montré combien la chaleur extérieure peut perturber cet équilibre délicat entre sommeil et température corporelle.

L’idéal est une température ambiante de 22 ou 23 °C. Toute variation importante par rapport à cette référence engendre des perturbations du sommeil : le sommeil lent, au cours duquel l’activité électrique du cerveau ralentit et le cerveau « se repose », est restreint, et la phase de rêve – ou sommeil paradoxal – est elle aussi raccourcie.

Au cours du sommeil paradoxal en effet, notre capacité à réguler la température du corps est affaiblie, donc en cas de froid ou de chaleur extrême, le corps comprend qu’il vaut mieux « sauter » cette étape. Une vague de chaleur peut ainsi provoquer plusieurs nuits de sommeil fragmenté. D’où la sensation bien justifiée d’avoir mal dormi et de ne pas se sentir reposé à ces périodes, ce qui peut affecter négativement notre attention et notre humeur.

En théorie, le phénomène peut aussi avoir des effets plus subtils, tels que des problèmes de mémorisation, un jugement altéré (une capacité de décision affaiblie et des comportements à risques), ou sur le contrôle de la tension artérielle et la régulation du glucose dans le corps. Bref, si vous devez prendre d’importantes décisions en période de canicule, dormez dans un environnement bien climatisé.

Dormir sur le côté, prendre une douche

En dehors de l’air conditionné, quelles solutions pour mieux dormir pendant une vague de chaleur ? S’allonger en position latérale pour minimiser le contact avec le matelas peut être une solution, vers laquelle le corps tendra de toute façon naturellement pendant votre sommeil, en réponse à la hausse des températures.

Rafraîchir le milieu du corps avec un vêtement mouillé ou une serviette, ou prendre une douche fraîche peut également aider. Il est en tout cas essentiel d’éviter de s’agiter trop dans les heures précédant votre coucher car cela compliquera d’autant plus la baisse de la température corporelle.


Cet article a été traduit de l’anglais par Nolwenn Jaumouillé.

Ron Grunstein, Professor of Sleep Medicine and NHMRC Practitioner Fellow, Woolcock Institute of Medical Research, University of Sydney

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.


Ondes et autres histoires ondulatoires

File 20181105 83638 1mr2kz3.jpg?ixlib=rb 1.1
Claude Monet, Nymphéas avec reflet de hautes herbes. Claude Monet

Viviane Lalande, Polytechnique Montréal

Nous publions ici un extrait de l’ouvrage « Le monde a des racines carrées » qui paraît ce jour aux Éditions de l’Homme.


L’entrechoc des trous noirs

Il y a des voisins dont on se passerait bien volontiers et d’autres que l’on cherche, au contraire, désespérément à joindre. À un point tel que l’on construit des machines extrêmement complexes pour détecter leur présence. Ces voisins ne sont pas humains, ils se trouvent à des milliards d’années-lumière de nous et ils détiennent des informations primordiales sur l’origine de notre univers. De quoi nous donner envie de les écouter avec une extrême attention…

Rainer Weiss, Barry C. Barish et Kip S. Thorne sont les prix Nobel de physique 2017. Ces trois physiciens sont à l’origine de la mesure des ondes gravitationnelles dont la notion avait été théorisée il y a plus d’un siècle par l’illustre Albert Einstein. Tout comme les ondes sonores ou électromagnétiques, les ondes gravitationnelles sont des déplacements d’énergie, mais qui se font par le biais de déformations du milieu dans lequel baignent tous les astres : l’espace-temps.

Illustrons ce que sont ces ondes par un exemple simple. Lorsque nous nous asseyons sur un canapé, nous déformons le coussin qui nous supporte du fait de notre poids (certains moins que d’autres d’ailleurs). Que cela soit nous ou n’importe quel objet sur le canapé, chaque élément déforme le coussin de façon proportionnelle à sa masse. Par exemple, un téléphone induit une déformation quasi imperceptible (à moins que l’on parle d’un téléphone fixe des années 1930…). Elle est si faible que, si celui-ci se trouve à proximité de nous, il glissera vers notre fessier. Dans cette analogie, nous représentons une étoile ou un trou noir, le canapé représente l’espace-temps, sa déformation représente la gravité de notre fessier ou du téléphone et le téléphone correspond à n’importe quel autre objet céleste moins massif (tel qu’une planète, des débris, une petite étoile).

Maintenant, si, au lieu de nous asseoir, nous nous laissons tomber sur le canapé, cette fois-ci le téléphone sera propulsé dans les airs… alors même que nous ne l’avions pas touché en tombant. Le contact de notre fessier avec le canapé a été si vif qu’il a créé une onde qui s’est propagée dans le canapé et que le téléphone a ressentie. Les ondes gravitationnelles sont similaires à nos ondes de canapé, à la différence près qu’elles ne proviennent pas d’un fessier, mais d’un événement intense et soudain impliquant un ou plusieurs objets massifs célestes – par exemple une étoile qui implose, deux trous noirs qui entrent en collision… Les ondes qui en résultent voyagent dans l’espace-temps jusqu’à ce que nous en captions les ondulations sur Terre, comme le téléphone sur le canapé, à la différence près que ces ondes sont tellement lointaines qu’elles sont devenues à peine perceptibles sur notre planète !

Interférences

Pour mesurer de telles oscillations, des appareils immenses appelés interféromètres ont été installés dans les États de Washington et de Louisiane, aux États-Unis, mais aussi en Europe. Bien que les détections qu’ils permettent soient l’objet d’une collaboration internationale, nous nous focaliserons ici sur les détecteurs localisés en Amérique du Nord, les premiers à avoir détecté la toute première onde gravitationnelle.

Les interféromètres mesurent des interférences. Ces dernières peuvent se représenter par le fait de jeter deux cailloux à une certaine distance l’un de l’autre, chacun produira des vagues dont la forme changera au moment de leur rencontre : elles interféreront. En regardant simplement les interférences des ondes, on peut déduire les propriétés des ondes à l’origine de celles-ci. Les interféromètres utilisés pour les ondes gravitationnelles sont composés de deux lasers de 4 km de long, perpendiculaires, qui interfèrent optiquement entre eux. Sur une telle distance, si l’espace-temps est déformé, l’onde lumineuse du laser le sera aussi et on pourra voir un nouveau diagramme ­d’interférence dans l’appareil de mesure. « Voir » est un bien grand terme, car le déplacement qui a été observé est minuscule : de l’ordre d’un millième du diamètre d’un proton (10-18 m).

Toutes les mesures sont effectuées simultanément par les interféromètres de Washington et de Louisiane. En ayant deux appareils de mesure aussi éloignés l’un de l’autre, on s’assure que les vibrations mesurées proviennent bien d’une source extraterrestre et non d’un séisme local ou simplement de la circulation routière. Car les vibrations, ce n’est pas ce qui manque autour de nous. En permanence, les capteurs détectent les tremblements terriens (le passage d’un avion, des mouvements géologiques, etc.) et cosmiques. Tout se confond, les ondes se mélangent. Il y en a tellement que c’est une cacophonie ! Même si ces oscillations ne sont pas sonores, c’est ce que l’on appelle du bruit : des informations de vibration qui se confondent et qui, a priori, ne nous intéressent pas.

Un signal se distingue du bruit par son intensité, qui est beaucoup plus forte. La notion de rapport signal/bruit est cruciale. Quand, par exemple, vous êtes dans une foule avec un brouhaha ambiant et que, subitement, vous vous retournez parce que quelqu’un commence à parler au micro, c’est parce que le rapport signal/bruit vous a permis de détecter qu’il y avait un son beaucoup plus fort (et sans doute plus important) que le reste. Mais comme vos cris vains pour attirer de loin l’attention de quelqu’un dans une foule bruyante, les signaux à détecter se fondent parfois dans la cacophonie ambiante, ce qui complique la tâche des scientifiques pour les détecter.

Le 14 septembre 2015 à 4 h du matin, alors que les détecteurs étaient en phase finale de test, un signal beaucoup plus fort que les autres et d’une durée de 0,15 seconde est apparu sur les instruments de mesure. C’était le premier signal d’une onde gravitationnelle. Un signal d’onde pareil, visible à l’œil nu (ce qui est exceptionnel), correspondait forcément à un événement cosmique majeur.

Les ondes captées, gravitationnelles, sonores ou lumineuses, se définissent ainsi : la fréquence représente le nombre de fois que l’onde réalise un cycle complet en une seconde (son unité de mesure est le Hertz, noté Hz). La longueur d’onde représente la distance (en mètres) entre deux pics de l’onde et la période représente le temps qu’il faut à l’onde pour faire un cycle complet. L’amplitude représente à quel point l’onde est forte (son unité est le décibel pour le son, le mètre pour des vagues, le lux pour de la lumière, etc.). Enfin, la phase représente le point de départ de l’onde. Viviane Lalande, Author provided

À partir du signal détecté, on dispose de deux types d’information : la fréquence et l’amplitude des ondes. C’est tout. Avec si peu, il est impossible de deviner quel événement est à l’origine de l’émission de ces ondes. Il faut alors avoir recours à des modèles numériques. Par exemple, sachant comment se forme un trou noir, les physiciens simulent informatiquement, selon tous les scénarios imaginables, ce à quoi pourrait ressembler une onde gravitationnelle résultant de la formation d’un trou noir que l’on capterait sur Terre. Ils ont ainsi construit numériquement une bibliothèque de signaux d’ondes gravitationnelles qu’ils comparent avec les mesures qu’ils prennent. Quand cette comparaison est positive, ils savent que leur simulation est représentative de la réalité.

Ondulation de l’espace-temps

Après de longues analyses, les chercheurs ont découvert que cette ondulation de l’espace-temps résultait de la fusion, appelée coalescence, d’un trou noir de 29 masses solaires avec un autre de 36 masses solaires. Ce fut un choc dans le monde de l’astrophysique. Comme les physiciens n’avaient pas prévu l’existence d’aussi gros trous noirs, peu de simulations comparatives étaient disponibles. Ils ont donc dû enrichir leur bibliothèque d’ondes pour trouver quel avait été le scénario originel.

La fusion qui a été captée a donné lieu à un trou noir énorme de 62 masses solaires. Or, si l’on additionne les masses des deux trous noirs, 29 + 36, on obtient 65 et non 62. La conservation de la masse et de l’énergie (voir chapitre 8 du livre) s’applique également à des « objets » aussi étranges que les trous noirs. Les trois masses solaires manquantes ne peuvent pas avoir disparu : elles correspondent à l’énergie qui s’est dissipée sous forme d’ondes gravitationnelles pour parvenir sur Terre, 1,3 milliard d’années plus tard. Les ondes captées avaient des fréquences entre 30 et 500 Hz, ce qui correspond à des fréquences qui, une fois converties en ondes sonores, sont audibles pour nous, humains. Les chercheurs ont alors réalisé cette conversion : au lieu de faire osciller l’espace-temps, ils ont fait vibrer une membrane de haut-parleur à la même fréquence que les ondes détectées. Le tout peut s’écouter sur Internet, je vous le recommande. Ce que vous entendrez, c’est l’équivalent d’une vague de l’espace-temps qui a voyagé pendant 1,3 milliard d’années, à travers l’espace. Quand elles ont été émises, l’Homme n’existait pas encore…

Mais revenons aux ondes. Non seulement la détection elle-même était un événement scientifique majeur qui a soulevé de nouvelles questions, mais la nature de la détection constituait elle aussi une grande avancée dans la compréhension de la formation des trous noirs et de la composition de l’univers au moment de leur formation. Les trous noirs se forment à partir d’une très grosse étoile. Au cours de sa vie, l’étoile n’est pas inerte et elle produit des « vents ». Nos vents terrestres sont composés d’air et restent autour de notre planète. Mais les vents stellaires, eux, sont composés de matière provenant de l’étoile et s’échappent de celle-ci, comme si elle s’effritait avec le temps. Ainsi, à la fin de sa vie, quand elle se prépare à s’effondrer sur elle-même pour devenir un trou noir, elle aura beaucoup minci par rapport à ses origines et ne présentera plus qu’un certain pourcentage de sa masse originale.

Lorsque les physiciens lèvent les yeux au ciel et font des prédictions, ils se basent sur la composition de l’univers qu’ils connaissent, celle d’aujourd’hui : « Avec un univers tel que celui que nous connaissons, une étoile composée de tels éléments peut faire telle masse ; au bout de X années, elle se transformera en un trou noir qui aura une taille entre Y et Z. » Même si ce raisonnement est extrêmement simplifié, il illustre bien que la prédiction de la taille des trous noirs part de la connaissance des éléments qui composent actuellement notre univers.

Les trous noirs détectés le 14 septembre 2015 sont beaucoup trop gros par rapport aux prédictions qui avaient cours jusque-là. Cela veut donc dire que l’univers avait une composition très différente lors de leur formation, il y a 4 à 8 milliards d’années. Voilà une découverte qui a de quoi chambouler le monde de l’astrophysique !

Le monde a des racines carrées. Éditions de l’Homme, Author provided

Ondes fascinantes

Les ondes sont, pour moi, un des sujets les plus fascinants de la physique. Nous sommes bercés et émotionnellement touchés par la musique, cette collection de fréquences bien agencées. Nous nous réchauffons auprès d’un feu émetteur de précieuses ondes infrarouges, nous mangeons des plats réchauffés au micro-ondes et racontons à nos amis, via notre réseau d’ondes téléphoniques, comment nous avons joué dans les grandes ondes mécaniques que sont les vagues de la mer. Nous nous divertissons devant la télé (ou YouTube) et transmettons notre savoir de génération en génération en faisant osciller nos cordes vocales. Nous nous émerveillons devant les couleurs vives d’un champ de coquelicots et sommes rebutés par un choix vestimentaire douteux, lorsque les ondes du spectre visible ne sont pas assemblées à notre goût. Les médecins nous auscultent avec leur stéthoscope qui capte les vibrations du sang dans nos veines, ils nous font passer des examens médicaux avec des rayons X ou bien écoutent le futur bébé avec des ultrasons, alors que ce même bébé se rassure avec les battements du cœur et la voix de sa mère. Nous rentrons chez nous grâce au GPS qui nous guide depuis l’espace, lui-même scruté par les astrophysiciens à l’écoute des ondulations de l’espace-temps pour, simplement, comprendre l’origine de l’univers…

Viviane Lalande, Doctorante en génie mécanique à Polytechnique Montréal, animatrice de la chaîne de vulgarisation Scilabus , Polytechnique Montréal

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

La Semaine du son – Janvier 2019

OUVERTURE DE LA SEMAINE DU SON à PARIS le 21 janvier au Ministère de la Santé : Les thérapies fondées sur le sonore dans l'amélioration du bien-être des patients.

Il s'agissait d'une soirée -débat -Table ronde animée par Michel Alberganti avec plusieurs intervenants.

Pour ceux et celles qui n'ont pas pu venir ou se déplacer, nous insérons ici :

l' Allocution

Ecoute d'un diapason via le micro

Je vais vous présenter la spécificité de notre pratique :

Celle-ci est double :

Nous pratiquons une thérapie par le son puisque nous utilisons une composante solidienne du son vectorisé par un diapason. 

Notre pratique s'appuie sur la Chronophysiologie du corps humain que Jean-Claude Ameisen décrit dans son livre les « battements du temps ».

Cela veut dire quoi ?

Nous les humains, comme tous les animaux, nous sommes représentés comme un système d’auto-organisation en adaptation permanente avec notre environnement. Notre corps s’adapte toutes les 24 heures au fait que la terre se présente face au soleil et à sa lumière : Celui-ci est donc rythmé périodiquement.

  • Les chercheurs en chronobiologie ont mis en évidence l'existence d'une horloge centrale située dans notre cerveau, d'horloges périphériques dans chacun de nos organes et de CLOCKGENES(ou gènes d’horloge) au niveau de l'ADN. Ce qui signifie qu'au cours de l’évolution de l’humanité, nous avons intégré des fonctions temporelles à tous les niveaux de notre organisme.
  • Par ailleurs, Ils ont associé les notions de rythme biologique et d’oscillation. Pour eux, nous sommes des systèmes oscillatoires.
  • Pour faire référence à tous ces mécanismes, le sociologue Hartmut Rosa a développé la notion de "Fréquence Temporelle".

Voici 2 minuscules structures qui battent la mesure dans notre cerveau à notre insu.  Il s’agit des 2 noyaux supra-chiasmatiques, chef d’orchestre du corps humain. Cette vidéo en accéléré est issue du laboratoire San Diego. (NSC de souris)

Avec l’oscillation mécanique d’un son sobre voire monochromatique issu d’un diapason, nous travaillons via notre structure organique sur nos fonctions temporelles, c’est à dire sur les pulsations rythmiques qui oscillent en nous en permanence.

Pourquoi en avons-nous besoin ?

Depuis plus d'un siècle environ les humains se sont affranchis du tempo jour-nuit, perdant ainsi l'effet stabilisateur de 2 synchronisateurs périphériques puissants que sont la prise de repas et le sommeil à heure fixe. En cessant de nous soumettre, petit à petit, à nos propres rythmes physiologiques, nous nous créons des décalages de phases. Aujourd’hui, l’accélération des rythmes de nos sociétés est devenue telle que certains doivent même vivre à l’encontre de leurs rythmes biologiques : les travailleurs postés.

Ÿ  Quand le décalage de phase devient pérenne notre système d’auto-organisation en pâtit. En effet, notre système nerveux autonome est sous ou sur-stimulé et finit par se déréguler. Nous parlons alors de désynchronisation.

Plus les décalages de phases sont importants et plus le corps humain est désaccordé, voire en cacophonie dit le Dr Gronfier.

Comment cela peut-il marcher ?

L’oscillation d’un diapason, selon sa fréquence mécanique hertzienne, possède pourrait-on dire un tempo, une mesure, un rythme. En appliquant un diapason sur le corps humain nous donnons une information rythmique qui aide le système d’autorégulation à retrouver sa " Fréquence Temporelle ". Nous parlons alors de synchronisation des rythmes biologiques.

Pour que l'information soit la plus sobre (moins parasitée) possible, nous choisissons un seul type d’oscillation et donc un seul diapason au cours d’une même séance. Ici, je fais référence à la théorie de Shannon (il y a un donneur, un message et un récepteur)le message passe mieux jusqu’au récepteur, s'il y a le moins de bruitage possible. L’application du diapason sur une zone sera répétée autant de fois que nécessaire jusqu’à mettre tous les rythmes biologiques en phase tout en faisant attention à ne pas saturer les tissus.

https://www.lasemaineduson.org/les-therapies-par-le-son

Christian Hugonnet et Michel Alberganti

Comment les horloges moléculaires donnent l’heure de l’espèce humaine

File 20180117 53292 p3l2hq.jpg?ixlib=rb 1.1
Il y avait une fois la naissance de l’Homo sapiens
Milan Nykodym/Flickr, CC BY

Les mutations génétiques se font en rythme

L’ADN est le support de notre histoire familiale et plus largement de l’histoire de l’évolution de notre espèce : comment sommes-nous liés à nos parents non-humains chimpanzés ; comment Homo sapiens a rencontré les Néandertaliens ; et comment les gens ont migré hors d’Afrique, s’adaptant à de nouveaux environnements et modes de vie au long de la route. Notre ADN contient également des indices sur le calendrier de ces événements clés dans l’évolution humaine.

Quand les scientifiques disent que les humains modernes ont émergé en Afrique il y a environ 200 000 ans et ont commencé leur expansion mondiale il y a environ 60 000 ans : comment estiment-ils ces dates ?

Traditionnellement, les chercheurs construisaient des chronologies de la préhistoire humaine en se basant sur des fossiles et des artefacts, qui peuvent être directement datés avec des méthodes telles que [ la datation par le Carbone 14 et la datation au potassium-argon. Cependant, ces méthodes nécessitent des vestiges antiques dans certaines conditions de conservation, ce qui n’est pas toujours le cas. De plus, des fossiles ou des artefacts pertinents n’ont pas été découverts pour décrire tous les jalons de l’évolution humaine.

L’analyse de l’ADN des génomes actuels et anciens fournit une approche complémentaire pour la datation des événements de l’évolution. Certains changements génétiques se produisent à un rythme constant par génération, ils fournissent ainsi une estimation du temps qui passe : une horloge moléculaire en somme. En comparant les séquences d’ADN, les généticiens peuvent non seulement reconstituer les relations entre différentes populations ou espèces, mais également déduire l’histoire de l’évolution sur des échelles très grandes.

Grâce à des techniques de séquençage d’ADN plus sophistiqués et à une meilleure compréhension des processus biologiques à l’origine des changements génétiques, les horloges moléculaires deviennent de plus en plus précises. En appliquant ces méthodes à des bases de données ADN toujours plus riches de diverses populations (d’aujourd’hui et du passé), les généticiens aident à construire une chronologie plus précise de l’évolution humaine.

ADN et mutations

Les horloges moléculaires sont basées sur deux processus biologiques clés qui sont la source de toute variation héréditaire : la mutation et la recombinaison.

Les mutations sont des changements dans le code de l’ADN, comme quand une base (nucléotide) : A, T, C ou G sont remplacés par une autre par erreur.
Shutterstock

Les mutations sont des changements dans les lettres du code génétique de l’ADN – par exemple, un nucléotide guanine (G) devient une thymine (T). Ces changements seront hérités par les générations futures s’ils se produisent dans les cellules œufs issues de la fusion d’un spermatozoïde et d’un ovule. La plupart résultent d’erreurs commises lorsque l’ADN se copie au cours de la division cellulaire, bien que d’autres types de mutations surviennent spontanément ou à la suite de facteurs de risques tels que les radiations et les produits chimiques : des agents mutagènes.

Dans un génome humain, il y a environ 70 changements de nucléotides par génération – une paille quand l’on sait que notre génome est composé de six milliards de lettres. Mais globalement, sur plusieurs générations, ces changements entraînent une variation évolutive substantielle.

Les scientifiques peuvent utiliser les mutations pour estimer le moment où se créent des branches dans notre arbre évolutif, soit la différenciation entre deux espèces. D’abord, ils comparent les séquences d’ADN de deux individus ou espèces, en comptant les différences neutres qui ne modifient pas les chances de survie et de reproduction d’une personne. Puis, connaissant le taux de ces changements, ils peuvent calculer le temps nécessaire pour accumuler autant de différences.

La comparaison de l’ADN entre vous et votre fratrie montrerait relativement peu de différences mutations parce que vous partagiez des ancêtres – maman et papa – il y a seulement une génération. Cependant, il existe des millions de différences entre les humains et les chimpanzés : notre dernier ancêtre commun aurait vécu il y a plus de six millions d’années.

Des fragments des chromosomes de votre mère et de votre père se recombinent avant de vous être transmis.
Chromosomes image via Shutterstock.

La recombinaison, également connue sous le nom de crossing-over, est l’autre principale façon avec laquelle l’ADN accumule les changements dans le temps. Il conduit à un brassage des deux copies du génome (une de chaque parent), qui sont regroupées en chromosomes. Au cours de la recombinaison, les chromosomes correspondants (homologues) s’alignent et échangent des segments, de sorte que le génome que vous transmettez à vos enfants est une mosaïque de l’ADN de vos parents.

Chez les humains, environ 36 événements de recombinaison se produisent chaque génération, un ou deux par chromosome. Comme cela se produit à chaque génération, les segments hérités d’un individu particulier se brisent en morceaux de plus en plus petits. Les généticiens peuvent donc se baser sur la taille de ces morceaux et la fréquence des croisements pour estimer à quel moment de l’histoire deux individus ont partagé un ancêtre commun.

Le flux de gènes entre des populations divergentes conduit à des chromosomes avec une ascendance en mosaïque. Comme la recombinaison se produit à chaque génération, les morceaux d’ascendance néandertalienne dans les génomes humains modernes deviennent de plus en plus petits au fil du temps.
Bridget Alex, CC BY-ND

Construire une frise chronologique avec des mutations

Les changements génétiques issus de la mutation et de la recombinaison fournissent deux horloges distinctes, chacune adaptée à la datation de différents événements évolutifs et échelles de temps.

Les mutations s’accumulent très lentement donc cette horloge fonctionne mieux pour les événements très anciens, comme pour les différenciations entre espèces. D’autre part, l’horloge de recombinaison est utile pour dater des évènements ayant eu lieu ces 100 000 dernières années. Ces événements « récents » (en temps évolutif) incluent le flux de gènes entre des populations humaines distinctes, la montée d’adaptations bénéfiques ou l’émergence de maladies génétiques.

Le cas des Néandertaliens illustre bien comment les horloges de mutation et de recombinaison peuvent être utilisées ensemble pour nous aider à démêler des relations ancestrales complexes. Les généticiens estiment qu’il existe entre 1,5 et 2 millions de différences de mutation entre les Néandertaliens et les humains modernes. L’application de l’horloge de mutation à ce compte suggère que les groupes se sont séparés initialement il y a 750 000 à 550 000 ans.

À cette époque, une population – les ancêtres communs des deux groupes humains – s’est séparée géographiquement et génétiquement. Quelques individus du groupe ont migré vers l’Eurasie et au fil du temps ont évolué en Néandertaliens. Ceux qui sont restés en Afrique sont devenus des humains anatomiquement modernes.

Un arbre phylogénétique affiche les dates de divergence et de croisement que les chercheurs ont estimées avec des méthodes d’horloge moléculaire pour ces groupes.
Bridget Alex, CC BY-ND

Cependant, leurs interactions n’étaient pas terminées : les humains modernes ont finalement colonisé l’Eurasie et se sont accouplés avec des Néandertaliens. En appliquant l’horloge de recombinaison à l’ADN néandertalien conservé chez les humains actuels, les chercheurs estiment que les groupes se sont croisés entre 54 000 et 40 000 ans. Lorsque les scientifiques ont analysé un fossile d’Homo sapiens, connu sous le nom d’Oase 1, ayant vécu il y a environ 40 000 ans, ils ont trouvé de grandes régions d’ascendance néandertalienne dans le génome d’Oase 1, suggérant que Oase 1 avait un ancêtre néandertalien il y a seulement quatre ou six générations. En d’autres termes, l’arrière-arrière-grand-parent d’Oase 1 était un néandertalien.

Comparaison du chromosome 6 du fossile Oase vieux de 40 000 ans à un humain d’aujourd’hui. Les bandes bleues représentent des segments d’ADN de Néandertal issus de croisements antérieurs. Les segments d’Oase sont plus longs parce qu’il a eu un ancêtre néandertalien juste 4-6 générations avant qu’il ait vécu, basé sur des estimations utilisant l’horloge de recombinaison.
Bridget Alex, CC BY-ND

Des horloges instables

Les horloges moléculaires sont un pilier des calculs évolutifs, non seulement pour les humains mais pour toutes les formes d’organismes vivants. Mais il existe des facteurs rendant complexes les estimations.

Le principal défi provient du fait que les taux de mutation et de recombinaison ne sont pas restés constants au fil de l’évolution humaine. Les taux eux-mêmes évoluent, ils varient donc avec le temps et peuvent différer entre les espèces et même entre les populations humaines. C’est comme si l’on essayait de mesurer le temps avec une horloge qui tourne à différentes vitesses dans différentes conditions.

Un problème concerne un gène appelé Prdm9, qui détermine l’emplacement des cross-overs de l’ADN. Il a été montré que la modification des endroits de l’ADN où ont lieu les recombinaisons est due à la variation de ce gène, et cela chez les humains, les chimpanzés et les souris. En raison de l’évolution de Prdm9, les taux de recombinaison diffèrent entre les humains et les chimpanzés, et peut-être aussi entre les Africains et les Européens. Cela implique que sur des échelles de temps et des populations différentes, l’horloge de recombinaison varie légèrement à mesure que les zones de recombinaisons évoluent.

L’autre problème est que les taux de mutation varient selon le sexe et l’âge. À mesure que les pères vieillissent, ils transmettent quelques mutations supplémentaires à leur progéniture. Le sperme des pères plus âgés a subi plus de cycles de division cellulaire, donc plus de possibilités de mutations. Les mères transmettent moins de mutations (environ 0,25 par an), car les ovules d’une femelle sont formés globalement en même temps, avant sa propre naissance.

Les taux de mutation dépendent également de facteurs tels que le début de la puberté, l’âge à la reproduction et le taux de production de spermatozoïdes. Ces facteurs de vie varient chez les primates vivants et ont probablement aussi différé entre les espèces éteintes des ancêtres humains.

Par conséquent, au cours de l’évolution humaine, le taux de mutation moyen semble avoir considérablement ralenti. Le taux moyen sur des millions d’années depuis la séparation des humains et des chimpanzés a été estimé à environ 1 x10⁻⁹ mutations par site et par an – soit environ six lettres d’ADN modifiées par an.

Ce taux est déterminé en divisant le nombre de différences de nucléotides entre les humains et les autres singes par la date de leurs divisions évolutives, déduite à partir de fossiles. Mais lorsque les généticiens mesurent directement les différences nucléotidiques entre parents vivants et enfants, le taux de mutation est moitié moins important : environ 0,5x10⁻⁹ par site et par an, soit seulement environ trois mutations par an.

Pour la divergence entre les Néandertaliens et les humains modernes, le taux le plus lent fournit une estimation entre 765 000 à 550 000 ans. Le taux le plus rapide, cependant, suggérerait la moitié de cet âge : 380 000 à 275 000 ans.

Pour savoir quel taux utiliser, les chercheurs ont développé de nouvelles méthodes d’horloges moléculaires, qui répondent aux défis de l’évolution des taux de mutation et de recombinaison.

Une meilleure horloge

Une approche consiste à se concentrer sur les mutations qui surviennent à un rythme constant, indépendamment du sexe, de l’âge et de l’espèce. Cela peut être le cas pour un type particulier de mutation que les généticiens appellent les transitions CpG par lesquelles les nucléotides C deviennent spontanément des T. Les transitions CpG ne résultent généralement pas d’erreurs de copie d’ADN pendant la division cellulaire, leurs taux devraient ainsi être plus uniformes dans le temps.

En se concentrant sur les transitions CpG, les généticiens ont récemment estimé que la fracture entre les humains et les chimpanzés s’était produite entre 9,3 et 6,5 millions d’années, ce qui concorde avec l’âge attendu des fossiles. Même si ces mutations semblent se comporter plus comme une horloge, elles ne sont toujours pas complètement stables.

Une autre approche consiste à développer des modèles qui ajustent les rythmes d’horloge moléculaire en fonction du sexe et d’autres facteurs de la vie. En utilisant cette méthode, les chercheurs ont calculé une divergence chimpanzé-humain compatible avec l’estimation CpG et les dates des fossiles. L’inconvénient ici est que, en ce qui concerne les espèces ancestrales, nous ne pouvons pas être sûrs de certaines caractéristiques, comme l’âge à la puberté ou la durée de vie d’une génération, conduisant à une certaine incertitude dans les estimations.

La solution la plus directe provient des analyses de l’ADN ancien récupéré des fossiles. Les spécimens fossiles sont indépendamment datés par des méthodes géologiques, les généticiens peuvent alors les utiliser pour calibrer les horloges moléculaires pour une période donnée ou une population.

Cette stratégie a récemment résolu le débat sur le moment de notre divergence avec les Néandertaliens. En 2016, des généticiens ont extrait de l’ADN ancien de fossiles de 430 000 ans, ancêtres de Néandertal, après que leur lignée a été séparée de l’Homo sapiens. Sachant où ces fossiles se situent sur l’arbre de l’évolution, les généticiens pourraient confirmer que pour cette période de l’évolution humaine, le taux d’horloge moléculaire plus lent de 0,5 x 10⁻⁹ fournit des dates précises. Cela place la fracture entre 765 000 et 550 000 ans.

The ConversationÀ mesure que les généticiens comprennent les subtilités des horloges moléculaires et séquencent toujours plus de génomes, ils sont prêts à comprendre l’évolution humaine, directement à partir de notre ADN.

Bridget Alex, Postdoctoral College Fellow, Department of Human Evolutionary Biology, Harvard University et Priya Moorjani, Postdoctoral Research Fellow in Biological Sciences, Columbia University

La version originale de cet article a été publiée sur The Conversation.

Cerveau, musique et jeux de lumière

File 20180531 69497 e40ktn.jpg?ixlib=rb 1.1
Aux Nuits Sonores, édition 2018.  Facebook / Brice Robert

Fabien Dworczak, Université Lumière Lyon 2

À un an d’élections européennes qui s’annoncent cruciales, la 8e édition du forum European Lab de Lyon a réuni 2 500 personnes et 130 intervenants en provenance de 25 pays sur le thème « Europe, l’utopie c’est maintenant ».

Associées à European Lab, les Nuits sonores, associant musique et jeux de lumière, ont        « musicalisé » ces débats.

Contenu non disponible.
veuillez accepter les cookies sur la bannière, s'il vous plaît

Les liens entre musique et cerveau

Étudier et comprendre les liens entre musique et cerveau pourrait permettre de saisir l’impact des expériences et des apprentissages sur le cerveau et également tenter d’expliquer quels sont les mécanismes qui permettent à la musique d’être thérapeutique ou pédagogique.

Les observations cliniques en neurologie ont suggéré, dès la fin du XIXe siècle, que notre cerveau présentait une réponse singulière à la musique, notamment au regard des capacités liées au langage.

C’est à la fin du XXe siècle, avec la révolution de l’imagerie cérébrale, que les études des effets de l’écoute et de la pratique musicale ont pris soudain une autre dimension.

On s’est alors demandé, entre autres, si l’apprentissage de la musique pouvait avoir des effets collatéraux sur d’autres fonctions cognitives, en particulier la mémoire ou le langage, ou bien encore les fonctions cognitives d’apprentissage scolaire.

Pour Hervé Platel :

« Écouter une œuvre musicale crée dans le cerveau une “symphonie neuronale” qui met en jeu les quatre lobes cérébraux, le cervelet ou encore l’hippocampe, surtout connu pour son rôle dans la mémoire. »

Il ajoute également :

« La musique serait donc bien une forme d’expression particulière de notre intelligence qui trouverait sa source dans le besoin de notre cerveau d’associer expériences sensorielles, motrices et émotionnelles, que ce soit pour une visée purement hédonique ou pour un objectif de création.

Et la musique serait, donc, assurément, un stimulant cognitif et cérébral. »_

Contenu non disponible.
veuillez accepter les cookies sur la bannière, s'il vous plaît

Mémoire de la lumière

Quant aux jeux de lumière, associés à la musique (électro dans le cadre des Nuits sonores), des chercheurs (Unité Inserm 846, Cellules Souches et Cerveau et Centre de Recherche du Cyclotron de l’Université de Liège, Belgique), ont montré qu’il existait une sorte de mémoire de la lumière (mémoire photique). Ce nouveau type de cellule sensible à la lumière dans l’œil (photorécepteur), appelé mélanopsine serait impliqué dans la transmission de l’information lumineuse vers de nombreux centres du cerveau dits « non-visuels », notamment l’horloge biologique. La mélanopsine présente in vivo des propriétés remarquables qui lui permettent, notamment, de maintenir une réponse constante face à une exposition lumineuse constante. On peut rappeler que la découverte chez l’homme, il y a 10 ans, de ce nouveau photopigment a été une surprise au sein de la communauté scientifique.

Contenu non disponible.
veuillez accepter les cookies sur la bannière, s'il vous plaît

Grâce à l’imagerie par résonance magnétique fonctionnelle (IRMf), ces chercheurs ont pu observer les différentes régions du cerveau stimulées par la lumière lors de tests cognitifs. Ils ont pu reconnaître le rôle de la mélanopsine en fonction des réponses observées avec des sources différentes de lumière (orange, bleue ou verte).

Ces recherches ont pu montrer aussi que la lumière bleue est plus efficace pour stimuler l’activité cérébrale ; d’autres études, chez des personnes aveugles, ainsi que chez des personnes voyantes, pointent la mélanopsine comme médiateur principal des effets de la lumière sur l’activité cognitive cérébrale.

Contenu non disponible.
veuillez accepter les cookies sur la bannière, s'il vous plaît

Et les chercheurs de conclure que cette découverte plaiderait pour l’utilisation de systèmes lumineux qui optimiseraient les performances cognitives !

Les effets physiologiques de la musique ne se cantonneraient cependant pas à ce seul rôle de drogue douce mais peuvent avoir des répercussions réelles sur la plasticité anatomique et fonctionnelle du cerveau. Selon Fukui et Toyoshima (2008), la musique agirait au niveau cellulaire en favorisant la neurogénèse, la régénération et la réparation des neurones et circuits neuronaux via l’ajustement des sécrétions hormonales de type stéroïdes (comme le cortisol, la testostérone et l’œstrogène), qui sont par ailleurs reconnues comme jouant un rôle dans les processus de plasticité cérébrale.

The ConversationOn ne peut, donc, qu’inciter les apprenants de tous âges, les enfants d’âge scolaire en particulier, à participer à des chorales ou groupes musicaux pour développer leurs capacités cognitives… et si le « bleu » était là… !

Fabien Dworczak, PhD, chercheur associé neurosciences et éducation, Université Lumière Lyon 2
La version originale de cet article a été publiée sur The Conversation.

Comment l’environnement provoque des allergies avant même la naissance

File 20170602 18817 1a8lldc
Les pollens ne sont pas seuls en cause dans l'allergie – les polluants aériens émis par les véhicules jouent aussi un rôle clé. cenczi/Pixabay

Sabine Langie, Hasselt University

Et si cette saison était la pire de tous les temps pour les allergiques de l’hémisphère nord ? Les personnes souffrant du rhume des foins depuis longtemps comme celles qui découvrent tout juste son existence partagent le même sentiment : on voit plus d’allergies et d’allergènes aujourd’hui que jamais. Ainsi, la semaine en cours pourrait se révéler l'une des plus éprouvantes de l'année pour les personnes sensibles aux graminées, avec un niveau de risque « très élevé » – le maximum – dans presque tous les départements français, selon le Réseau national de surveillance aérobiologique.

De fait, les maladies allergiques sont en plein essor. Elles ont gagné en fréquence et en gravité au cours de la dernière décennie et constituent un problème de santé mondial. Selon la Fédération européenne des associations de patients allergiques et victimes de maladies respiratoires (EFA), 20 à 30 % de la population européenne souffrirait d’allergies respiratoires. Ces maladies peuvent se déclarer dès la petite enfance : 65 % des enfants sont touchés avant l’âge de 18 mois.

Le programme de recherche ISAAC, qui étudie l’asthme et les allergies chez l’enfant, rapporte que plus de 20 % des Européens sont allergiques aux allergènes présents dans l’air ou la nourriture avant la puberté. Bien que la prédisposition génétique constitue un facteur de risque important, j’ai étudié la manière dont l’environnement peut influer sur le risque de contracter une allergie respiratoire – ces travaux paraîtront dans un numéro spécial de la revue Mechanisms of Aging and Development consacré à l’épigénétique du vieillissement et du développement.

Les allergies pourraient commencer avant la naissance

Comme presque un Européen sur deux, vous souffrez peut-être d’une maladie allergique, et il se peut que celle-ci se soit déclarée quand vous étiez enfant. Et si son origine remontait plus loin encore ? Les causes de ces maladies sont en partie génétiques, mais les experts savent depuis un certain temps que ce que la future mère mange et respire peut avoir un impact sur son fœtus.

Au cours de la décennie écoulée, les scientifiques ont apporté de nouvelles preuves attestant l’existence d’un lien entre le régime alimentaire, le mode de vie de la femme enceinte et le futur état de santé de ses enfants.

Les conclusions récentes d’une étude de cohorte flamande (financée par les autorités et coordonnée par l’organisme scientifique VITO) ayant suivi des mères et leurs enfants de la grossesse à la naissance établissent une corrélation entre l’exposition prénatale aux polluants aériens émis par les véhicules – surtout du dioxyde d’azote (NO2) et des particules fines (PM10) détectées par des stations mesurant la qualité de l’air – et l’apparition des symptômes de l’asthme infantile ou de difficultés respiratoires chez des enfants de 3 ans. L’exposition prénatale à certaines substances chimiques peut donc avoir un impact sur le risque que court l’enfant de développer des allergies.

Le rôle des modifications « sur » votre ADN

Des études récentes indique qu’un mécanisme épigénétique, la méthylation de l’ADN, causé par certains facteurs environnementaux, explique peut-être ce lien entre les premières phases du développement et un risque accru de maladie plus tard dans la vie.

En quoi consistent ces modifications épigénétiques ? L’ADN, notre programme génétique, détermine notre apparence physique (aussi appelée phénotype). Mais les particularités dépendent de l’épigénétique, qui recouvre l’ensemble des modifications non génétiques intervenant « sur » les gènes, sans toutefois transformer la séquence d’ADN elle-même.

La méthylation de l’ADN désigne le mécanisme par lequel des groupes méthyles (CH3) sont ajoutés à l’ADN, ce qui affecte le comportement des gènes (la manière dont ils « s’expriment ») et donc, indirectement, notre phénotype.

L’addition de groupes méthyles à notre ADN peut modifier l’expression de nos gènes.
Sabine Langie/VITO, CC BY-ND

Ainsi, l’adoption par la future maman d’un régime alimentaire néfaste, ou son exposition à certains composés chimiques, en particulier durant les premières phases de la grossesse, peut altérer le processus de méthylation de l’ADN sur le génome du fœtus, activant certains gènes et en désactivant d’autres. Cela peut influer sur son risque de contracter une allergie.

La consommation régulière de fruits peut contribuer à réduire le risque asthmatique. Bill Ebbessen/Wikimedia, CC BY-ND

On a montré qu’un régime « moderne », dominé par des aliments transformés faibles en antioxydants mais riches en acides gras saturés, pouvait contribuer à rendre plus sensible aux allergies. En revanche, la consommation fréquente de fruits, de légumes et de poisson est corrélée à une moindre prévalence de l’asthme.

On a également établi qu’un régime intégrant des poissons à haute teneur en oméga 3 pouvait compenser la réaction pro-allergique. De plus, une application rigoureuse du régime méditerranéen dans les premières années de la vie semble protéger les enfants contre le développement d’allergies.

Heureusement, ces modifications épigénétiques sont, dans une certaine mesure, réversibles. Des études ont montré que les altérations se traduisant par un accroissement de la masse corporelle pouvaient être contrebalancées par un apport en nutriments essentiels riches en méthyle (comme la choline, la bétaïne et l’acide folique).

Cela dit, l’exposition extrême ou chronique à certains facteurs, en particulier durant la grossesse (sous-nutrition, suralimentation, exposition à certaines substances chimiques sur le lieu de travail) semble perturber les processus épigénétiques au point de laisser une « empreinte » sur le génome, susceptible d’être transmise à la génération suivante et donc d’accroître encore davantage les risques. Il est donc extrêmement important de sensibiliser le grand public à ces risques et de conseiller judicieusement les femmes enceintes, pour leur permettre d’offrir un avenir sain à leurs enfants et petits-enfants.

De nouveaux marqueurs épigénétiques pour détecter les allergies respiratoires

L’étude que j’ai réalisée au sein du VITO consistait à vérifier si l’exposition aux substances chimiques durant la grossesse et les premières années altérait les processus de méthylation de l’ADN de l’enfant (les sujets étaient âgés de 5 à 11 ans), affectant par là même son système immunitaire et ses risques allergiques.

Nous avons analysé des questionnaires et des échantillons de salive recueillis auprès de quelque 170 paires mère/enfant issues de deux cohortes de naissance différentes, originaires des Flandres (FLESH1 et FLESH2). En scannant, sur la totalité de leur génome, les processus de méthylation de l’ADN chez les enfants souffrant d’allergies respiratoires (rhume des foins, asthme, allergie aux acariens) et en les comparant à ceux des enfants non allergiques, nous avons mis au jour une liste de 27 gènes présentant un processus de méthylation altéré. Cette liste pourrait ainsi servir à diagnostiquer les allergies respiratoires.

Curieusement, nous avons relevé une corrélation entre l’altération des formes de méthylation au niveau de trois de ces gènes et l’exposition des mères enceintes (et des enfants avant leur onzième année) aux polluants aériens. Cela laisse à penser que ces altérations épigénétiques liées aux allergies pourraient résulter de cette exposition durant les premières années de la vie.

Comme les gènes en question jouent un rôle régulateur lors des crises allergiques, il peut être intéressant de les étudier en vue de mettre au point un système permettant de diagnostiquer à l’avance le risque allergique en scannant le génome. Si l’exposition aux substances chimiques et les altérations qu’elle provoque dans les formes de méthylation de l’ADN peuvent être détectées assez tôt, on peut envisager la mise au point de stratégies à différents niveaux permettant de prévenir cette exposition ou le risque de contracter une allergie, en particulier chez l’enfant. On pourrait alors conseiller le législateur dans le cadre d’une révision des normes encadrant la pollution aérienne, et apporter une meilleure information aux adultes qui souhaitent avoir des enfants.


Traduit de l’anglais par Arnaud Gancel pour Fast for Word.

The ConversationDécouvrez les travaux de Sabine Langie sur la programmation environnementale et nutritionnelle des allergies chez l’enfant dans le cadre de l’Axa Research Fund.

Sabine Langie, Postdoctoral fellow - Flemish Institute for Technological Research (VITO), Hasselt University

La version originale de cet article a été publiée sur The Conversation.

Vous connaissez le microbiote de l’intestin, que savez-vous de celui du nez ?

File 20170525 23234 1tgh3xr

La communauté microbienne présente dans notre nez pourrait-elle influencer nos choix alimentaires ? Dean Drobot/Shutterstock

Nicolas Meunier, INRA

Hommes ou femmes, jeunes ou vieux, nous sommes tous colonisés par un à deux kilos de micro-organismes. Ces bactéries, virus et champignons, présents à l’intérieur et à l’extérieur de notre corps, sont réunis sous un terme de plus en plus familier, le microbiote. La majorité d’entre eux se trouve dans notre intestin, mais on en trouve également sur toutes les surfaces du corps, incluant les alvéoles de nos poumons ainsi que nos muqueuses, dont celle du nez.

Les nombreuses études scientifiques consacrées au microbiote, champ de recherche en pleine ébullition, nous ont fait prendre conscience de son importance pour rester en bonne santé. On réalise aujourd’hui qu’il joue peut-être un rôle dans notre comportement vis-à-vis de nos semblables, qu’il influence notre odeur corporelle et même notre rapport à la nourriture. Si vous vous êtes passionné pour les découvertes portant sur le microbiote intestinal, alors vous serez étonné d’apprendre que l’on commence seulement à explorer l’influence du microbiote sur l’odorat.

L’influence du microbiote sur l’épithélium de l’intestin (couche de cellules tapissant la face interne de cet organe) a suscité un développement considérable de la recherche, depuis sa caractérisation génétique en 2006. Il est désormais largement admis que la flore intestinale est impliquée dans la plupart des grandes fonctions de l’organisme, de la régulation de la pression artérielle de l’individu à la quantité ou au type d’aliments consommés.

De l’influence du microbiote sur la sociabilité

Des travaux publiés en 2016 vont même plus loin. Ils attribuent au microbiote un rôle majeur dans les comportements sociaux. Cette étude américaine porte sur le développement de l’autisme en lien avec une obésité de la mère. Les auteurs y étudient des souris issues de mères obèses nourries avec un régime gras et sucré. Ces souris, bien que nourries après leur naissance avec un régime standard, ont des relations sociales déficientes.

Il faut savoir que les souris sont des animaux sociaux. En présence d’un nouvel individu, elles passent habituellement du temps à s’explorer mutuellement. Or les souris nées de mères obèses s’intéressent très peu aux autres souris. Ainsi, elles représentent un modèle animal précieux pour étudier l’autisme, dont on sait par ailleurs que la fréquence est supérieure chez les enfants issus de mère obèse.

Tout d’abord, les chercheurs constatent que le microbiote de ces souris est différent de celui de leurs congénères issus de mères soumises à un régime alimentaire équilibré. Ensuite, ils montrent qu’en ajoutant une bactérie majeure manquante dans leur microbiote, via leur alimentation, leurs relations sociales reviennent à la normale. Ils concluent que leur étude ouvre des perspectives dans le traitement des troubles du comportement chez l’Homme, par le recours aux probiotiques. Sachant que ces « bonnes » bactéries sont déjà utilisés couramment, en complément de l’alimentation, en cas de mycoses ou de diarrhées. La conclusion de ces chercheurs pose question, comme nous le verrons un peu plus loin.

De manière surprenante, alors que le microbiote intestinal et ses effets physiologiques sont très étudiés, peu de travaux se focalisent sur celui des autres organes. L’auteur de la page « microbiote » sur Wikipédia se plaint même que, sur plus de 4 200 études consacrées au microbiote humain, seulement sept s’intéressent à la communauté microbienne… du pénis. Aucune étude ne s’étant penchée sur celle du nez, mon domaine à l’Institut national de la recherche agronomique (Inra), nous avons décidé avec un groupe de collègues de nous y intéresser.

Le microbiote modifie la détection des odeurs

L’épithélium olfactif, le tissu qui tapisse l’intérieur de notre nez, réalise l’étape initiale de la détection des odeurs, avant le traitement des informations par le cerveau. Nous avons dans un premier temps choisi d’étudier les variations du système olfactif chez des animaux sans aucun microbiote, dits « axéniques ». Selon nos observations, l’absence de microbiote modifie bien la structure de l’épithélium olfactif – de manière moins drastique, cependant, que pour l’épithélium de l’intestin.

D’abord, son renouvellement est ralenti. Ce phénomène s’explique probablement par la disparition des micro-organismes habituellement présents dans la cavité nasale. Moins attaquées par des micro-organismes pathogènes venus de l’environnement, les cellules de l’épithélium ne sont pas poussées à se renouveler aussi fréquemment.

Ensuite, chez les animaux axéniques, la couche ciliaire des neurones olfactifs où se déroule la détection des molécules odorantes est plus mince. Eh oui, il y a des neurones dans notre nez, et pas seulement dans le cerveau !. Malgré cette couche de cils plus minces, les signaux électriques neuronaux générés par l’arrivée des odorants sont, paradoxalement, plus intenses chez les animaux axéniques. Sans fournir d’explication à ce paradoxe, ces premiers travaux montrent en tout cas que le microbiote influence la structure des tissus nerveux localisés dans notre nez.

Des préférences pour des odeurs différentes

Nous avons alors réalisé une nouvelle série d’expériences dans le but d’étudier si la nature du microbiote pouvait influencer la manière dont les souris perçoivent les odeurs. À cette fin, nous avons utilisé des souris ayant toutes le même profil génétique mais séparées en trois groupes colonisés chacun par un microbiote différent. Nous avons constaté que les trois groupes de rongeurs ne manifestaient pas les mêmes préférences face à un panel d’odeurs sélectionnées spécialement pour susciter leur intérêt.

Pour en savoir plus, nous avons enregistré l’activité électrique des neurones de l’épithélium olfactif des souris en réponse aux odeurs testées. La encore, nous avons constaté des variations entre les trois groupes. Cependant, certains groupes de souris pouvaient s’intéresser de manière différente à deux odeurs tandis que les neurones de leur nez y répondaient de manière similaire.

Les neurones du nez ne réalisent que la première étape de traitement de l’information apportée par les odeurs. L’intérêt plus ou moins prononcé d’une souris vis-à-vis d’une odeur résulte donc de l’intégration de l’information venue de l’épithélium olfactif par de nombreuses structures de son cerveau. La discordance observée entre le comportement des souris et la réponse des neurones de leur nez suggère donc que la nature du microbiote colonisant l’organisme de la souris influence la manière dont son cerveau interprète les odeurs.

Notre odeur corporelle nous est familière

Au moins deux hypothèses permettent de comprendre que les préférences des souris soient influencées par leur microbiote. Les odeurs émises par tous les animaux sont très liées aux micro-organismes qui les colonisent. C’est le cas chez l’Homme où la majorité des odeurs corporelles sont issues du métabolisme de nos bactéries à la surface de notre peau, dans notre intestin et dans nos organes génitaux. Il en est de même chez les rongeurs. Leur odeur corporelle, qui leur est familière, peut donc expliquer les différences d’attirance pour les odeurs testées.

Par ailleurs, les préférences olfactives des rongeurs adultes sont très dépendantes des odeurs ayant émané de l’environnement pendant leur développement cérébral et ce, dès le stade utérin, comme le montrent de nombreuses études récentes. Les odeurs avec lesquelles ils ont été en contact très tôt dans leur vie leur sont, elles aussi, familières et peuvent donc influer sur leur intérêt vis-à-vis des odeurs qu’ils rencontrent une fois adulte. Cet apprentissage très précoce des odeurs pendant le développement fœtal semble très général dans le monde animal, et est également bien décrit chez l’Homme.

Les odeurs que nous rencontrons très tôt dans notre vie nous influencent une fois adultes. Iva/Flickr, CC BY-NC-SA

À ce stade de notre raisonnement, il est cependant utile de rappeler que la souris diffère de l’Homme dans l’utilisation de ses cinq sens. La souris privilégie l’odorat – fondamental dans ses interactions sociales – tandis que l’Homme sollicite davantage la vision et l’ouïe. Ainsi, des souris rendues incapables de détecter les odeurs par une modification génétique (souris dites anosmiques) perdent les comportements de reproduction et de défense de leur territoire. Elles ont, en plus, un comportement parental altéré.

Si le microbiote affecte le fonctionnement du système olfactif des souris, alors il convient de regarder sous un nouvel angle les travaux des équipes utilisant les rongeurs comme modèles d’études de l’impact du microbiote sur le comportement. C’est le cas des travaux de l’équipe américaine sur l’autisme et le microbiote, cités au début de cet article. Il faut se demander si les perturbations du comportement social observées chez les souris dans leur expérience ne viendraient pas, en fait, d’une perturbation de leurs repères olfactifs.

Des souriceaux perturbés dans leurs repères olfactifs

En effet, les chercheurs ont appliqué aux souriceaux, après leur sevrage, un régime alimentaire différent de celui de leurs mères. Ce changement de nourriture entraîne une modification de leurs odeurs corporelles. Ils perdent sans doute à cette occasion une bonne partie de leurs repères olfactifs initiaux ! Aussi, on peut faire l’hypothèse que la perturbation du comportement social chez ces rongeurs implique avant tout leur odorat.

Contrairement aux souris, nous les humains ne donnons pas la priorité aux informations olfactives pour établir nos relations sociales. Cette remarque amène à relativiser la portée de l’étude portant sur ces animaux.

The ConversationPar contre, si comme chez le rongeur, notre microbiote modifie notre manière d’appréhender les odeurs autour de nous, il est tout à fait envisageable qu’il nous influence dans le choix de nos aliments. Car il est bien établi que notre odorat nous guide dans nos attirances ou nos répulsions pour tel ou tel aliment. Ainsi, une tout autre piste de recherche pourrait être d’évaluer dans quelle mesure nous pouvons changer notre microbiote afin que nos envies nous poussent, tout naturellement, vers une nourriture plus saine.

Nicolas Meunier, Neurobiologiste spécialiste de l'olfaction, université Paris Saclay, INRA

La version originale de cet article a été publiée sur The Conversation.

Les rythmes des saisons enfin visibles !

Est-ce une respiration, un battement ?

Est-ce un mouvement de danse ?

Les saisons passent et la terre se couvre de neige, de végétation, s'assèche. Les océans se refroidissent, se réchauffent...

Cliquez sur cette photo, elle vous révèlera sa beauté.

Grâce à la NASA qui a enregistré pendant 20 ans les images de la terre depuis des satellites.

En regroupant toutes ces informations, nous pouvons découvrir en raccourci l'alternance des saisons qui sont passées.

Aider notre état psychologique en soutenant notre microbiote ?

Les chercheurs étudient si les micro-organismes peuplant notre intestin pourraient jouer un rôle dans la dépression. Nik Shuliahin/Unsplash

La découverte la plus frappante est sans doute celle de liens entre les perturbations de cette flore intestinale et des troubles psychiatriques comme l’anxiété, la dépression, les troubles bipolaires, la schizophrénie, ou encore un trouble neurodéveloppemental comme l’autisme. Il est trop tôt, à ce stade, pour affirmer qu’il s’agit d’une cause, et non pas d’une conséquence de ces troubles. Néanmoins, l’hypothèse selon laquelle la communauté microbienne abritée par notre intestin détermine en partie notre humeur et nos comportements mérite d’être étudiée. Si elle venait à être confirmée, cela ouvrirait des perspectives de prévention ou de traitement inédites en santé mentale.

Les trois premières années de la vie, période clé

Le microbiote intestinal se forme au cours des trois premières années de la vie. Il reste ensuite relativement stable au cours de la vie mais peut être transitoirement modifié, par exemple par un nouveau régime alimentaire, une infection intestinale ou un traitement antibiotique. Le rôle de cet écosystème est fondamental dans la motricité intestinale, c’est-à-dire la progression des aliments dans le système digestif. Il l’est aussi dans le développement du système immunitaire, protégeant l’individu contre l’agression de certaines pathogènes. Il l’est, enfin, dans le système métabolique, participant à la digestion, influençant l’absorption et la distribution des nutriments voire, en cas de maladie, des médicaments.

On estime actuellement que 90 % des maladies pourraient avoir un lien avec des perturbations du microbiote, les unes causant les autres ou inversement. On parle de « dysbiose », pour des situations dans lesquelles une altération de la biodiversité du microbiote peut occasionner des effets négatifs pour l’individu. La « paucibiose » fait référence à la perturbation quantitative du microbiote, c’est-à-dire une baisse du nombre total de bactéries, indépendamment du nombre d’espèces différentes.

Les effets de telles perturbations sur les comportements ont été mis en évidence, pour l’instant, par des études sur des modèles animaux. Ainsi des chercheurs ont fait naître des rats par césarienne, dans des conditions stériles, pour qu’ils aient le moins de contacts possible avec des micro-organismes présents chez leur mère ou dans l’environnement. Ces rongeurs développent rapidement des troubles comportementaux évoquant des maladies psychiatriques : le repli sur soi, une perte de poids, des troubles du sommeil, de l’anxiété, la perte de l’hygiène voire des automutilations.

Or ces troubles s’avèrent réversibles si on administre à ces mêmes rats des probiotiques (des bactéries bonnes pour leur santé) au cours des six premières semaines de leur vie. Au-delà, les troubles deviennent irréversibles, suggérant que le microbiote joue un rôle crucial dans la période de développement du système nerveux central.

Comment le microbiote influence le cerveau

Qu’en est-il chez l’homme ? Notre microbiote peut influencer notre cerveau par plusieurs voies. Il peut modifier la perméabilité intestinale (c’est-à-dire le passage des molécules à travers la paroi de l’intestin vers la circulation sanguine et de là vers le cerveau), moduler l’inflammation au niveau de l’intestin et dans le sang, l’absorption de nutriments bénéfiques ou essentiels pour le cerveau, et influencer le système nerveux autonome responsable des réactions d’éveil et de fuite. Ces phénomènes semblent être à l’œuvre dans plusieurs types de troubles.

À ce jour, les chercheurs ont surtout étudié le lien entre la perturbation du microbiote intestinal et l’autisme, un trouble neurodéveloppemental caractérisé par la diminution des interactions sociales et de la communication, avec des comportements stéréotypés et répétitifs. L’autisme s’accompagne très fréquemment de troubles digestifs. Les enfants autistes, comparés aux non-autistes, auraient dix fois plus de bactéries de type Clostridium, une augmentation des Bacteroidetes et Desulfovibrio, et une diminution des Firmicutes et Bifidobacterium.

Une augmentation de la perméabilité intestinale (l’intestin jouant moins bien son rôle de filtre retenant les pathogènes) a également été décrite dans l’autisme, ainsi qu’une élévation de marqueurs d’inflammation dans le sang. De nombreuses autres anomalies au niveau de la paroi de l’intestin et de la composition des selles chez ces enfants ont également été rapportées.

Le syndrome de l’intestin irritable associé à l’anxiété

Schéma de l’intestin. William Crochot/Wikimedia, CC BY-SA

À l’inverse, des maladies inflammatoires chroniques de l’intestin, comme le syndrome de l’intestin irritable, sont associées à des taux très élevés d’anxiété et de dépression. De tels taux ne sont pas retrouvés dans d’autres maladies chroniques non-inflammatoires pourtant tout aussi difficiles à vivre au quotidien.

Chez les patients souffrant de troubles dépressifs majeurs, une faible sécrétion d’acide gastrique a été rapportée. Cette diminution de l’acidité gastrique a été associée à la croissance (réversible) du microbiote au niveau de l’intestin grêle, ce qui peut entraîner des troubles digestifs, une augmentation de la perméabilité intestinale, de la malabsorption des nutriments, des épisodes de diarrhée ou de constipation.

Une autre observation plaide en faveur du rôle du microbiote intestinal dans la régulation ou le déclenchement des troubles anxio-dépressifs. Des bactéries sécrètent des substances qui sont aussi des neurotransmetteurs, c’est à dire des composés chimiques produits par les neurones pour agir comme messager en direction des autres neurones. Ainsi, certaines souches de Lactobacillus et de Bifidobacterium produisent de l’acide gamma-amino-butyrique (GABA). Les genres Escherichia, Bacillus, et Saccharomyces produisent de la noradrénaline ; Candida, Streptococcus, Escherichia, et Enterococcus produisent de la sérotonine ; alors que Bacillus et Serratia peuvent produire de la dopamine. Tous ces neurotransmetteurs jouent un rôle majeur dans les mécanismes de la dépression.

La schizophrénie et les troubles bipolaires, des maladies psychiatriques chroniques sévères, ont également fait l’objet de travaux. Une étude récente s’est intéressée aux marqueurs de translocation bactérienne anormale, des molécules qui, en temps normal, doivent être trouvées seulement à l’intérieur de l’intestin. Quand ces molécules sont trouvées dans le sang, cela peut être le signe d’une augmentation de la perméabilité de l’intestin. Ce phénomène a précisément été observé chez des personnes touchées par ces deux maladies.

La recherche sur le rôle du microbiote et son influence sur nos comportements en est à ses balbutiements. Ce champ de recherche apparaît aujourd’hui comme un possible chaînon manquant pour expliquer comment se déclenchent ou perdurent certaines maladies mentales. Des probiotiques, des prébiotiques (des substrats favorisant la croissance de souches de bactéries bénéfiques) et des approches nutritionnelles spécifiques sont utilisés actuellement dans certaines pathologies intestinales. Pourraient-ils trouver, un jour, une utilité dans le domaine de la santé mentale ? De nouvelles études seront nécessaires avant de pouvoir confirmer, ou infirmer, l’efficacité de telles interventions.

Auteur : Psychiatre, chercheur associé, Université Pierre et Marie Curie (UPMC) – Sorbonne Universités.

Publié sur : The Conversation / Le microbiote intestinal dicte-t-il notre humeur et nos comportements ?

La pollution lumineuse devenue l’affaire de tous.tes

Sa première version avait fait date dans l’histoire du « dark-sky movement » (le « mouvement de protection du ciel nocturne »). Publié en 2001 dans la revue Monthly Notices of the Royal Astronomical Society, The First World Atlas of the Artificial Night Sky Brightness constitue l’un des articles les plus cités dans les travaux universitaires s’intéressant aux nuisances et pollutions lumineuses.

La parution en juin dernier, quinze ans plus tard, de The New World Atlas of Artificial Night Sky Brightness marque une nouvelle étape. Le grand écho médiatique rencontré par cette publication montre que la question des effets négatifs de l’éclairage artificiel nocturne est devenu un problème public.

La pollution lumineuse, c’est quoi ?

Son effet le plus immédiatement visible concerne la dégradation de la qualité du ciel étoilé. La diffusion atmosphérique de la lumière artificielle génère des halos lumineux qui dégradent les contrastes et interdisent la vision des objets célestes faiblement lumineux.

Diffusion dans l’atmosphère de l’éclairage artificiel généré par la ville de Lourdes. Samuel Challéat (2016)

Dans les grandes agglomérations, le ciel nocturne est réduit aux quelques étoiles les plus brillantes, à quelques planètes et à la Lune. Selon les auteurs du premier Atlas mondial de la clarté artificielle du ciel nocturne, 20 % de la population mondiale ont ainsi perdu la vision de la Voie Lactée à l’œil nu (50 % pour l’Union européenne).

Du point de vue environnemental, les écologues montrent des espèces fortement perturbées par la lumière artificielle. On note des mécanismes d’attraction et de répulsion par les sources lumineuses et des perturbations, à échelles plus larges, d’espèces désorientées lors de leurs migrations. Plusieurs perturbations comportementales sont également relevées (communication, reproduction, prédation). Enfin, certains effets négatifs sont montrés sur la flore.

En période de ponte, les tortues marines recherchent les plages à l’obscurité préservée.   Claudio Giovenzana/wikipedia, CC BY-SA
Pour la santé humaine, la recherche médicale montre que l’alternance naturelle du jour et de la nuit est le premier donneur de temps pour notre horloge interne. Ce synchronisateur rythme la sécrétion de plusieurs hormones, comme la mélatonine. Une désynchronisation peut donc générer stress, fatigue, perte de la qualité du sommeil, irritabilité ou troubles de l’appétit.

Si la dégradation de la vision du ciel étoilé constitue une nuisance – ici c’est l’accès au ciel étoilé qui se trouve dégradé par la lumière artificielle, et non les étoiles elles-mêmes –, les coûts écologiques et sanitaires autorisent à employer le terme de polluant pour la lumière artificielle.

L’astronomie lance l’alerte

La remise en cause des doctrines de l’éclairagisme est le résultat d’un lent mouvement amorcé à la fin des années 1950 aux États-Unis par des astronomes professionnels. On peut en effet dater la première décision publique de protection de la qualité du ciel nocturne à 1958, lorsque la ville de Flagstaff décide d’une réglementation de l’éclairage public pour protéger l’activité des astronomes de l’observatoire Lowell en Arizona (c’est là que Pluton avait été découverte en 1930 par Clyde Tombaugh).

Depuis les États-Unis, le problème se diffuse à l’échelle internationale. D’un côté comme de l’autre de l’Atlantique, les villes connaissent durant les décennies 1960 et 1970 des mutations morphologiques rapides. Le développement massif de l’automobilité, l’étalement urbain, les nouvelles technologies d’éclairage et les faibles coûts de production de l’électricité engendrent l’installation d’un éclairage public toujours plus puissant, augmentant la taille et l’intensité des halos lumineux.

Halo lumineux de la ville de Dijon.    Samuel Challéat

C’est durant ces mêmes décennies que s’affirme une conscience écologique globale qui s’accompagne de conceptions nouvelles, associant finitude de la planète et risques technologiques et environnementaux.

Dans ce contexte, l’idée d’une « pollution lumineuse » émerge peu à peu ; elle prend corps autour d’un bien environnemental à part entière : le ciel étoilé. En réaction à la perte d’accès à ce bien, différents réseaux de l’astronomie et de l’éclairagisme sont mobilisés.

En 1976, l’Union astronomique internationale adopte une résolution pour la protection des sites astronomiques. À la suite, une collaboration avec la Commission internationale de l’éclairage débouche en 1980 sur des recommandations pratiques visant à diminuer le halo lumineux à proximité des observatoires.

Les astronomes amateurs entrent dans la danse et relaient localement ces préoccupations professionnelles. En 1993, ils se fédèrent autour de la rédaction d’une charte pour la préservation de l’environnement nocturne. Au-delà de cette initiative, la mobilisation se traduit en France par la création du Centre pour la protection du ciel nocturne qui deviendra, en 1998, l’Association nationale pour la protection du ciel nocturne.

Globaliser la controverse

Fin 2006, cette association opère un changement significatif en intégrant à son nom la notion d’environnement nocturne. Cette notion floue sert une visée stratégique claire : la mise à l’agenda politique des nuisances lumineuses lors du Grenelle de l’environnement.

Les atteintes à « l’environnement nocturne » saisissent ainsi les aspects socioculturels (accessibilité au ciel étoilé), écologiques (espèces et systèmes affectés par la lumière artificielle) ou encore sanitaires (perturbations des rythmes circadiens et hormonaux, etc.).

Au-delà des dimensions scientifiques, il est aussi question d’atteindre de nouveaux publics, notamment grâce à des projets de science citoyenne ou participative, à l’image du programme Globe at Night.

La question du bon indicateur

Nombreux sont les travaux qui tentent d’objectiver la mesure de la pollution lumineuse grâce à « l’indicateur Voie Lactée ». La question se trouve ici réduite à la vision ou non de ce marqueur de la qualité du ciel nocturne, facilement appropriable et convoqué dans les imaginaires naturalistes. La production des deux Atlas de la clarté artificielle du ciel nocturne évoqués plus haut se situe dans cette mouvance.

Mais à bien considérer les effets négatifs de l’éclairage artificiel nocturne, « l’indicateur Voie Lactée » semble ne pas suffire ; et il révèle, en négatif, ce que l’on ne sait pas encore mesurer, soulignant le manque de connaissances au sujet des effets de la lumière sur les écosystèmes aux échelles complexes ainsi que sur la santé humaine au-delà d’études en laboratoire.

En la matière, « l’indicateur Voie Lactée » opère de façon très hasardeuse des liens entre différents types d’effets et d’impacts : il n’est pourtant pas de lien mécanique, en un lieu donné, entre la qualité du ciel nocturne du point de vue de l’œil humain et les impacts de l’éclairage artificiel nocturne sur tel ou tel trait fonctionnel de telle ou telle espèce.

L’usage trop fréquent de cet indicateur entretient ainsi la confusion entre la mesure des émissions de pollution lumineuse et la mesure de ses effets plus complexes, au-delà de la seule dégradation de la qualité du ciel étoilé. Pire : le fait de se contenter de cet indicateur pourrait à plus long terme freiner voire empêcher le développement des recherches, notamment dans une perspective interdisciplinaire.

Au plus près des usages de la nuit

On le voit, la lutte contre les nuisances et pollutions lumineuses ne peut rester l’apanage de quelques associations encore fortement marquées par le milieu de l’astronomie. Habitants, élus, ingénieurs territoriaux, bureaux d’études, chercheurs issus de multiples disciplines : la fabrique de l’éclairage urbain doit être ouverte à toutes les formes d’expertises et porter attention aux différents usages de la nuit pour, par exemple, mettre en place des politiques localement concertées de réduction des niveaux d’éclairement, voire de coupure de l’éclairage durant certaines plages horaires.

L’éclairage urbain d’une ruelle de la ville de Cluj-Napoca, en Roumanie.
Samuel Challéat (2016)

C’est l’attention portée à ce que les usagers – humain et non-humains – font de et dans l'obscurité qui peut mener à l’adaptation locale de la norme d’éclairage.

Ce travail permet d’ériger la protection de l’environnement nocturne en nouveau principe d’aménagement. Il donne naissance à des outils pour les territoires et les sciences de la conservation ; c’est le cas des Réserves internationales de ciel étoilé, adaptées aux besoins des astronomes et pouvant aussi servir de réservoirs de biodiversité nocturne au sein de « trames noires », ces espaces en réseaux qui rendent possible la protection de l’environnement nocturne jusque dans les villes.

Luminosité naturelle du ciel. Science Advances Juin 2016.

Article écrit par Samuel Challéat, Université Toulouse – Jean Jaurès

Samuel Challéat, Chercheur en géographie de l’environnement, Université Toulouse – Jean Jaurès

La version originale de cet article a été publiée sur The Conversation.

Les praticiens Sÿndaô vous souhaitent

Bilan 2016

Nous avons amélioré et approfondi notre site internet Sÿndaô,
Nous avons écrit régulièrement des articles sur la chronobiologie et ses effets sur notre "chrono"physiologie,
Nous avons suivi pour vous l'actualité scientifique sur les 2 principes fondateurs de notre méthode :
la musicothérapie et la chronobiologie
que nous avons publié sur notre page Facebook.

Souhait et demande 2017

Que notre site Sÿndaô soit encore plus vivant et plus partagé :

Nous avons besoin de vous, pour faire connaitre Sÿndaô !

Depuis la page du blog,
pouvez-vous partager sur vos pages Facebook, Tweeter Linkdin, Google+ ?
au moins 2 articles ?

En retard ? cela dépend où vous vivez !

Après notre article sur la sensation de courir derrière le temps, des conséquences sur notre santé de l'accélération des rythmes de vie, voici un article sur une approche culturelle de la notion du temps.

Au bout de combien de temps est-on vraiment en retard ?

Gestion du temps, dates butoirs, pression du calendrier… nous courons tous après le temps. Cependant, là où telle culture dans le monde considérera qu’on est effroyablement en retard, une autre trouvera que l’on est raisonnablement à l’heure.

Ce matin, vous vous réveillez au son de votre iPhone qui vous rappelle au passage que vous avez rendez-vous avec un fournisseur à 9 heures 15 à l’autre bout de la ville. Mais la journée s’annonce mal… Votre petit dernier casse un pot de confiture dans lequel votre aîné a la bonne idée de marcher. Vous vous retrouvez à perdre encore plus de temps à tout nettoyer. Encore quelques minutes de perdues à chercher vos clés qui se cachaient dans le placard de la cuisine, mais, par chance, vous parvenez à déposer vos enfants à l’école au moment où la sonnerie retentit et où la porte se ferme. C’est alors que votre iPhone sonne 9 heures, ce qui signifie que vous aurez six ou sept minutes de retard pour cette importante réunion – si tant est qu’il n’y ait pas plus de circulation que d’habitude. Que faire dans ce cas ?

Vous avez bien sûr la possibilité d’appeler votre fournisseur pour vous excuser et lui expliquer que vous arriverez à 9 heures 21 précise. Ou 9 heures 22. Mais vous pouvez aussi vous dire qu’un retard de six ou sept minutes n’est pas fondamentalement un retard et décider de vous engager dans la circulation sans prendre la peine de prévenir. Sauf si vous ne vous préoccupez absolument pas de l’heure : que vous arriviez à 9 heures 21, 22 ou même 45, on considérera encore que vous êtes « dans les temps » et personne n’en fera une histoire, ni vous, ni votre fournisseur.

En France, 7 minutes de retard, c’est toujours être à l’heure

Si vous vivez au sein d’une culture qui a une conception rigoureuse de la gestion du temps, comme en Allemagne, en Scandinavie, aux États-Unis ou en Grande-Bretagne, il est probable que vous passiez un coup de fil. Dans le cas contraire, votre fournisseur risquerait de s’agacer à chaque seconde où vous n’apparaissez toujours pas. Inversement, si vous vivez en France ou dans le nord de l’Italie, il y a des chances que vous n’éprouviez pas le besoin de téléphoner, car arriver avec six ou sept minutes de retard, c’est encore être « fondamentalement à l’heure » (après 12 ou 15 minutes, l’histoire aurait été différente).

Et si vous appartenez à une culture qui a une conception souple du temps, comme c’est le cas au Moyen-Orient, en Afrique, en Inde ou en Amérique du Sud, le temps risque d’avoir pour vous une élasticité complètement différente. Dans ces sociétés où il faut se battre contre la circulation et le chaos général de l’existence qui ne cessent de vous mettre des bâtons dans les roues, la probabilité d’un retard est une donnée de base. Dans ce contexte, il n’y a guère de différence entre 9 heures 15 et 9 heures 45, et c’est accepté par tous.

Au tout début de mon installation en France (je suis américaine), j’avais été prévenue par des amis américains que les Français sont toujours en retard. Et cela s’est révélé partiellement exact, même si l’impact de ces retards sur mon travail a été assez faible au quotidien. À titre d’exemple, peu de temps après mon arrivée à Paris, j’avais pris rendez-vous avec un chasseur de têtes spécialisé dans les postes pour expatriés, dans l’une des tours de verre de La Défense. Ayant pris soin d’arriver avec cinq minutes d’avance à mon rendez-vous de 10 heures, j’essayais nerveusement de dérouiller mon français dans ma tête. La femme avec laquelle j’avais rendez-vous, Sandrine Guégan [les noms ont été changés], était une cliente de longue date de mon entreprise et connaissait bien mon patron. Il m’avait assuré qu’elle me réserverait un accueil chaleureux.

J’avais perdu patience

L’hôtesse prévint Madame Guégan à 10 heures précises et, après une seconde avec elle au bout du fil, elle me demanda poliment de bien vouloir patienter. Je me perchai donc délicatement sur le gros canapé de cuir et je patientai quelques minutes en faisant semblant de parcourir le journal. Mais, à 10 heures 07, je n’avais plus beaucoup de patience. M’étais-je trompée sur l’heure du rendez-vous ? Est-ce qu’elle avait eu une urgence indépendante de sa volonté ? Et à 10 heures 10, je me demandai si le rendez-vous allait être maintenu.

Madame Guégan sortit de l’ascenseur à 10 heures 11 et m’accueillit avec chaleur, mais sans un mot d’excuse pour son retard. Depuis le temps que je travaille aux États-Unis et en France, je suis en mesure de confirmer que, dans la plupart des cas, la marge de retard autorisée – pour commencer, finir ou partir – est d’une dizaine de minutes de plus en France qu’aux États-Unis. Si on le sait, ce n’est en général pas très compliqué de s’adapter.

C’est quand je travaillais en Amérique du Sud que j’ai pris conscience du caractère central de la gestion du temps. Au début de cette semaine-là, j’avais pris la parole pendant 40 minutes à Denver, dans le Colorado, devant un groupe d’environ 500 managers, Américains pour la plupart. L’après-midi du jour précédent, Danielle, l’organisatrice de la convention, m’avait montré un jeu de pancartes qu’elle aurait entre les mains pendant mon intervention.

Une pancarte « 0 minute » pour indiquer la fin de mon temps de parole

« Je vous ferai signe toutes les 10 minutes, m’expliqua-t-elle, en me montrant les pancartes sur lesquelles était écrit en gros caractères noirs « 30 minutes », « 20 minutes » et « 10 minutes ». Les dernières pancartes affichaient « 5 minutes », « 2 minutes » et « 0 minute ». Le gros zéro noir de la dernière signifiait, sans l’ombre d’un doute, que j’avais épuisé mon temps de parole et qu’au moment où je le verrais, je n’aurais plus qu’à quitter l’estrade.

Je comprenais parfaitement Danielle. Elle est typique de ma tribu (américaine) et je n’avais aucun problème avec l’idée de surveiller mon temps minute par minute. Mon discours se déroula parfaitement et mon auditoire, culturellement « rigide » en matière de gestion du temps, l’apprécia comme il convenait.

Quelques jours plus tard, je dînais avec Flavio Ranato, charmant Brésilien d’un certain âge, dans un restaurant aux larges baies vitrées qui donnait sur les lumières de Belo Horizonte, cinquième ville du Brésil. Nous étions en train de préparer l’exposé que je devais faire le lendemain à un grand groupe de Sud américains. « C’est un sujet très important pour notre entreprise, me dit-il. Tout le monde va être passionné. Sentez-vous libre de dépasser le temps prévu, si vous en avez envie. Ce sera dans l’intérêt du groupe. »

Je ne comprenais pas bien ce qu’il voulait dire, car j’avais déjà répété ma présentation avec le technicien informatique. En outre, le programme du jour était déjà imprimé et affiché sur la porte de la salle. « Je dispose de 45 minutes, selon le programme de la réunion. Vous pensez me donner combien de temps ? Une heure ? », demandai-je. « Bien sûr, me répondit-il avec un petit haussement d’épaules. Prenez tout le temps dont vous avez besoin. » Pour être absolument sûre de son intention, je confirmai que je serais ravie de prendre 60 minutes, et Flavio Ranato hocha la tête. Je rentrai à mon hôtel pour revoir ma présentation pour l’adapter à une durée d’une heure.

Brésil « Prenez tout votre temps »

Le lendemain, en arrivant à la convention, je remarquai immédiatement que le programme annonçait toujours que j’allais parler pendant 45 minutes. Un peu perturbée, je cherchai Flavio dans la foule pour lui demander si j’avais bien compris : « Vous souhaitiez que je prenne 45 minutes ou une heure pour mon intervention de ce matin ? » Il eut un petit rire, comme si mon comportement était bizarre. « Ne vous faites pas de souci, Erin, dit-il en essayant de me rassurer. Vous allez les passionner. Je vous en prie, prenez tout le temps dont vous avez besoin. »

Dès le début de ma présentation, qui avait subi plusieurs retards imprévus, la réaction de l’auditoire fut conforme à ce qui m’avait été annoncé. Les participants manifestaient bruyamment leur intérêt et, à la fin de mon intervention, ils furent nombreux à agiter le bras pour poser des questions et pour donner des exemples. Les yeux rivés sur la grande horloge qui était au fond de la pièce, je terminai ma session au bout de 65 minutes, avec un retard de quelques minutes dû à une question qui avait pris plus de temps que je n’aurais pensé. Flavio s’approcha de moi : « C’était super, comme je l’espérais, mais vous avez terminé trop vite ! »

Vite ? Je n’y comprenais rien : « Je croyais que j’avais une heure et j’ai déjà pris cinq minutes de plus », hasardai-je. « Vous auriez pu prendre davantage ! Ils étaient passionnés », insista-t-il.

Une marque de manque de respect

Au cours de la soirée qui suivit, nous eûmes une conversation qui m’éclaira beaucoup sur notre malentendu : « Je ne voulais pas mobiliser votre groupe plus longtemps que prévu sans y être clairement autorisée, lui expliquai-je. Vous m’aviez donné une heure. Prendre davantage de temps sans votre permission aurait constitué, à mes yeux, un manque de respect vis-à-vis du programme qui avait été donné. »

« Je ne comprends pas, répondit-il. Dans la situation présente, c’est nous votre client. C’est nous qui vous payons pour vous entendre. Si vous voyez que nous avons encore des questions et que nous avons envie de poursuivre la discussion, n’est-ce pas dans l’intérêt de la qualité du service client que de prolonger votre intervention pour répondre à nos demandes ? » J’étais troublée. « Mais si vous ne me dites pas explicitement que je peux prendre 15 minutes de plus, comment puis-je savoir que c’est ce que vous voulez ? »

Il me dévisagea avec curiosité, commençant à comprendre à quel point je venais d’un autre monde. « C’est évident qu’ils étaient intéressés et qu’ils en redemandaient. Vous ne vous en êtes pas rendu compte ? »
Je commençais à voir l’énormité de l’impact que peuvent avoir des attitudes différentes vis-à-vis du temps. Du fait de nos postulats respectifs concernant la gestion du temps, nous avions chacun une conception différente d’un « service client de qualité ».

Quand les vaches rentrent à l’étable

L’anthropologue américain Edward T. Hall a été l’un des premiers chercheurs à étudier la manière dont les sociétés diffèrent dans leur rapport au temps. Dans La Danse de la vie : temps culturel, temps vécu, Hall distingue les cultures « monochrones » et les cultures « polychrones ». Pour les premières, le temps est considéré comme une réalité tangible. « On le dit gagné, passé, gaspillé, perdu, rattrapé, long, ou encore on le tue ou il passe. Et il faut prendre ces métaphores au sérieux. La gestion monochrome ou linaire est utilisée comme système de classification qui crée de l’ordre dans la vie. Ces règles s’appliquent à tout, sauf à la naissance et à la mort. »

Inversement, les cultures polychrones ont un rapport souple au temps, à l’implication individuelle et à la finalisation des transactions. « Les rendez-vous, écrit Edward T. Hall, n’ont pas de caractère de sérieux et, par conséquent, on les néglige ou on les annule souvent […] car il est plus probable qu’on considère le temps comme un point que comme un ruban ou une route. […] Un Arabe dira « je vous verrai avant une heure » ou « je vous verrai dans deux jours ». En d’autres termes, quelqu’un qui vit dans une société polychrone suggèrera une plage de rendez-vous dans un futur proche sans fixer le moment exact de ce rendez-vous. Le temps est flexible.

Sur le quai de la gare.
Mypouss/Flickr, CC BY-NC-ND

Dans la lignée du travail de Hall, le psychologue américain Robert Levine a entrepris d’observer et d’analyser minutieusement l’attitude de différentes cultures vis-à-vis du temps de l’horloge. Il a constaté que certaines cultures mesurent le temps par intervalles de cinq minutes, tandis que d’autres ne se servent pratiquement pas d’horloges mais gèrent leur journée en fonction de ce qu’il désigne comme du « temps événementiel » : avant le déjeuner, après le lever du soleil ou, dans le cas des indigènes du Burundi, « quand les vaches rentrent à l’étable ».

La gestion du temps est profondément influencée par des facteurs historiques qui modèlent la façon dont on vit, travaille, pense et interagit les uns avec les autres. Si vous vivez en Allemagne, vous trouvez sans doute que les choses s’y déroulent en général comme prévu. Les trains sont à l’heure, la circulation est raisonnable, les institutions sont fiables ; les règles de l’administration sont claires et font l’objet d’une application relativement cohérente. Vous pouvez programmer toute votre année en partant du principe que votre environnement ne va pas interférer de façon majeure avec vos projets.

Les Allemands, calés sur les contraintes du travail d’usine

Il y a une relation claire entre ce schéma culturel et la place historique de l’Allemagne comme l’un des premiers pays du monde à avoir été fortement industrialisé. Imaginez que vous êtes ouvrier dans une usine automobile allemande. Si vous arrivez avec quatre minutes de retard, la machine dont vous êtes responsable démarre en retard, ce qui se traduit par une perte financière réelle et mesurable. De nos jours, la perception du temps qu’ont les Allemands plonge encore partiellement ses racines dans le paradigme de la révolution industrielle, à l’époque où le travail d’usine exigeait que la main d’œuvre soit disponible au moment précis qui avait été fixé.

Dans d’autres sociétés – en particulier dans les pays en développement –, le fait principal de l’existence est le changement permanent. Avec les révolutions politiques et la modification des systèmes financiers, avec les aléas de la circulation, avec la succession des moussons et des sécheresses et les défis imprévisibles qui en découlent, les bons managers sont ceux qui ont développé la capacité à épouser les changements avec aisance et souplesse.

La souplesse de l’agriculteur du Nigéria

Supposons que vous soyez agriculteur dans la campagne du Nigéria, où l’essentiel du travail est fait à la main, et où les machines sont rares. Dans cet environnement, peu importe que vous commenciez à travailler à 7 heures, 7 heures 12 ou même 7 heures 32. Ce qui compte, c’est que votre structure professionnelle soit assez souple pour s’adapter aux changements de l’environnement naturel, et que vous ayez investi dans les relations indispensables pour que vos ouvriers vous restent loyaux en temps de sécheresse ou d’inondation, d’érosion ou d’invasion d’insectes.

Les positions doivent être envisagées d’un point de vue relatif, d’une culture à l’autre. À ce titre, on pourra entendre les Allemands se plaindre amèrement du manque de ponctualité des Britanniques et les Indiens trouver les Français rigoureux dans leur gestion du temps. Cela n’empêche pas les pays germaniques, anglo-saxons et ceux du nord de l’Europe de se ranger en majorité du côté rigoureux, alors que les cultures latines, d’Europe comme d’Amérique, se retrouvent du côté de la souplesse, les cultures moyen-orientales et africaines occupant – toujours de ce côté – les positions les plus extrêmes. En Asie, le Japon est du côté de la rigueur temporelle, mais la Chine et, tout spécialement, l’Inde ont une approche souple du temps.The Conversation

Erin Meyer,  INSEAD

L'auteur, Américaine installée en France depuis 17 ans, est professeur de management et spécialiste des différences culturelles d’un pays à l’autre. Ses travaux, fondés sur des études d’anthropologues et de psychologues, montrent à quel point un Français, un Allemand et un Brésilien voient, derrière les mots « arriver en retard », des réalités bien différentes. Dans son livre « La carte des différences culturelles : 8 clés pour travailler à l’international » (Editions Diateino), elle explique comment décoder les étranges comportements des étrangers… et ne froisser personne.

"https://theconversation.com/profiles/erin-meyer-318643">Erin Meyer, Professeur associé en sciences de gestion, INSEAD

Publié sur "https://theconversation.com/au-bout-de-combien-de-temps-est-on-vraiment-en-retard-69449">version originale de cet article a été publiée sur The Conversation.

Dépression hivernale & chronophysiologie

Aux 2 questions, la chronobiologie peut-elle expliquer la dépression hivernale ?
La musicothérapie vibratoire peut-elle me venir en aide dans ces périodes-là ?
Voici notre réponse :

La chronophysiologie explique

C'est la rotation de la terre qui induit le rythme circadien 'jour-nuit' de 24h, c'est  l'inclinaison de la Terre sur son orbite elliptique solaire qui induit les saisons. À l'automne, l'hémisphère nord semble s'éloigner du Soleil et les journées sont plus courtes.
Certains humains sont plus sensibles que d'autres à cette diminution quantitative et progressive de la lumière du jour. Cela se remarque chez eux par des signes, des symptômes : une sensation de fatigue qui revient chronique tous les ans, un repli sur soi, une baisse de moral, des insomnies saisonnières, des troubles de la vigilance, une plus grande difficulté à se motiver pour aller travailler.

La chronobiologie a montré qu'il existe une relation étroite entre ces états dits dépressifs et la perturbation de l'organisation temporelle de l'humain. En effet, il a été vu que dans un très grand nombre de dépressions hivernales ou de troubles affectifs saisonniers,  une certaine forme de désynchronisation interne avait pu être observée. Ceux qui tolèrent le mieux l'hiver présentent des rythmes circadiens stables et de grandes amplitudes (variabilité interindividuelle de l'être humain).

Cette désynchronisation se matérialiserait au niveau de l'épiphyse ou glande pinéale qui sécrète la mélatonine et qui est étroitement liée à la lumière extérieure. Une chute de la mélatonine peut provenir d'un déphasage des rythmes biologiques de cette glande et serait, en l'état actuel de la recherche, la principale cause de la dépression hivernale.

Ne pas confondre dépression et besoin de sommeil

En hiver, notre corps demande à dormir plus,  lorsque les nuits sont longues et froides. Sans aller jusqu'à l'hibernation, comme ont pu le faire nos ancêtres, il est important d'accepter cette tendance naturelle et physiologique. Elle n'est pas signe de dépression mais au contraire de synchronisation avec les éléments naturels !

fever-310721_1280

Dormir plus l'hiver est un bon remède ! car à pendant cette période de froid, notre organisme est plus vulnérable aux virus et aux microbes. Une étude américaine (journalsleep.org) a montré que les personnes qui dorment moins de 6 h par nuit auraient 4 fois plus de risques d'attraper un rhume. Celles qui dorment régulièrement et suffisamment ( > 8h par nuit ) résistent mieux aux virus !

Approche préventive

Pour prévenir "cette dépression hivernale" non-pathologique, vous avez plusieurs possibilités non médicamenteuses :

Comme la synchronisation soutient la chronophysiologie, nous proposons une approche préventive grâce aux modelages vibratoires Sÿndaô® aux changements de saison. Ceux-ci stimulent, notamment, le système nerveux central et aident à la régulation des horloges internes de celui-ci.

Néanmoins, vous avez d'autres moyens à votre disposition : capture-decran-2016-10-01-a-09-43-06

S'engager  à une "hygiène lumineuse" afin de conserver ses heures naturelles de sommeil en cessant notamment la lecture sur écran à partir de 21 h le soir (ordinateur, tablette, écran tactile, télévision).

Marcher ou faire des activités physiques en extérieur, tout en regardant le ciel qu'il soit bleu ou gris, tous les jours au minimum une heure lorsque la luminosité naturelle est la plus élevée - "à la pause déjeuner", c'est-à-dire lorsque le soleil est au zénith même caché par les nuages. En effet, aucune lumière fabriquée par l'humain ne sera jamais aussi puissante ( max.5000 lumens) que la lumière naturelle du soleil (100 000 à 500 000 lumens). C'est pour cette raison que dans nos sociétés occidentales l'activité en montagne l'hiver, les voyages au soleil sont très appréciés.

Femme marchant en regardant le ciel bleu
Femme marchant en regardant le ciel bleu

Vous préparer psychiquement à cette période de "cocooning" pourrait aussi vous soutenir ; Cela se passe, par exemple,  par l'accumulation de livres, de musique ou de création  pour l'hiver. Vous pouvez faire le choix d'activités culturelles régulières si celles-ci vous nourrissent. Une pratique régulière de ce que nous appelons "le body-building vibratoire" est aussi efficace : en utilisant différentes formes de respiration, souffle diphonique, différentes postures.
(voir en cliquant ici notre proposition de formation de cycle I)

Envie de résorber son embonpoint ?

Décalage entre théorie et faits

"Si les Français devaient être notés sur la nutrition, ils décrocheraient sans aucun doute une mention "excellent" sur la théorie (recommandation de 5 légumes et fruits/jour), mais un "passable" en travaux pratiques."

Ce décalage entre les connaissances et les actes est manifeste dans les résultats tirés d'une analyse statistique auprès d’un échantillon de 38 000 individus faite par la "Cohorte Constances". http://invs.santepubliquefrance.fr/beh/2016/35-36/2016_35-36_8.html

L’excès de poids concerne près de la moitié de la population en France. Ces données confirment l’importance de cette pathologie nutritionnelle en termes de santé publique.

En 2013, la prévalence du surpoids était de :
41,0% chez les hommes et 25,3% pour les femmes.

"La prévalence de l’obésité globale était de :
15,8% pour les hommes et 15,6% pour les femmes.
Celle de l’obésité abdominale était de :
41,6%  chez les hommes et 48,5% chez les femmes".

L’obésité abdominale est définie selon les recommandations de la Haute Autorité de santé : Tour de taille de ≥ 95cm pour les hommes et de ≥ 80 cm pour les femmes.

En fait, toutes les campagnes nationales d'information réunies n’ont pas réglé le problème du surpoids, qui concerne aujourd’hui près d’un Français sur deux entre 30 et 69 ans – un autre résultat de la cohorte Constances. "La prise de conscience des citoyens des enjeux de nutrition était nécessaire, mais elle n’est pas suffisante." Leur seule bonne volonté ne suffit pas, c’est sur leur environnement qu’il faut désormais agir. http://invs.santepubliquefrance.fr/beh/2016/35-36/2016_35-36_5.html

"Fenêtre-temps" alimentaire

Chronophysiologie

Dans notre article de blog "choix qui accompagnent la physiologie" nous avions rappelé le précepte bien connu du Dr Kousmine :

"Petit déjeuner de roi,
Déjeuner de prince,
Diner du pauvre".

A cela s'ajoute la régularité des repas pris et l'horaire du repas du soir.
La chronophysiologie propose en plus un repas frugal c'est à dire très léger (si possible sans sucre) et pris tôt vers 18h30 – 19h00.

Enfin, l'arrêt d'absorption de sucres lents ou rapides après 16h30 est particulièrement recommandée, ceux-ci se transformant en gras après cet horaire. C'est un des aspects importants de la chrononutrition.

Etude " Temps alimentaire restreint " ou TRF

Aujourd'hui, une étude préliminaire dirigée par Courtney Peterson (Université d'Alabama à Birmingham) et le professeur Schoeller va beaucoup plus loin : Une chronodiète.
http://www.cell.com/cell-metabolism/pdf/S1550-4131(14)00498-7.pdf 

"Manger seulement pendant une fenêtre-temps beaucoup plus courte que celle que les gens utilisent généralement aide à la perte de poids", dit C. Peterson.

"Nous avons constaté que manger entre 8 heures et 14 heures suivi d'un jeûne journalier de 18 heures a maintenu l'appétit plus uniforme tout au long de la journée, par rapport à manger entre 8 heures et 20 heures, ce qui est la moyenne américaine." Les chercheurs ont trouvé que cette chronodiète permet des niveaux élevés d'oxydation des protéines et du gras pendant la nuit.

"Grâce à des recherches supplémentaires sur la prise alimentaire limitée dans le temps dès un âge précoce, nous pourrions créer une image plus complète pour savoir si cette méthode innovante pourrait mieux prévenir et traiter l'obésité" explique le professeur Schoeller.

Commentaires

Cela équivaut à passer de 3 repas à 2 repas par jour. Or beaucoup de français ne prennent que 2 repas / jour : le déjeuner et le diner. Faire glisser ces 2 repas sur les bons horaires (petit déjeuner et déjeuner) semble, pour ses auteurs,  être une solution intéressante.

L'étude montre que chez les personnes minces, ces nouveaux comportements alimentaires permettent une vie sociale le week-end, puisque l'on peut alors s'en libérer.
Sinon, faisons comme nos voisins européens : invitons nos amis à l'heure du "Brunch".

Notre expérience  personnelle nous a montré :
- Qu'il est important de la démarrer par l'arrêt alimentaire (Essai à 16h30) pour avoir faim le lendemain au petit déjeuner,
- Que lorsque l'on n'a pas d'enfant, nous dégageons alors beaucoup de temps pour d'autres activités,
- Que ce choix de vie est plus difficilement conciliable avec des enfants ou des adolescents.

Questions que pose une telle étude

  • Nous avons tous entendu parlé des régimes méditerranéens ou d'Okinawa, ce que nous lisons moins c'est qu'ils sont basés sur la frugalité. Or dans nos sociétés occidentales nous mangeons généralement trop. Manger autant mais sur 2 repas est-ce mieux que de manger moins à chaque fois ?

  • En amont, n'achèterions-nous pas trop ? Puisqu'il semblerait que les français jettent 27 kg de nourritures encore emballées par an. Nos grandes surfaces alimentaires ne regorgent-elles pas de trop de tentations ? http://www.novethic.fr/index.php?id=299&tx_ausynovethicarticles_articles[article]=144180&L=0
  • Ne serait-il pas obligatoire de revisiter la contradiction entre les messages de l'agro-alimentaire, de la publicité et de telles études ?
  • Si réduire sa quantité de nourriture le soir est difficile pour certains, est-il plus facile de sauter totalement le repas ?
  • A quel âge peut-on commencer ? Ne doit-on pas attendre que l'enfant grandisse pour l'aider ? tout en sachant que les bonnes habitudes se font par mimétisme ?

Mais encore....

  • Est-ce la panacée ? Est-ce la seule solution ?
  • D'autres études proposent d'autres solutions. 2 - 3 - 4 - 5  repas par jour, tout est possible. Le rythme de prise des repas n’est qu’un facteur parmi d’autres, auquel il faut ajouter la composition, l’heure de prise, et des facteurs propres aux individus, comme leur bagage génétique et leur fréquence d’exercice.
    http://www.alternet.org/story/152486/there_is_no_biological_reason_to_eat_three_meals_a_day_--_so_why_do_we_do_it
  • La chronophysiologie a aussi montré que "qui ne dort pas, mange trop", alors pour combattre le surpoids, avons-nous seulement l'arme de la fenêtre-temps alimentaire ? Ne faudrait-il pas une fois de plus porter l'effort sur la quantité de sommeil dont a besoin notre organisme pour bien se réguler ?
    http://www.journalsleep.org/ViewAbstract.aspx?pid=30766
  • La toute nouvelle prise en compte de la qualité du microbiote (associée à des maladies telle l'obésité) c'est à dire de notre flore intestinale, ne modifierait-t-elle pas ce genre d'étude ? ne serait-ce pas préférable de diversifier plus sa nourriture pour améliorer notre flore (par exemple en augmentant la part de fibres végétales absorbées dans les légumes et les fruits) ? L'étude du microbiote donne un rôle-clé à la diversité de l'écologie intestinale qui définit sa résistance, sa résilience et sa stabilité. http://www.pourlascience.fr/ewb_pages/a/article-microbiote-instestinal-les-bienfaits-de-la-diversite-37777.php
  • Les personnes qui évitent les aliments pour lesquels elles ont développé une intolérance alimentaire perdent toutes du poids, ne serait-ce pas encore une autre solution ? Ne faudrait-il pas favoriser la recherche d'intolérances éventuelles ?
  • La synchronisation de nos rythmes biologiques aide à la régulation de notre seuil de satiété ...ne serait-ce pas une possibilité à explorer pour chacun ?

Au final, ne vaudrait-il pas mieux plusieurs approches conjuguées que de s'en remettre à une seule idée, qui peut sembler assez extrémiste, de ne manger que pendant un créneau de 6 heures ?

Les chansons commerciales sonnent pareil

Par Joshua Reiss, Reader, Centre for Digital Music, Queen Mary University of London
Le 14 septembre 2016

Pourquoi toutes les chantions commerciales sonnent pareil ?

S’il vous arrive d’écouter les radios grand public, vous avez peut-être l’impression que toutes les chansons se ressemblent. En réalité, ce n’est pas qu’une impression : la science semble confirmer que la musique pop revêt une forme assez homogène depuis ses débuts, et tend à le devenir de plus en plus.

Dans une étude de 2014, des chercheurs américains et autrichiens ont analysé plus de 500 000 albums issus de 15 genres musicaux et 374 sous-genres. La complexité de chaque genre et son évolution dans le temps a été mise en regard avec les ventes d’albums. Et dans presque tous les cas, les chercheurs ont découvert que plus un style devient populaire, plus le son qui y est associé se standardise.

En soi, ça ne veut pas dire grand-chose, dans la mesure où, en musique, de nouveaux genres et sous-genres apparaissent sans cesse. On pourrait même dire que cette découverte est une forme de truisme : évidemment, quand les codes d’un genre musical sont bien établis, ce genre devient de plus en plus populaire, et une fois qu’il s’est installé dans le paysage musical, un nouveau genre (ou sous-genre) « rebelle » apparaît. C’est par exemple le cas de la funk music, née de la soul et du RnB, mais avec des basses et des rythmiques beaucoup plus prononcées.

En 2012, une autre étude s’est penchée sur l’évolution de la musique pop occidentale en utilisant un fonds d’archives impressionnant, le « Million Song Dataset », qui renferme des données très détaillées sur le contenu de chaque chanson. Les chercheurs ont découvert qu’entre 1955 et 2010, la sensation subjective de volume sonore (sonie) des chansons n’a cessé d’augmenter, tandis que leur structure musicale était de moins en moins variée.

Ce ne sont certes que des tendances – mais cette perception d’une homogénéisation du paysage musical, partagée par bien des auditeurs, semble s’accélérer ces dernières années, peut-être à cause de certaines évolutions technologiques.

La guerre du volume

La compression dynamique du son est l’ajustement automatisé de la dynamique sonore pour augmenter la sensation subjective de volume sonore (sonie) tout en gardant le même niveau maximal lors du mastering des albums et de leur diffusion radio. Ce système devait au départ réduire les trop grandes variations de volume dans un même titre.

Mais un usage trop systématique de la compression a abouti à une « course au volume » (« loudness war »). La faute au musicien qui ne veut pas sonner moins fort que les autres, au producteur qui veut créer un « mur sonore », aux ingénieurs du son qui ajustent le volume au cours de l’enregistrement, à ceux qui préparent le son pour le diffuser à la radio et enfin aux radios eux-mêmes, qui cherchent à attirer un maximum de d’auditeurs.

Poussez le volume
Poussez le volume, Jeff Wilson

Mais le pire de cette course au volume est peut-être derrière nous. Les spécialistes de l’audition s’inquiètent désormais des dommages provoqués par l’exposition fréquente et prolongée à des volumes sonores trop élevés, tandis que les musiciens dénoncent ses dégâts sur la qualité du son. Une journée annuelle de la compression (Dynamic Range Day) a même été organisée pour sensibiliser à la question, et l’organisation à but non lucratif Turn me Up ! ! a été créée pour promouvoir des enregistrements dont la gamme dynamique est plus étendue. Les organisations de normalisation ont aussi mis en place des recommandations sur la mesure du volume et de la dynamique sonore à l’usage des radios. Autant d’initiatives qui montrent que la course au volume tend à s’essouffler.

Auto-tune

Il y a une autre tendance, qui, elle, semble s’installer dans la durée : l'usage de l'auto-tune. Il s’agit à l’origine de l’invention d’un ingénieur de l’industrie pétrolière, qui sert aujourd’hui à corriger la tonalité des chanteurs, et dont les producteurs de musique usent et abusent.

C'est une banale conversation qui a mené à l'invention de l'auto-tune
C'est une banale conversation qui a mené à l'invention de l'auto-tune, Antares, CC BY

De 1976 à 1989, Andy Hlidebrand a travaillé dans l’industrie pétrolière, où il interprétait des données en rapport avec l’activité sismique. Il envoyait des ondes sonores dans le sol pour le cartographier et connaître les sites à explorer afin d’y puiser du pétrole. L’ingénieur – surnommé Dr Andy – a aussi étudié la composition musicale à l’Université Rice de Houston, au Texas, et s’est servi de ses connaissances dans les deux domaines pour développer des outils de traitement audio – dont le plus connu est sans conteste l'auto-tune.

Une révolution discutable ?
Une révolution discutable ? - believekevin, CC BY

Lors d’un dîner, l’une des convives lui a lancé un défi : inventer un outil qui l’aiderait à chanter juste. En se fondant sur la technologie du vocodeur de phase, qui utilise les maths pour manipuler la représentation des signaux sous forme de fréquence, Hildebrand a imaginé des techniques qui permettent d’analyser et de traiter le son pour produire des sons harmonieux. Sa société, Antares Audio Technologies, a lancé l’auto-tune fin 1996.

À l’origine, l’auto-tune sert à corriger ou dissimuler les fausses notes. Le procédé permet de déplacer la hauteur d’une note vers le demi-ton le plus proche (c’est à dire vers l’intervalle musical le plus proche dans la musique tonale occidentale, fondée sur la gamme tempérée)

Au départ, l’auto-tune était équipé d’un régulateur paramétrable entre 0 et 400 millisecondes pour déterminer à quelle vitesse la note passait à la hauteur souhaitée. Mais rapidement, les ingénieurs du son se sont rendus compte que ce régulateur pouvait servir à déformer les voix et à les faire bondir d’une note à l’autre tout en sonnant toujours parfaitement juste. En plus, l’utilisation de cet effet donne une texture artificielle à la voix, qui sonne presque comme un synthétiseur – un effet qui irrite ou qui plaît en fonction des goûts musicaux.

Contenu non disponible.
veuillez accepter les cookies sur la bannière, s'il vous plaît

Cet effet inédit est devenu la marque de fabrique de Cher avec son hit de 1998, « Believe », le premier titre commercial dans lequel les « effets secondaires » d'auto-tune sont parfaitement assumés et audibles.

Bien sûr, comme pour beaucoup d’autres effets audio, les ingénieurs comme les artistes ont trouvé le moyen d’utiliser l’auto-tune de façon créative, en le détournant de son objectif initial. Hildebrand s’en étonne lui-même : « Je n’aurais jamais imaginé qu’une personne saine d’esprit puisse faire ça », dit-il. Et pourtant Auto-Tune et ses concurrents comme Melodyne font désormais partie intégrante du paysage musical (amateur ou professionnel, tous styles confondus), tant pour ses applications classiques que pour ses possibles détournements.

L’effet est devenu si banal que tous les enregistrements de pop commerciale se doivent de l’utiliser ; Pour les critiques, c’est une des raisons pour lesquelles tant de chansons sonnent pareil, même si la course au volume et la surproduction musicale y sont aussi pour quelque chose. Et parmi les plus jeunes – ceux qui ont grandi en écoutant de la musique « auto-tunée » – beaucoup pensent que le chanteur n’a pas de talent si sa voix n’a pas été trafiquée.

L'auto-tune est devenu un sujet de blagues sur les médias sociaux, à la télévision et à la radio ; Time Magazine l’a même nommé parmi les « 50 pires inventions de tous les temps ». Cela étant, l’effet auto-tune continue à faire son chemin, que ce soit sous forme subtile ou de manière plus visible. Alors, si vous n’arrivez pas à distinguer un titre de Chris Brown d’une chanson de Kanye West, c’est peut-être la faute de Dr Andy.

La version originale de cet article a été publiée en anglais.

Source : The Conversation -  Pourquoi toutes les chansons commerciales sonnent pareil

sommeil dessin d'Aude Laurenceau

Choix de gestes simples et quotidiens

Quelques petits gestes peuvent faire la
différence pour notre chrono-physiologie

Suite à l'article sur une vie bien rythmée publié sur ce blog, nous regroupons et proposons dans celui-ci quelques petits changements d'habitude fort utiles pour favoriser notre synchronisation et soutenir nos rythmes biologiques circadiens.

Le matin

Pour bien se réveiller et informer notre horloge interne qu'il fait jour, il est important de :

- Se lever à heures fixes, même le week-end, même après une fête, une nuit blanche,
- Voir rapidement la lumière naturelle brillante en ouvrant grand les rideaux ou autre système occultant,
- Faire des modelages manuels d'éveil musculaire (Les praticiens Sÿndaô® les proposent en séance individuelle),
- Se lever sans trop attendre, le réveil par petites touches est à bannir car il dérègle notre horloge, 
- Aider à augmenter notre température corporelle en prenant une douche chaude et/ou en se couvrant confortablement,
- S'activer avant le repas pour donner au cerveau le temps de nous faire ressentir la faim,
- Prendre un petit déjeuner solide, varié, plus salé que sucré, pour lancer le starter de notre métabolisme (la dopamine) et couper cours à l'hypoglycémie qui suit trop d'aliments sucrés.
cerveau végétauxM. Doerr/Shutterstock

Le soir

Pour s'endormir plus facilement

Il est important que notre horloge interne pense qu'il fait nuit :

( Dans le but de favoriser la sécrétion de mélatonine, cette hormone qui informe notre cerveau que c'est l'heure du sommeil)

- Prendre un diner léger, qui permette à notre système digestif d'être au repos au moment du sommeil, et si possible comme nos voisins entre 18h30 et 19h30,
- Cesser, 2 heures avant l'heure régulière du coucher, toute vision sur écran lumineux rétro-éclairé quelqu'il soit (pas d'ordinateur, de tablette, de liseuse rétro-éclairée, de smartphone),
- Baisser le son, écouter une musique calme et relaxante, accueillir le silence pour laisser notre cerveau se détendre,
- Baisser l'intensité lumineuse de la pièce à vivre si on a des difficultés à l'endormissement, et éviter la lumière blanche ou bleue.
- Se coucher à heures fixes dans une pièce silencieuse et sombre, surtout s'il y a de l'éclairage public alentour, et si possible qui ne sert qu'à dormir.
Il est nécessaire que notre corps se refroidisse :
- On peut prendre une douche froide ou du moins qui rafraichisse, 
- Dormir dans une chambre à température plus fraiche que le reste de son habitat et suffisamment aérée pour ne pas accumuler la chaleur au cours de la nuit.
Si vous voulez approfondir votre lecture, il vous est suggéré d'autres articles :
Rappel d'un précepte du Dr Kousmine
"Petit déjeuner de roi,
Déjeuner de prince,
Diner du pauvre".
Pour être aider à articuler vos choix et vérifier votre synchronisation, vous pouvez prendre rendez-vous avec l'un des praticiens Sÿndaô en appelant le secrétariat.
vibrations du diapason sur la zone pelvienne, en modelages vibratoires Sÿndaô

Les irrégularités du cycle féminin

Cycle menstruel irrégulier, ses causes, sa régulation

La description du cycle féminin dans un article précédent et de sa sinusoïde permet d'inscrire la nécessité de sa bonne rythmicité pour que la femme vive en harmonie sa période de fécondité qui dure plusieurs années.

Qu'appelle-t-on irrégularité ?

On parle d'irrégularités du cycle dès qu'une femme constate sur plusieurs mois d'affilée des troubles de la rythmicité de son cycle. Ceux-ci peuvent arriver chez la jeune pubarche pour laquelle la rythmicité ne s'installe pas rapidement de façon optimale, il a en effet besoin de maturer. Ils peuvent aussi survenir après une période contraceptive plus ou moins longue qui a chimiquement interrompu le cycle (absence d'ovulation car la chimie bloque la montée de courbe proliférative). Enfin, on les voit apparaître dans la période périménopause (diminution et irrégularité de la pulsatilité des rythmes).

Qu'entend-on par irrégularités ? Le cycle féminin débute par le premier jour des menstrues, dure environ 28-29 jours (de 21 à 35 jours), la période de fécondité (ovulation, elle dure 6 jours et débute avant le 14° jour (pic de la courbe) . Sachant cela, les femmes parlent d'irrégularités lorsque leurs cycles sont plus longs ou plus courts, ou deviennent anarchiques.

En général, le diagnostic effectué après dosage de différentes variables hormonales est "dérèglement hormonal". Il ne prend pas en compte la chronobiologie. Or celle-ci nous donne un complément d'information très précieux :

La chronobiologie a observé un rythme saisonnier pour la FSH* dont le pic se situe de janvier à avril tandis que le pic de la LH* se situe de la mi-janvier à fin avril. Les chercheurs ont ainsi défini des périodes de fécondité plus importante. Et contrairement à ce que l'on croyait le printemps et l'été ne sont pas les meilleures périodes. Celles-ci se situeraient plutôt en hiver et à l'automne.

De plus, la chronobiologie introduit dans la recherche des causes de ces irrégularités une approche des rythmes endogènes (rythmes hormonaux) mais aussi exogènes (nos rythmes psycho-sociaux).

Les causes d'un cycle irrégulier

Les causes de l'irrégularité du cycle féminin sont multiples. Nous ne parlerons pas ici des cas pathologiques puisqu'ils n'entrent pas dans le cadre de notre expérience clinique. Notre expérience de professionnel.les d'aide et de soin pratiquant en réseau, notamment avec des médecins gynécologues, des sages-femmes, des ostéopathes nous permet d'accompagner des femmes dont les causes des troubles sont mal différenciées médicalement. C'est notamment pour ces cas-là que notre regard chronophysiologique et la notion de désynchronisation sont une bonne indication de consultation. Cette désynchronisation provient d'irrégularités endocriniennes (thyroïde, hypothalamus, post-contraception).

Comme le sommeil, le cycle féminin fait souvent signe d'alerte d'une non-régulation des phases rythmiques chronobiologiques.

La difficulté d'aborder les causes de ces irrégularités est que c'est individu-dépendant et très souvent multifactoriel.

La désynchronisation des rythmes féminins peut provenir de causes variées :

  • Un manque d'hygiène lumineuse par des horaires décalés et une insuffisance d'exposition à la lumière naturelle
  • Le travail "posté" c'est à dire avec des horaires de nuit ou fortement décalé
  • Un régime alimentaire strict avec élimination de toute graisse produit un déficit en hormones sexuelles, comme la testostérone
  • Une consommation d'alcool excessive (au dessus de 4 U.I. d'alcool pur par semaine)
  • Une prise ou une perte de poids conséquente (98% des mannequins sont en aménorrhée)
  • Une importante activité physique (les grandes sportives sont souvent en aménorrhée)
  • Les perturbateurs endocriniens (les pesticides, les phtalates, les perforés, les parabènes, les bisphénols A, S, F)
  • Une systémique des zones crânienne et pelvienne perturbée, dense, en tension, en compression
  • Certains traitements médicamenteux
  • Une anesthésie générale
  • Une prise de pilule contraceptive longue selon l'âge de la prise (de 3 ans à plus de 7  ans) Ce cas étant de plus en plus courant, compte-tenu de la précocité actuelle de la puberté.
  • La fatigue qui devient chronique
  • Un choc émotionnel
  • Le stress quotidien, notamment au travail
  • De mauvaises habitudes de vie

La vibration sonore , une aide précieuse

L'expérience clinique des praticiens Sÿndaô a montré l'efficacité de la synchronisation des rythmes par des modelages vibratoires selon la méthode Sÿndaô®. Cette approche douce et non invasive permet, grâce à la vibration solidienne, à beaucoup de femmes de retrouver une vie menstruelle harmonieuse.

Si cet article vous intéresse, vous pouvez lire comment se déroule une séance de synchronisation.

*FSH : folliculostimuline hypophysaire
*LH  : hormone lutéotrope hypophysaire

La chronobiologie et les cycles féminins

Le cycle menstruel féminin

Voici le début d'une série d'articles qui aborde :

le cycle féminin, ses phases, les hormones, son allongement

La connaissance du cycle et des rythmes de ce cycle féminin est indispensable pour comprendre une grande partie des dysfonctionnements, des irrégularités possibles de celui-ci.

Description du cycle féminin

Nous avons créé une page spécifique sur la chronobiologie, dans notre site Sÿndaô.
Cette nouvelle science montre que les processus de la vie sont tous rythmiques et cycliques. Les rythmes sont la base fondamentale de la vie, de la santé de l'organisme. S'ils sont génétiquement programmés, ils sont tous régulés par l'hypothalamus.

Parmi tous les cycles corporels que nous avons listés, figure bien sûr le cycle menstruel féminin de procréation. Celui-ci souligne le caractère périodique de cette phase reproductive.

Les phases du cycle féminin

La période pendant laquelle une femme va faire l'expérience de ce cycle de fécondité se situe entre deux phases de transition; l'une de maturation (la puberté) l'autre d'interruption ( la ménopause). Ce cycle physiologique circamensuel qui peut aller de 24 à 35 jours est par simplicité énoncé de 28-29 jours  car ainsi il a longtemps permis de  le calculer en cycle lunaire, tout en en étant totalement indépendant. La femme est ainsi fertile 6 jours au cours de son cycle.
Si l'oscillation est la règle, ce cycle comme tous les cycles organiques, montre une phase de croissance avec un pic suivi d'une phase de décroissance avec un creux que l'on peut visualiser sous forme de courbe comme une vague :

Une première phase de montée de courbe dite proliférative ou folliculaire, pendant laquelle on constate la croissance de l'endomètre et des follicules (au départ plusieurs ovocytes). Durant cette phase de croissance végétative pure, la femme se sent stable émotionnellement et se tourne facilement vers le monde.

L'ovulation, au pic de la courbe de croissance (14° jour), est le point fondamental du passage d'une phase à l'autre, si une grossesse n'intervient pas. L'ovulation correspond à la rupture du follicule arrivé à maturité et à sa libération dans la cavité péritonéale. Ce phénomène cyclique est engendré par des sécrétions hypophysaires (FSH & pic de LH). c'est le pic de LH, au milieu du cycle, qui provoque l'ovulation proprement dite.

Une seconde phase de descente de courbe dite lutéale pendant laquelle se fait la différenciation de l'endomètre et du corps jaune qui va temporairement se transformer en glande endocrine. Dans cette partie du cycle la température du corps augmente. La femme peut ressentir le besoin d'un repli sur soi, besoin de calme et de tranquillité.

– Enfin, les menstruations au creux de la courbe débutent par le relâchement de l'état endométrial suite à l'involution du corps jaune. Les femmes en sont souvent averties par une baisse de leur température corporelle, 24 à 48 heures avant l'arrivée de leurs menstrues.
Au cours de la menstruation, le processus physiologique permet l'élimination de lambeaux  superficiels d'endomètre associé à du sang incoagulable.

La période du cycle ovarien est bien d'une durée de 28-29 jours, soit 2 fois 14 jours séparés par un pic (l'ovulation) et un creux (le début des menstrues) qui est aussi le début de la 1° phase.

Les hormones fonctionnent sous forme de rythmes pulsatiles

La recherche en chronobiologie a mis en évidence, analysé et regroupé 27 rythmes de fonctions hormonales (parmi  168 variables observées sur des adultes jeunes et sains, synchronisés).

Elle a montré que la pulsatilité est une caractéristique essentielle de leurs modes d'action, et a donc une importance considérable.

Les rythmes pulsatiles de plusieurs variables hormonales apparaissent comme des épisodes distribués au hasard dans le temps et requièrent des méthodes de détection particulière qui doivent tenir compte de toutes les sources de variations, y compris celle des méthodes de dosage.

Les femmes ne peuvent plus douter de l'importance de la synchronisation de ces rythmes entre eux pour assurer un cycle féminin régulier.

L'allongement de la période de fécondité féminine

Cette période qui couvre plusieurs années de vie d'une femme est d'autant plus longue en Europe que nous assistons depuis un siècle à une précocité de la puberté, alors que les femmes désirent des enfants plus tard qu'autrefois.

Plusieurs causes ont été soulignées :

  • La luminosité des villes la nuit via l'éclairage public
  • L'abondance alimentaire qui a permis dans son développement à la pré-adolescente d'atteindre la masse osseuse nécessaire au déclenchement de la puberté.

Tandis que l'âge de la ménopause, lui a peu bougé.

Dans un prochain article nous aborderons les irrégularités de ce cycle.

Si cet article vous intéresse, bienvenue sur Sÿndaô®.

Votre avis nous intéresse !

Sÿndaô

La vibration solidienne

Nous, praticiens Sÿndaô®, parlons volontiers d'intensité de l'onde sonore et donc d'énergie sonore. Cette puissance sonore se mesure, aujourd'hui, en décibel. Cette amplitude qui dépend du flux d'énergie sonore (ou écoulement acoustique ou brassage sonore) nous permet de distinguer communément un son de niveau faible d'un niveau fort.

Quand on sait cela, l'utilisation d'un diapason peut sembler paradoxale puisqu'il ne dépasse pas 30 DB, ce qui est faible. De fait, ce n'est pas seulement l'onde sonore, aérienne  proprement dite qui nous intéresse, mais c'est la vibration solidienne de cette onde qui se propage à l'intérieur de l'organisme. C'est un phénomène que décrit la physique des fluides. Cette vibration solidienne est toujours mécanique et peut être osseuse, tissulaire, cellulaire.

Nous savons grâce à la chronobiologie que l'activité rythmique est une propriété fondamentale de la matière vivante, ou pour le dire autrement, que toute activité, si microscopique soit-elle (organique, cellulaire, moléculaire) est oscillatoire, soumise à des cycles rythmiques et régulée par des horloges biologiques. Nos cellules sont ainsi définies comme des systèmes oscillants et sont à ce titre résonants. Elles peuvent donc résonner avec les vibrations (sonore et solidienne).

Le vrai changement de paradigme est que :
- L'oscillation est la règle,
- Le seul moment où un système organique est en équilibre, c'est lorsqu'il est mort !
C'est en effet, la fin des échanges d'un système à l'autre sur le mode rythmique.
- Le reste du temps il est en mouvement permanent rythmique pour s'adapter aux phénomènes périodiques terrestres.
- La notion d'homéostasie est donc obsolète.

Ayant intégré ces notions, nous utilisons la vibration solidienne pour procéder à une synchronisation par modelages vibratoires, c'est à dire à la mise en phase de rythmes internes  au moyen de diapasons.

 

Plusieurs membres d’une famille ?

Acceptez-vous de recevoir plusieurs membres d'une même famille ?
Capture d’écran 2016-02-24 à 08.02.40
À notre initiative, lorsqu'un rendez-vous est pris pour un bébé ou un très jeune enfant, nous sollicitons chaque parent pour qu'il prenne lui-même un rendez-vous. Une famille est un système où tous les membres s'articulent entre eux et interagissent. Comme nous l'avons écrit dans un article de ce blog, les parents sont les "synchroniseurs" de leurs enfants. A contrario, trop souvent, ils peuvent être un des facteurs de désynchronisation.
L'expérience phénoménologique a montré que de synchroniser les biorythmes des parents permet de ne revoir leur enfant qu'à d'autres stades de croissance.
Par ailleurs, il arrive fréquemment que, suite au confort apporté à un membre d'une famille, nous recevions une demande de séance d'autres membres de cette même famille ;
Si c'est en accord avec la personne que nous accompagnons déjà, nous acceptons plusieurs membres d'une même famille.
Il est aussi possible que plusieurs praticiens Sÿndaô® voient différents membres d'une même famille.
Et pour un couple ?
À la demande d'un couple qui désire avancer à deux sur le même chemin, nous prenons pour chacun un premier rendez-vous individuel et personnel, puis chacun poursuit à son rythme.  Il est très positif pour un couple, voire fondamental, que ses deux membres soient synchronisés au quotidien.
En cas de désaccord, ou de mésentente ?
Alors nous ne prenons qu'un seul membre, celui avec lequel nous avions commencé l'accompagnement par modelages vibratoires accompagnant la chronophysiologie qui sont la spécificité de la musicothérapie vibratoire.