Overblog Suivre ce blog
Administration Créer mon blog
14 janvier 2017 6 14 /01 /janvier /2017 18:21

L'héritage d'Einstein est bien vivant, la preuve : l'une de ses tentatives pour unifier la physique des particules de matière avec celle des champs de force contient peut-être en germe une des clés de la solution de l'énigme de l'énergie noire en physique quantique.

Comme expliqué dans un précédent article introductif sur la géométrie non-commutative en physique,

Albert Einstein a très tôt entrepris d’aller au-delà de sa propre théorie de la relativité générale. L'objectif était double car il s'agissait non seulement de découvrir une théorie unifiée qui aurait réuni le champ de gravitation avec le champ électromagnétique au sein d'un seul champ mais également une théorie non dualiste de la matière et des champs.

Rappelons qu'en ce qui concerne les particules de matière à la fin des années 1910, cela voulait dire les protons et les électrons, puisque le neutron, les neutrinos et les mésons étaient alors inconnus.

Avant sa formulation finale de la théorie de la relativité générale, en novembre 1915, Einstein avait déjà réfléchi, comme plusieurs de ses contemporains et en particulier Poincaré, à des modèles décrivant la structure et les propriétés des particules chargées, en l’occurrence, les électrons.

Poincaré avait montré que l’on pouvait retrouver plusieurs phénomènes liés aux propriétés de l’électron en le considérant comme une répartition étendue de charge qui n’explosait pas sous l’effet de la répulsion électrostatique de ses parties si l’on supposait qu’une autre force s’y opposait.

En 1919, Einstein avait été conduit à modifier légèrement les équations de la relativité générale, dans le cadre de ses recherches sur une théorie non dualiste de la matière et du champ (supposant donc que les particules sont des concentrations d’énergie dans un champ unitaire et pas des objets étrangers à ce champ qu’il fallait postuler).

Il avait alors obtenu pour la première fois ce que les physiciens actuels appellent la théorie unimodulaire de la gravitation.

Le vide en physique est un concept difficile à définir. On pourrait penser qu'il désigne l’absence de tout, mais en mécanique quantique il semblerait que cela ne soit pas vraiment le cas… Futura-Sciences a interviewé Claude Aslangul sur ce sujet.

L'énergie noire est la pire prédiction de la physique théorique

Magiquement, cette théorie prédisait l’existence d’une force de pression issue de la gravité capable de jouer le rôle, en théorie du moins, de la force postulée par Poincaré.

On peut montrer que cette théorie reproduit bon nombre des prédictions de la relativité générale, sauf qu’elle peut conduire à des violations de la conservation de l’énergie !

Nous n’avons pas de raisons valables de douter de cette loi, très bien vérifiée par l’expérience, mais cela n’a pas empêché les physiciens, qui ne sont ni dogmatiques ni étouffés par une soi-disant pensée unique, d’explorer plusieurs théories qui d’une façon ou d’une autre peuvent conduire à des violations de la conservation de l’énergie. Il existe par exemple des modifications des équations de la mécanique quantique, notamment dans l'étude de l’évaporation des trous noirs par rayonnement Hawking, qui viole cette conservation de l’énergie.

Indépendamment de cette problématique, le physicien Lee Smolin, entre autres, a montré que la théorie unimodulaire de la gravité contenait peut-être la solution d’une énigme parfois considérée comme la pire prédiction de la physique.

En effet, la théorie quantique tend à prédire que les champs de matière et de forces possèdent une énergie minimale colossale, c’est-à-dire qu’ils doivent se manifester sous la forme d’une densité d’énergie du vide quantique, la fameuse énergie noire, possédant une valeur extraordinairement élevée.

Problème, la valeur calculée de cette énergie est 10120 fois plus élevée (1 avec 120 zéros !) que ce que montrent les observations depuis 1998.

On a bien du mal à produire des théories qui s’accordent avec cette observation et elle est troublante à plus d’un titre car selon la théorie d’Einstein, comme Pauli l’avait compris dès les années 1920 (voir l’article ci-dessous), une telle densité d’énergie doit tellement courber l’espace sur lui-même qu’il serait plus petit que la Terre.

Or il semble bel et bien que la théorie unimodulaire de la gravité supprime automatiquement l’effet de l’énergie du vide sur la courbure de l’espace-temps, tout en introduisant une constante cosmologique qui se manifeste par une accélération de l’expansion de l’univers observable depuis quelques milliards d’années. Giancarlo Ghirardi est un physicien italien bien connu notamment pour la théorie qu'il a proposée en 1985 avec Alberto Rimini et Tullio Weber.

Il nous parle de la théorie quantique.

L'énergie noire et le problème de la mesure en physique quantique

Le journal Science vient d’attirer l’attention sur l’un des derniers travaux qui spéculent sur la pertinence de la théorie proposée par Einstein en 1919. Il s’agit d’un article déposé sur arXiv par trois physiciens, Thibault Josset et Alejandro Perez, de l’université d’Aix-Marseille, en compagnie de leur collègue Daniel Sudarsky, de l’université nationale autonome du Mexique (Universidad Nacional Autónoma de México, UNAM).

Les trois chercheurs montrent que l’on peut connecter la valeur de la constante cosmologique actuelle à la quantité d’énergie non conservée impliquée par la gravité unimodulaire.

Il faut pour cela relier cette violation de la conservation de l’énergie à celle intervenant notamment dans une classe de théories modifiant les équations de la mécanique quantique afin d’expliquer certains de ses paradoxes.

En effet, la théorie quantique autorise en quelque sorte une particule à être en plusieurs endroits à la fois.

Comment se fait-il que nous n’observions rien de tel à l’échelle macroscopique ?

C’est un avatar d’un célèbre problème en physique quantique et qui se cache sous les désignations ésotériques de problème de la réduction du paquet d’onde ou encore de l’effondrement du vecteur d’état, ou, plus sobrement, de problème de la mesure.

En 1985, les physiciens Ghirardi, Rimini et Weber ont proposé un mécanisme impliquant une modification de la théorie quantique et forçant une particule à se localiser au bout d’un temps souvent très long.

L’effet est très faible mais les objets macroscopiques contenant au moins des millions de milliards de milliards de particules et parfois bien plus, le mécanisme est finalement très rapide.

La théorie de Ghirardi-Rimini-Weber a par la suite été étendue et elle a donné finalement ce qu’on appelle la théorie de la localisation continue spontanée ou CSL (pour continuous spontaneous localization).

C’est cette théorie qui a été mise en connexion avec la gravité unimodulaire et la cosmologie.

Tout ceci reste bien sûr très spéculatif.

Pour aller plus loin, il faut explorer toutes les voies ouvertes au-delà de la physique du modèle standard.

De plus, l'idée qu'il est nécessaire de modifier les équations et l'interprétation de la mécanique quantique, en particulier avec l'introduction de phénomènes non linéaires, ce qui est bien le cas avec la théorie CSL, est complétement dans l'esprit d'Einstein.

L'avenir pourrait montrer que le père de la théorie de la relativité, et dans une certaine mesure de la mécanique quantique, avait des décennies d'avance, voire un siècle... Schrödinger et Einstein avaient entrevu l'énergie noire Article de Laurent Sacco publié le 16/12/2012 Albert Einstein a publié en 1917 son modèle d’univers dans lequel il introduisait la désormais célèbre constante cosmologique.

En relisant deux articles concernant un débat entre Einstein et Schrödinger au sujet de cette constante en 1918, un physicien américain s’est rendu compte qu’Einstein avait entrevu la possibilité que sa constante se comporte comme certains modèles d’énergie noire actuels.

Lorsque Albert Einstein a publié en 1917 son premier modèle cosmologique issue des équations de la relativité générale, il avait utilisé une possibilité au départ purement mathématique dictée par la théorie des invariants en géométrie différentielle.

Il s’agissait aussi de trouver des solutions décrivant la géométrie de l’espace-temps à grande échelle produite par une distribution d’étoiles censée représenter l’univers et en accord avec une idée à laquelle Einstein tenait par-dessus tout : le principe de Mach.

Einstein obtenait au final un système d’équations exprimant la structure de l’espace-temps en cosmologie avec une constante notée lambda, ajustée pour contrebalancer par des forces répulsives les forces d’attraction d’une distribution uniforme d’étoiles dans un espace-temps clos, fini et éternel.

Sans ces forces répulsives, l’univers ne serait pas stable, en contradiction avec ce que l’on pensait savoir à l’époque.

La constante d’Einstein allait devenir célèbre et aujourd’hui tout le monde en a entendu parler sous le nom de constante cosmologique.

Erwin Schrödinger et Albert Einstein partageaient bien des choses en commun, comme un intérêt pour la philosophie et une insatisfaction devant l'interprétation orthodoxe de la mécanique quantique. Ils ont travaillé sur des thèmes identiques en relativité générale, de la cosmologie à une théorie unifiée de la gravitation et du champ électromagnétique.

En 1918, Erwin Schrödinger, le futur découvreur de la mythique équation gouvernant le monde de la mécanique quantique, proposa dans un court article de traiter différemment la constante cosmologique d’Einstein.

Non comme un paramètre de la partie des équations d’Einstein traitant de la courbure de l’espace-temps, mais comme l’effet d’une densité de matière ou d’énergie encore inconnue.

En des termes modernes, comme le fait remarquer aujourd’hui le physicien Alex Harvey, professeur à la City University of New York, dans un article publié sur arxiv, Schrödinger introduisait implicitement le concept d’énergie noire en cosmologie.

Schrödinger, précurseur pour le concept d’énergie noire

Le génial Schrödinger arpenta plus tard de nouveaux sentiers de la cosmologie relativiste avec des décennies d'avance.

En effet, en 1939, il a découvert que dans un univers en expansion, les lois de la mécanique quantique et de la relativité générale peuvent conduire à la création de particules.

Il avait donc 30 ans d’avance sur Zel’dovich, Starobinsky et Hawking qui, entre la fin des années 1960 et le milieu des années 1970, ont exploré les conséquences de la théorie quantique des champs en espace-temps courbe au début de l’univers ou au voisinage des trous noirs.

Einstein ne tarda pas à répondre aux remarques de Schrödinger. Il avait bien sûr eu la même idée, mais n’en avait pas parlé dans son article de 1917, parce que cela aurait ouvert la boîte de Pandore.

En effet, si on considère que la constante cosmologique est la manifestation d’une distribution de matière-énergie, il faut admettre qu’elle peut varier dans le temps et dans l’espace selon des lois à déterminer.

En des termes modernes, selon Alex Harvey, Einstein entrevoyait que sa constante devait être remplacée par des équations décrivant un champ scalaire variable dans l’espace-temps, c'est-à-dire quelque chose comme les modèles de quintessence pour l’énergie noire.

Einstein et Pauli en pleine discussion.

Les deux physiciens étaient des maîtres de la théorie de la relativité générale.

L'énigme de la constante cosmologique

Mais comme aucune indication ne permettait de fixer les équations de ce champ, on ne pouvait que se perdre en conjectures stériles.

Il valait mieux considérer dans un premier temps le modèle cosmologique le plus simple possible au niveau des hypothèses.

Quatre-vingts ans plus tard, Saul Perlmutter, Adam Riess et Brian Schmidt, en découvrant l’expansion accélérée de l’univers, allaient ramener le problème considéré par Schrödinger et Einstein sur le devant de la scène.

Un autre problème clairement vu au début des années 1920 par Wolfgang Pauli allait devenir lui aussi encore plus aigu.

Avant même la découverte par Heisenberg, Born et Schrödinger des lois de la mécanique quantique, le jeune Pauli avait compris que les règles de la vieille théorie quantique imposaient que le champ électromagnétique devait contenir tellement d’énergie même en l’absence de propagation de la lumière qu’il aurait dû courber l’espace de l’univers clos d’Einstein de telle sorte qu’il ressemblerait à une sphère de seulement 31 km de rayon environ.

Ce grave problème persiste aujourd’hui lorsque l’on tente de comprendre la nature de l’énergie noire.

Repost 0
Published by Jean-Pierre LABLANCHY - CHRONIMED - dans Concept Les ondes
commenter cet article
14 janvier 2017 6 14 /01 /janvier /2017 17:59

En 2017, l'ILADS fera son congrès européen à Paris (c'est une première !), les vendredi 19 et samedi 20 mai

L'info sera officielle sur le site de l'ILADS dans quelques jours, je vous la donne en avant première ;-) alors SAVE THE DATE !!

Voici le programme (orateurs internationaux avec traduction simultanée, dont 5 francais )

program selection

19 Mai : Introduction: 8h30 Clinical presentations: 8h45-9h25. Co-infections. Jack Lambert, Ireland. 40 min. 9h25-9h35. Discussion 9h35-10h15. Lab testing for Borrelia sp. and co-infections in cancer and in unexplained syndromes. Armin Schwarzbach, Germany. 40 min. 10h15-10h25. Discussion 10h25-10h55. Development of bacteriophages targeted against Borrelia burgdorferi. Louis Teulières, France. 30 min. 10h55-11h05. Discussion 11h05-11h35. Coffee break 11h35-12h15. Neurologic implications in Lyme. Harald Bennefeld , Germany 40min. 12h15-12h25. Discussion 12h25-14h.

Lunch 14h00.

Treatment of autistic children with antimicrobials. 14h00-14h25. Laura Alonso, Spain. 25 min 14h25-14h50. Philippe Raymond, France. 25 min 14h50-15h. Discussion 15h-15h40. Case reports. Marjo Valonen, Finland. 40 min. 15h40-15h50. Discussion. 15h50-16h20. Coffee break 16h20-16h50. Treatment of persistent Lyme disease and co-infections. Use of antiparasitic, antifungal and anti-mycobacterial drugs. Richard Horowitz, USA. 40 min. 17h00-17h10. Discussion 17h10. End

20 mai : Scientific presentations: 8h45-9h25. Diagnostic tests for chronic Lyme disease and co-infections: discrepancies between published data and recommendations. Christian Perronne, France. 40 min. 9h25-9h35. Discussion 9h35. Development of direct microbiologic methods for diagnosis of Lyme disease and co-infections. Interest of new generation PCRs. 9h35-10h00. Muriel Vayssier-Taussat, France. 25 min. 10h00-10h25. Denis Fritz, France. 25 min. 10h25-10h50. Iwona Bil-Lula. Poland. 25 min. 10h50-11h05. Discussion 11h05-11h35. Coffee break 11h35-12h05. Suppression of long-lived humoral immunity following Borrelia burgdorferi infection in mice. Nicole Baumgarth, USA. 30 min. 12h05-12h15. Discussion 12h15-13h45.

Lunch 13h45-14h15.

Host-pathogen interaction. Genetic predisposition for the clinical pattern of Lyme disease, including chronicity. Shusmita Rahman/ Alaa Badawi Canada. 30 min. 14h15-14h25. Discussion 14h25-14h55. Prevalence of positive serologies for B. burgdorferi among Polish farmers. Violetta Zajac, Poland. 30 min. 14h55-15h05. Discussion. 15h05-15h35. Coffee break 15h35-16h05. Autochthonous parasitic diseases in Austria. Herbert Auer, Austria. 30 min. 16h05-16h15. Discussion 16h15-16h55. Microbial causes of Alzheimer’s disease. Comparison of the results obtained by several research teams (AB. McDonald, J. Miklossy, HB. Allen, StJohn Crean). Judith Miklossy, Switzerland. 40 min. 16h55-17h05. Discussion. 17h05. End Pol

De Saedeleer Eu Committee ILADS

Repost 0
Published by Jean-Pierre LABLANCHY - CHRONIMED - dans Infections froides
commenter cet article
14 janvier 2017 6 14 /01 /janvier /2017 10:27

Des chercheurs israéliens ont mis au point un outil qui détecte dans l’haleine des molécules caractéristiques de 17 maladies, comme Parkinson ou des cancers.

Chaque pathologie peut ainsi être identifiée par une combinaison de 13 composés organiques volatils (ou COV).

Dès l’Antiquité, des médecins ont cherché à évaluer la santé de leurs patients à partir des composés organiques volatils (COV) qu’ils émettent, notamment dans les selles et les urines. Ici, une équipe du Technion-Institut de technologie d'Israël a décidé d’aller un peu plus loin grâce aux nanotechnologies.

L’air expiré contient du dioxyde de carbone, du diazote et du dioxygène, mais aussi plus d’une centaine de COV, des molécules de faible poids moléculaire. La quantité et le type de COV exhalés dépendent du métabolisme et de la santé de l’individu.

C’est pourquoi l’analyse de ces molécules pourrait aider au diagnostic de maladies. L’analyse de l’haleine présente de nombreux avantages par rapport à celle d’autres fluides comme le sang : l’air exhalé est facilement accessible, ne nécessite pas de méthode invasive de prélèvement, il est peu complexe et peut être manipulé en toute sécurité.

Les chercheurs ont construit un outil de diagnostic intelligent, avec des nanoparticules d’or.

Cet outil contenait des capteurs spécialisés capables de détecter dans les molécules de l’haleine celles qui correspondent à des COV liés à des maladies.

L’air exhalé contient des molécules qui sont analysées grâce aux nanotechnologies.

Chaque maladie à une empreinte volatile caractéristique 2.808 échantillons d’air expiré ont été récupérés chez 1.404 personnes diagnostiquées avec 17 maladies différentes ou en bonne santé.

Les 17 maladies en question étaient les suivantes : cancers du poumon, du côlon-rectum, du cou et de la tête, de l’ovaire, de la vessie, de la prostate, du rein, de l’estomac, maladie de Crohn, rectocolite hémorragique, syndrome de l’intestin irritable, maladie de Parkinson (idiopathique ou atypique), sclérose en plaques, hypertension artérielle pulmonaire, pré-éclampsie et maladie rénale chronique.

Les chercheurs ont découvert que ces 17 maladies généraient différentes empreintes, avec une combinaison particulière de 13 COV.

Par exemple, le nonanal (nonanaldéhyde) est lié au cancer de l’ovaire, à la maladie inflammatoire de l’intestin, au cancer du sein et aux adénocarcinomes de l’œsophage et de l’estomac. L’isoprène est lié à la maladie hépatique chronique, la maladie rénale ou le diabète.

L’outil détectait les maladies avec une efficacité de 86 %. Ces résultats permettent donc d’imaginer qu’il soit possible de créer des outils de diagnostic miniaturisés, peu coûteux et faciles d’utilisation.

D’autres recherches sur un échantillon plus large de patients seront nécessaires pour savoir si de telles applications pourront voir le jour en médecine.

Ces résultats paraissent dans la revue ACS Nano.

Repost 0
Published by Jean-Pierre LABLANCHY - CHRONIMED - dans Concept
commenter cet article
14 janvier 2017 6 14 /01 /janvier /2017 10:23

Une étude danoise suggère qu'un tiers des tumeurs diagnostiquées par mammographie correspondent à des surdiagnostics car elles n'auraient pas conduit à des problèmes de santé.

Le débat sur le dépistage généralisé par mammographie est donc relancé.

En France, les femmes sont invitées au dépistage du cancer du sein par mammographie tous les deux ans, entre 50 et 74 ans.

La mammographie utilise les rayons X pour trouver des tumeurs avant qu’elles ne causent des symptômes ou qu’elles soient repérées par palpation.

Le dépistage organisé a pour objectif de diagnostiquer le cancer du sein plus tôt, lorsqu’il est plus facile à traiter. Idéalement, le dépistage généralisé devrait se traduire par une diminution du nombre de femmes diagnostiquées avec de grosses tumeurs, qui grandissent vite et sont plus difficiles à traiter.

Au Danemark, le dépistage par mammographie a été introduit progressivement dans différentes régions du pays : à Copenhague en 1991, Funen en 1993 et Frederiksberg en 1994.

D’autres régions ont introduit le dépistage à partir de 2007.

Celui organisé au Danemark correspond à une mammographie tous les deux ans pour les femmes de 50 à 69 ans.

Pour savoir si la mammographie atteignait ses objectifs, les chercheurs ont analysé les données de plus de 1,4 million de femmes danoises âgées de 35 à 84 ans, entre 1980 et 2010.

Ils ont comparé des femmes qui vivaient dans des régions avec des programmes de dépistage à d'autres vivant dans des zones qui n’offraient pas ce dépistage organisé.

Les chercheurs ont relevé la taille des tumeurs diagnostiquées dans les différentes régions, en considérant qu’une tumeur avancée mesurait plus de 20 mm.

Le dépistage ne diminue pas le nombre de cancers avancés Le dépistage n’était pas associé avec une diminution de l’incidence des tumeurs avancées.

Les chercheurs estiment qu’environ une tumeur sur trois diagnostiquée chez des femmes qui ont subi une mammographie n’aurait jamais causé de problèmes de santé, ce qui correspond donc à un surdiagnostic.

Karsten Jorgensen, principal auteur de l’étude, a expliqué dans une dépêche de Reuters, « le surdiagnostic signifie que les femmes en bonne santé obtiennent des diagnostics inutiles du cancer du sein ».

Il ajoute qu’« un diagnostic de cancer du sein est un événement qui change la vie de la femme et de sa famille, avec des implications importantes pour leur qualité de vie.

Cela entraîne également un surtraitement avec la chirurgie, la radiothérapie et parfois la chimiothérapie - nous savons que ces traitements ont des conséquences graves, parfois mortelles ».

Cependant, les chercheurs soulignent qu’une des limites de cette recherche est que la mammographie s’est améliorée depuis le début de l’étude en 1980.

Les résultats pourraient donc être différents aujourd’hui. De plus, pour Otis Brawley, de l’American Cancer Society, qui a rédigé un éditorial accompagnant l’étude, « cela ne veut pas dire qu’il ne faut pas faire de mammographie, il s'agit de l'utiliser plus efficacement pour sauver le plus de vies ».

À l’avenir, il pourrait être possible d’utiliser les résultats de dépistage pour cibler les femmes qui pourraient être plus suivies que les autres.

En France, en octobre 2016, la ministre de la Santé a annoncé une refonte du programme de dépistage du cancer du sein.

Les résultats sont publiés dans Annals of Internal Medicine.

La mammographie remise en cause Article de Janlou Chaput paru le 14/02/2014

Une nouvelle étude révèle les risques de la mammographie : elle ne permettrait pas de sauver plus de vie que le seul examen physique, et entraînerait des surdiagnostics qui engendrent des opérations gênantes et inutiles chez les patientes.

Faut-il la remettre en cause ?

C’est ce qu’on appelle une vaste étude : près de 90.000 femmes de 40 à 59 ans suivies pendant 25 ans afin de vérifier l’intérêt du dépistage du cancer du sein grâce à la mammographie.

L’idée consistait à séparer les participantes en deux groupes équilibrés.

Dans le premier, les femmes quadragénaires bénéficiaient d’une mammographie, technique radiologique permettant de déceler les tumeurs de 15 mm, tous les ans pendant 5 ans.

Dans le second, les femmes de moins de 50 ans étaient diagnostiquées à l’aide d’un seul examen physique pratiqué par un médecin, grâce auquel on ne décèle que les grosseurs de 21 mm et plus. Au-delà de 50 ans, les femmes avaient droit à un examen annuel pour assurer un suivi, peut-on lire dans le British Medical Journal.

À lire : Avant 40 ans, l’échographie plutôt que la mammographie

Après les 5 premières années, 666 tumeurs mammaires ont été détectées dans le groupe des femmes ayant subi une mammographie, contre seulement 524 dans le lot témoin.

La radiographie des seins semble donc plus pertinente pour détecter les tumeurs.

Mais cela suffit-il pour autant ?

Car la mortalité semble équivalente dans les deux groupes : 180 décès contre 171 parmi ces 1.190 tumeurs à la fin de l’étude.

En tout, 3.250 tumeurs ont été détectées dans le groupe des participantes sous mammographie, contre 3.133 chez leurs homologues, pour respectivement 500 et 505 décès.

Le surdiagnostic, principal risque de la mammographie

Quelles conclusions tirent les auteurs ?

Que la mammographie se révèle trop efficace. À tel point qu’elle détecte de petites tumeurs qui n’évoluent jamais et ne présentent aucune menace.

On parle alors de surdiagnostic, qui monte à 22 % après 15 ans de suivi.

Comme on ne dispose d’aucun moyen pour savoir quelles grosseurs vont se montrer dangereuses, elles sont toutes retirées, parfois inutilement.

On fait donc subir à des femmes des opérations lourdes… et superflues.

Aux yeux des chercheurs, la mammographie devient plus néfaste que bénéfique.

Le sujet fait débat auprès des spécialistes depuis plusieurs années, qui sont divisés sur cette question.

Si certains appellent à stopper les dépistages par mammographie, d’autres estiment qu’ils sauvent malgré tout des vies et qu’il faut donc les poursuivre.

Cette nouvelle étude, imposante, alimente donc de nouveau la polémique.

Repost 0
Published by Jean-Pierre LABLANCHY - CHRONIMED - dans Concept
commenter cet article
14 janvier 2017 6 14 /01 /janvier /2017 10:11

Alternative à l'amalgame dentaire pour soigner une carie : stimuler les capacités naturelles de la dent à se réparer toute seule, en activant les cellules souches de la pulpe.

C'est ce que pourrait faire le Tideglusib, un médicament anti-Alzheimer capable de régénérer la dent chez des souris.

La dentine des dents est produite par des cellules spécialisées : les odontoblastes.

Lorsqu’une carie se développe sur une dent ou que celle-ci est cassée, de la dentine est perdue. Le tissu de la pulpe peut alors être exposé à l’extérieur et s’infecter.

Un processus de réparation naturel est activé en mobilisant des cellules souches de la pulpe.

Mais ce mécanisme ne répare que de petits trous dans la dentine.

C'est pourquoi les dentistes utilisent des amalgames dentaires qui comblent les trous laissés par les caries et restent dans la dent.

Mais pour Paul Sharpe, du King’s College de Londres, « la dent n'est pas seulement un morceau de minéral, elle a sa propre physiologie. Vous remplacez un tissu vivant avec un ciment inerte.

Les obturations fonctionnent bien, mais si la dent peut se réparer elle-même, c'est sûrement la meilleure solution ».

En effet, les amalgames ont aussi des inconvénients : ils peuvent s’éroder, se détacher et favoriser l’infection de la dent.

Du point de vue moléculaire, quand un tissu est endommagé, une voie de signalisation (Wnt/β-cat) est activée et stimule la réparation.

Une des enzymes clés dans la voie de transduction du signal est GSK-3 (glycogen synthase kinase 3).

Des inhibiteurs de GSK-3 ont été développés pour favoriser l’activité de Wnt.

Le Tideglusib est un de ces antagonistes de GSK-3.

Ce médicament est étudié dans des essais cliniques pour le traitement d’Alzheimer ; il a montré qu’il était sans danger lors des essais cliniques, ce qui en fait un bon candidat pour une réparation des dents.

Les dents des souris régénèrent la dentine grâce au Tideglusib

Pour savoir si ce médicament pouvait régénérer la dent, les chercheurs ont percé des trous dans des dents de souris.

Puis ils ont inséré une éponge biodégradable imprégnée de médicament et fermé la dent avec un adhésif dentaire.

Les éponges de collagène utilisées sont autorisées en clinique.

Quand les dents des souris ont été observées plusieurs semaines plus tard, l’éponge s’était dégradée et avait été remplacée par une nouvelle dentine : la dent était capable de se reconstruire d’elle-même.

Reste à savoir si la méthode fonctionnera chez l’Homme, chez qui les trous risquent d’être plus grands.

D’après The Guardian, l’équipe teste ce dispositif chez le rat dont les dents sont quatre fois plus grandes que celles des souris.

Le Tideglusib offre donc un espoir d'obtenir un jour un traitement simple et peu couteux contre les caries.

Mais malheureusement il ne vous permettra pas d'échapper à la roulette du dentiste : celui-ci devra toujours l’utiliser pour retirer les parties de la dent qui doivent être enlevées.

Les résultats sont publiés dans Scientific Reports.

Repost 0
Published by Jean-Pierre LABLANCHY - CHRONIMED - dans Infections froides Concept
commenter cet article
14 janvier 2017 6 14 /01 /janvier /2017 10:06

C'est la première fois en France qu'un tel classement est mis en place : celui des facs françaises en fonction de leur indépendance vis-à-vis de l'entreprise pharmaceutique.

L'occasion de faire un point sur la réalité de ces conflits d'intérêts.

Un palmarès inédit vient d’être publié, le 9 janvier 2016, dans la revue en accès libre PLoS ONE : celui des universités françaises de médecine en fonction de leur rapport avec les laboratoires pharmaceutiques.

Et la plus indépendante est... la faculté de Lyon-Est avec un score de 5 points (sur 26).

Celle d’Angers arrive en deuxième position, avec 4 points. Suivent sept établissements ex æquo, avec chacun 1 point : Aix-Marseille, Lyon-Sud, Paris-Descartes, Paris-Diderot, Rennes 1, Strasbourg et Toulouse-Purpan.

Les 28 autres universités se sont vues attribuer un zéro, n'ayant pas répondu au questionnaire.

Les critères ? 13 en tout, issus pour la plupart de ce qui est réalisé aux Etats-Unis par l'Association américaine des étudiants de médecine depuis 2007 : cela va de la "résistance" aux cadeaux - dont les repas - offerts par l’industrie pharmaceutique, le niveau d’encadrement des liens d’intérêts des enseignants, l’existence de formations de sensibilisation des étudiants sur cette question, ou encore la tolérance aux financements des fabricants de médicaments.

Ce classement a été mis en place par le Formindep, collectif de médecins militant pour une formation médicale indépendante.

Il en est encore à ses balbutiements puisque seulement trois doyens ont accepté de répondre à ses questions.

Mais la problématique des conflits d'intérêts entre facultés de médecine et laboratoires pharmaceutiques est un vrai enjeu - le scandale du Mediator en étant la preuve- et ce classement invite à mieux comprendre la promotion pharmaceutique et comment y répondre.

"La faculté de médecine est l'endroit où la distribution de cadeaux commence"

L'OMS alertait dès 2009 sur l'influence de la promotion pharmaceutique sur le milieu médical et ce dès l'université.

Dans un rapport, traduit en français par la Haute Autorité de santé en 2013, elle constatait que les étudiants en médecine et pharmacie étaient souvent en contact avec des représentants de l'industrie pharmaceutique dès les premières années de leur cursus.

L'OMS prend l'exemple des Etats-Unis où "les étudiants en médecine de troisième année recevraient en moyenne chaque semaine un cadeau ou assisteraient à une activité financée par une entreprise pharmaceutique, et plus de 90 % d'entre eux avaient été invités par des membres de la faculté à participer à des déjeuners financés par une entreprise pharmaceutique".

De l'autre côté, l'OMS y dénonce le trop peu de formation ou de sensibilisation des étudiants sur les effets de ces interactions ou la façon de les gérer : "en général moins d'une journée – certaines écoles y consacrant à peine une à deux heures".

Autre problème soulevé dans ce rapport, la croyance erronée par les étudiants que la promotion pharmaceutique n'influencerait en rien leur prescription.

Ils sont nombreux à déclarer accepter régulièrement des cadeaux tout en désapprouvant le principe.

Mais les étudiants ne sont pas les seuls concernés. Les enseignants, en cumulant plusieurs activités, ou se faisant financer des conférences et des publications, contribueraient à cette promotion pharmaceutique.

Autre pratique mal connue mais pas des moindres : le ghost writting, où les publications de recherches ayant des auteurs universitaires sont en fait écrites par des employés d’entreprises pharmaceutiques ou des sociétés de communication médicale travaillant pour des entreprises pharmaceutiques.

Quant aux facultés,"Certains représentants d'industries pharmaceutiques siègent dans leurs conseils d'administration.

Et des laboratoires financent ou sont même membres fondateurs de leurs fondations", dénonce Jean-Sébastien Borde, médecin et membre du collectif Formindep.

Comment garder son indépendance face aux laboratoires pharmaceutiques?

L'Association Nationale des Etudiants en Médecine de France a elle aussi voulu lutter contre ce risque en distribuant aux étudiants pour la rentrée 2016/2017 près de 8 000 livrets sur le thème "pourquoi garder son indépendance face aux laboratoires pharmaceutiques" médiatisé via cette vidéo ci-dessous d'une association la troupe du rire :

Ainsi pour les étudiants, cela commence par la formation. Pour les facultés, "l'une des premières mesures recommandées serait que chaque faculté de médecine établisse une charte de gestion des conflits d'intérêts, qu'il y ait une véritable politique publique", préconise le médecin Jean-Sébastien Borde du collectif Formindep.

Ce dernier est optimiste: "C'est le premier classement, il va créer une émulation comme cela s'est passé aux Etats-Unis depuis 2007".

Il n'a pas tort.

Le jeudi 12 janvier 2016, le président de la Conférence des doyens des facultés de médecine, Jean-Luc Dubois-Randé, dans un communiqué de presse, prend acte de la "faiblesse des actions entreprises pour exiger une plus grande transparence" des universités à l'égard de l’industrie du médicament et admet "qu'il faut aller plus loin".

Repost 0
Published by Jean-Pierre LABLANCHY - CHRONIMED - dans Concept
commenter cet article
14 janvier 2017 6 14 /01 /janvier /2017 09:09

En mesurant dans le sang le TMAO, une molécule produite par le microbiote pendant la digestion, il serait possible de prévoir jusqu'à 7 ans à l'avance les accidents cardiaques, selon une étude américano-suisse.

L’oxyde de triméthylamine (TMAO), un produit issu de la transformation de certains aliments par les bactéries intestinales (microbiote), serait un bon indicateur de futurs incidents cardiaques.

Sa concentration sanguine, mesurée chez des patients ayant déjà eu une alerte, serait, en effet, annonciatrice d’évènements graves dans les mois qui suivent, voire de décès.

Tel est le résultat obtenu par les chercheurs de l’Université de Cleveland (Etats-Unis), menés par Stanley Hazen, et par différents hôpitaux suisses dont l’hôpital universitaire de Zurich et publié dans l’European Heart Journal. TMAO.

Les chercheurs proposent donc d'associer un nouveau test à la "panoplie" déjà existante et utilisée lors d'une suspicion de syndrome coronarien aigu (obstruction des artères coronaires) ou d'infarctus du myocarde : examen clinique, électro-cardiogramme et dosage biologique (Troponine).

Ces examens, pratiqués aux urgences, viennent en effet confirmer ou non le diagnostic et induire un traitement lorsqu'un patient se présente avec des symptômes inquiétants (douleur à la poitrine, au cou, aux épaules et au dos, essoufflement, nausées, perte de conscience...).

Désormais, il pourrait donc y avoir, en plus, le dosage du TMAO.

Un "outil additionnel" pour la prédiction Le TMAO est produit par les bactéries intestinales lorsqu’on ingère des aliments riches en lécithine et phospholipides choline tels que la viande rouge, les œufs ou les produits laitiers.

Des études antérieures ont montré qu'il était impliqué dans le développement de l’athérosclérose, dépôt de plaque lipidique dans les artères (voir schéma).

En 2013, l’équipe de Stanley Hazen avait démontré dans une étude du New England Journal of Medicine (4007 personnes suivies en cardiologie sur 3 ans) que sa présence dans le plasma et les urines étaient prédictifs d’accidents cardiovasculaires.

Cette même équipe de Cleveland, associée à des hôpitaux suisses, ont ensuite observé deux cohortes de patients (2213), américains et suisses, arrivés aux urgences avec une douleur thoracique.

Ceux-ci ont alors bénéficié, en plus des tests classiques, d'une mesure du taux plasmatique de TMAO avant d'être suivis pendant plusieurs années.

Résultat : les patients dont le niveau de TMAO plasmatique initial était le plus élevé se sont avérés les plus à risque de faire un incident cardiaque majeur dans les 30 jours à 6 mois suivant le test.

Le niveau de TMAO était également plus élevé parmi ceux qui sont décédés dans les sept années suivantes !

« L’étude démontre pour la première fois que les niveaux de TMAO sont associés à un risque à moyen terme d’incidents cardiaques majeurs mais aussi à une mortalité à long terme, parmi des patients ayant un syndrome coronariens aigu", explique Thomas Fusher de l’Université de Zurich, co-auteur de l’étude.

Les auteurs concluent que le dosage du TMAO du microbiote pourrait donc devenir "un outil additionnel pour la prédiction".

En attendant, les cardiologues font-ils aussi des recommandations alimentaires pour faire baisser naturellement le taux de TMAO ?

"Les résultats ne sont pas encore clairs sur ce point, répond Thomas Fusher.

Pour cela, nous devons poursuivre nos travaux".

Un produit sanguin produit par le microbiote permet de prédire les accidents cardiaques jusqu'à 7 ans auparavant. La TMAO.
Repost 0
Published by Jean-Pierre LABLANCHY - CHRONIMED - dans Infections froides Nutrition
commenter cet article
13 janvier 2017 5 13 /01 /janvier /2017 22:56

Doctors and members of the medical community are raising concerns after President-elect Donald Trump met with Robert F. Kennedy Jr., who has advocated for parental opt-out provisions for routine childhood vaccinations.

"President-elect Trump has some doubts about the current vaccine policies, and he has questions about it," Kennedy told reporters immediately after the meeting on Tuesday.

"His opinion doesn't matter, but the science does matter, and we ought to be reading the science, and we ought to be debating the science. Everybody ought to be able to be assured that the vaccines that we have — he's very pro-vaccine, as am I — but they're as safe as they possibly can be." Kennedy also told reporters that Trump asked him to chair a commission on vaccine safety, but the Trump team did not confirm that appointment and said the president-elect was exploring a commission that would look broadly at autism.

"The president-elect enjoyed his discussion with Robert Kennedy Jr. on a range of issues and appreciates his thoughts and ideas," the Trump transition team said in a statement.

"The president-elect is exploring the possibility of forming a commission on autism, which affects so many families; however, no decisions have been made at this time.

The president-elect looks forward to continuing the discussion about all aspects of autism with many groups and individuals."

The meeting, coupled with Trump's past statements on vaccines, has raised alarm in the medical community, which stands by a preponderance of evidence that shows no link between autism and vaccines.

Kennedy has made controversial statements about vaccines for many years, generally unsupported by the larger medical community.

He wrote a 2014 book that supported a theory born in the 1990s that claimed thimerosal, a mercury-based vaccine additive, is a dangerous neurotoxin that could trigger autism and should be banned.

Kennedy has linked vaccines and autism on his website.

The Food and Drug Administration and Centers for Disease Control and Prevention have reviewed hundreds of studies since then and have consistently found no link between thimerosal-containing vaccines and autism.

The additive is no longer used in routine childhood vaccines and is considered safe in the doses used in influenza vaccines, according to the CDC. In 2015,

Kennedy visited several states to argue against rules that make it more difficult for students to be exempt from vaccine requirements, although he said he is "pro-vaccine," according to his website. In response to Trump's meeting with Kennedy, the American Academy of Pediatrics released a statement emphasizing the safety of vaccines and their importance in safeguarding children's health against common, easily spread and sometimes deadly childhood illnesses.

"Claims that vaccines are linked to autism or are unsafe when administered according to the recommended schedule have been disproven by a robust body of medical literature," said Dr. Fernando Stein and Dr. Karen Remley, the president and vice president, respectively, of the American Academy of Pediatrics, in a statement today.

"Delaying vaccines only leaves a child at risk of disease. Vaccines keep communities healthy and protect some of the most vulnerable in our society, including the elderly and children who are too young to be vaccinated or have compromised immune systems."

"We stand ready to work with the White House and the federal government to share the extensive scientific evidence demonstrating the safety of vaccines, including the recommended schedule," Stein and Remley wrote.

Could Donald Trump Autism Comments Hurt Him? Experts Call Republican Candidates' Vaccine Claims 'False' and 'Dangerous' Dr. William Schaffner, an infectious disease expert at Vanderbilt University Medical Center, said he was hopeful about a commission on autism and hoped it would leave out any mention of vaccines.

"A commission on autism might well be a very good thing to direct attention" to the condition, he said. But "as regards to vaccines, we would keep reinforcing the notion that vaccines are one of the greatest public health triumphs, they are safe and effective and not associated with autism."

Other medical groups have also responded to the meeting, including the Infectious Diseases Society of America, which released a statement in support of vaccines this morning saying the group "stands behind the overwhelming scientific evidence that has repeatedly demonstrated the overall safety and benefit of routine childhood vaccinations."

"Children are far more likely to be harmed by vaccine preventable illness, such as measles, than by the vaccines that prevent such infections,"

IDSA officials said in the statement. Trump previously expressed skepticism about vaccines. During a 2015

Republican candidates' debate Trump reiterated statements he had made associating autisme with vaccines.

"We had so many instances, people that work for me," Trump said.

"Just the other day, 2 years old, a beautiful child, went to have the vaccine and came back and a week later got a tremendous fever, got very, very sick, now is autistic."

"Autism has become an epidemic — 25 years ago, 30 years ago, you look at the statistics, not even close," he said.

"It has gotten totally out of control." Alison Singer, the president and a co-founder of the Autism Science Foundation, released a statement after that debate saying science overwhelmingly supported vaccinations as safe. In a statement yesterday she said she is concerned that underimmunizing children will put them at risk for contracting preventable diseases, adding that opting out of vaccinations will not lower the risk for developing autism.

"Science has answered" the question, Singer said. "All of the studies that we have done have shown there is no link between vaccines and autism."

Repost 0
Published by Jean-Pierre LABLANCHY - CHRONIMED - dans Infections froides
commenter cet article
13 janvier 2017 5 13 /01 /janvier /2017 15:40

Le profilage métabolique indique une déficience de la fonction pyruvate déshydrogénase dans l'encéphalopathie myalgique et/ou le syndrome de fatigue chronique

 


Øystein Fluge, 1 Olav Mella, 1,2 Ove Bruland, 1,3 Kristin Risa, 1 Sissel E. Dyrstad, 4 Kine Alme, 1 Ingrid G. Rekeland, 1 Dipak Sapkota, 1 Gro V. Røsland, 4 Alexander Fosså, 5 Irini Ktoridou-Valen, 1 Sigrid Lunde, 1 Kari Sørland, 1 Katarina Lien, 6 Ingrid Herder, 6 Hanne Thürmer, 7 Merete E. Gotaas, 8 Katarzyna A. Baranowska, 8 Louis MLJ Bohnen, 9 Christoph Schäfer, 9 Adrian McCann, 10 Kristian Sommerfelt, 11 Lars Helgeland, 12 Per M. Ueland, 2,10 Olav Dahl, 1,2 et Karl J. Tronstad4


Publié le 22 décembre 2016
 


L'encéphalopathie myalgique / le syndrome de fatigue chronique (ME / SFC) est une maladie débilitante d'étiologie inconnue, avec des symptômes distinctifs incluant un malaise postérieur et une mauvaise récupération.

 

Le dysfonctionnement métabolique est un facteur contributif plausible.

 

Nous avons émis l'hypothèse que des changements dans les acides aminés du sérum peuvent révéler des défauts spécifiques dans le métabolisme énergétique dans ME / CFS.

 

L'analyse chez 200 patients ME / SFC et 102 sujets sains a montré une réduction spécifique des acides aminés qui alimentent le métabolisme oxydatif via le cycle TCA, principalement chez les femmes ME / SFC.

 

Le sérum 3-méthylhistidine, marqueur du catabolisme endogène des protéines, a été significativement augmenté chez les hommes.

 

Le profil d'acides aminés suggère une altération fonctionnelle de la pyruvate déshydrogénase (PDH), supportée par une augmentation de l'expression de l'ARNm des PDH kinases inhibitrices 1, 2 et 4; Sirtuin 4; Et PPARδ dans les cellules mononucléaires du sang périphérique des deux sexes.

 

Les myoblastes cultivés en présence de sérum de patients atteints de ME / SFC sévère ont montré des adaptations métaboliques, y compris une augmentation de la respiration mitochondriale et une sécrétion excessive de lactate.

 

Les changements d'acides aminés ne pouvaient pas être expliqués par la gravité des symptômes, la durée de la maladie, l'âge, l'IMC ou le niveau d'activité physique chez les patients.

 

Ces résultats concordent avec la présentation clinique de ME / SFC, avec une production inadéquate d'ATP par phosphorylation oxydative et une production excessive de lactate par effort.
 


L'encéphalopathie myalgique et le syndrome de fatigue chronique sont une maladie mal connue d'une étiologie inconnue qui affecte 0,1% -0,2% de la population, selon les critères de consensus canadiens.

 

Par rapport à de nombreuses autres maladies chroniques, les patients atteints de ME / SFC ont une moindre qualité de vie, avec des implications majeures pour les patients et leurs familles et pour la société.

 

Des recherches récentes suggèrent que la ME / SFC est associée à des changements dans les processus fondamentaux du métabolisme énergétique.

 

Il est important de noter que de tels changements métaboliques peuvent découler de mécanismes de réponse physiologique dysrégulés qui peuvent être pertinents dans la ME / SFC, comme l'activation immunitaire, l'inflammation et la signalisation médiée par les récepteurs.

 

Cependant, il n'existe pas de données cohérentes indiquant un défaut métabolique commun qui pourrait expliquer les symptômes chez ces patients.

 

L'identification des mécanismes responsables est urgente pour comprendre la pathophysiologie de la maladie et pour le développement de stratégies cliniques pour diagnostiquer et traiter les patients.


Les principaux symptômes de la MME / SFC sont la fatigue, le malaise postérieur et le manque de restitution adéquate après repos ou sommeil, accompagnés de troubles cognitifs et d'hypersensibilité sensorielle, y compris la douleur.

 

L'intensité des symptômes est augmentée par l'effort.

 

Les patients souffrent fréquemment de symptômes supplémentaires attribués au système nerveux autonome ou au système cardiovasculaire, tels que des étourdissements et des palpitations, des mains et des pieds froids, perturbé la température corporelle perçue, la soif, l'intestin irritable et l'urgence urinaire.

 

Les symptômes immunitaires comprennent des maux de gorge récurrents et des ganglions lymphatiques tendres.

 

Dans plusieurs études, les patients ME / CFS ont démontré une capacité fonctionnelle réduite dans les tests cardiorespiratoires répétés par rapport aux témoins sains.

 

Ces observations suggèrent que l'intolérance systémique à l'effort dans le ME / SFC peut, au moins en partie, impliquer un passage à la glycolyse anaérobie, avec la production de lactate à un seuil de charge de travail significativement inférieur à celui observé chez les sujets sains. Des concentrations accrues de lactate ont été trouvées dans le liquide céphalo-rachidien des patients ME / SFC.

 

Toutefois, les anomalies de l'utilisation du glucose et de la production de lactate ne sont pas évidentes en raison d'analyses systématiques des échantillons de sang, peut-être parce que l'échantillonnage est effectué dans des conditions de repos sans exercice physique préalable.
Des modifications des concentrations sériques (ou plasmatiques) de certains acides aminés ont été rapportées chez des patients atteints de MME / SFC.

Une étude des niveaux d'acides aminés sériques dans 11 patients atteints du SFC et 10 témoins sains, utilisant la spectroscopie de résonance magnétique nucléaire, a montré des niveaux significativement plus faibles des acides aminés glutamine (Gln) et ornithine chez les patients, indiquant une possible perturbation du métabolisme des acides aminés et de l'azote).

 

De plus, les mêmes auteurs ont trouvé des niveaux sériques de glutamate (Glu) et de phénylalanine (Phe) significativement réduits dans 34 femmes ME / SFC comparativement à 25 patients sains

 

 

http://insight.jci.org/articles/view/89376

Repost 0
Published by Jean-Pierre LABLANCHY - CHRONIMED - dans Concept
commenter cet article
13 janvier 2017 5 13 /01 /janvier /2017 08:32

Avantages pour la santé des méthylxanthines dans les maladies neurodégénératives.

Article de révision Oñatibia-Astibia A, et al. Mol Nutr Food Res. 2017.

Les Methylxanthines (MTXs) sont consommés par presque tout le monde dans presque toutes les régions du monde.

La caféine, la théophylline et la théobromine sont les membres les plus connus de cette famille de composés;

Elles sont présentes, entre autres, dans le café, le thé, le cacao, le yerba mate et les boissons au cola.

Les MTX sont facilement absorbées dans le tractus gastro-intestinal et sont capables de pénétrer dans le système nerveux central, où ils exercent des actions significatives de psychostimulant, qui sont plus évidents par l'ingestion aiguës.

Le café a été paradigmatique, car son utilisation a été interdite dans de nombreuses maladies, cependant, cette vision négative a radicalement changé;

La preuve montre que les méthylxanthines présentent des bienfaits pour la santé dans les maladies impliquant la mort cellulaire dans le système nerveux.

Cet article examine les données qui évaluent le potentiel préventif et même thérapeutique des MTX dans une variété de maladies neurodégénératives.

Les perspectives comprennent l'utilisation des MTX pour améliorer la compréhension de la pathophysiologie de la maladie d'Alzheimer (AD) et de la maladie de Parkinson (PD), et de l'utilisation de la fraction chimique de la méthylxanthine comme base pour le développement de médicaments nouveaux et plus efficaces .

Repost 0
Published by Jean-Pierre LABLANCHY - CHRONIMED - dans Concept
commenter cet article