Overblog Suivre ce blog
Administration Créer mon blog
17 janvier 2017 2 17 /01 /janvier /2017 09:07

Carl Sagan et Hubert Reeves ont raison : nous sommes bien des poussières d'étoiles

La distribution des principaux éléments constitutifs de la vie sur Terre a été étudiée pour plus de 150 000 étoiles dans la Voie lactée.

Le corps humain se compose à 97% de six éléments regroupés sous l'acronyme CHNOPS, pour carbone, hydrogène, azote, oxygène, phosphore et soufre.

Ces éléments sont formés au cœur des étoiles si bien que de nombreux ouvrages de vulgarisation ont repris l'expression de l'astronome Carl Sagan qui nous qualifiait de "poussières d'étoiles".

Une vaste étude portant sur des étoiles de la Voie Lactée corrobore une nouvelle fois cette maxime.

Des proportions différentes Les astronomes du Sloan Digital Sky Survey (SDSS), un programme de relevé des objets célestes lancé en 2000, ont utilisé le spectrographe APOGEE du télescope de 2,5 mètres installé au Nouveau-Mexique pour mesurer la distribution des CHNOPS sur près de 165 000 étoiles réparties au sein de la Voie Lactée.

"C'est la première fois que nous pouvons étudier la distribution de ces éléments à travers notre galaxie pour un si grand nombre d'étoiles", souligne Sten Hasselquist de l'université du Nouveau-Mexique.

Fonctionnant dans le proche infrarouge, APOGEE perce les nuages de gaz et de poussières qui parasitent les observations pour obtenir un spectre "propre".

Sciences et Avenir Sciences et Avenir15 janvier 2017

Repost 0
Published by Jean-Pierre LABLANCHY - CHRONIMED - dans Concept
commenter cet article
16 janvier 2017 1 16 /01 /janvier /2017 13:31

Au bout du rouleau : l’histoire, édifiante, du généraliste de Brest qui va dévisser sa plaque

 

C’est une histoire que l’on pouvait lire le 14 janvier dans Le Télégramme : « La colère d’un médecin breton » (Catherine Le Guen). Qu’un quotidien de la presse quotidienne régionale puisse publier un tel témoignage en dit long sur la dégradation de la situation générale. Pour des raisons, indirectes, de confidentialité Le Télégramme a changé son nom. Ce sera le « Dr Paul. »:

« Installé à Brest depuis 1981, le Dr Paul, médecin généraliste, va bientôt partir à la retraite, sans avoir pu trouver un successeur. Avant, il veut témoigner des difficultés de la profession et tenter de faire bouger les choses, lui qui a vécu le choc de perdre son associé suite à un épuisement professionnel.

« ‘’Je suis en colère et je veux créer un électrochoc chez les médecins – il y en a beaucoup qui ne vont pas bien – mais aussi au niveau des politiques et de la population en témoignant sur la situation actuelle de la profession. Il faut casser le tabou et parler du suicide des médecins’’, témoigne-t-il ».

Son cabinet médical est situé dans un quartier agréable de Brest. Solitaire : il ne pouvait plus assurer le salaire de la secrétaire qui a dû être licenciée. Et le jeune médecin de 35 ans venu collaborer quelques mois après le décès de son associé est lui aussi reparti.

« Avant l’été, il aura dévissé sa plaque et le cabinet médical, pourtant récent et aux normes pour l’accessibilité des personnes handicapées, devra trouver une autre destination. D’autres confrères brestois ont déjà mis la clef sous la porte sans suite.

« ‘’Les jeunes médecins ne veulent plus s’installer, ils préfèrent faire des remplacements. Même à Brest, une ville universitaire ! Mais on ne parle jamais des raisons’’, ajoute le médecin qui a écrit des dizaines de courriers aux autorités de santé, sans réponse. ‘’Seul le directeur de la CPAM du Finistère m’a reçu et écouté pendant une heure’’ ».

La foi et le Vatican

Le temps, finalement, est passé trop vite. En début de carrière, le Dr Paul passait entre dix et quinze minutes avec chaque patient. « Quand il a fallu passer cinq minutes avec le patient et dix minutes avec les papiers à remplir, j’ai décidé de prendre vingt minutes par patient ».

« En 2013, j’étais moi-même au bord du burn-out et j’avais affiché dans la salle d’attente un texte où je parlais des cinquante médecins qui se suicident chaque année en France, de la pression administrative, mais aussi de celle des patients, de leurs demandes urgentes non justifiées et de l’agressivité réservée souvent à la secrétaire ». Un texte qui se terminait par ‘’Un médecin, si on veut être bien soigné, ça se respecte, mais si on lui met trop la pression, il peut aussi craquer’’. »

Pour le médecin brestois la désertification médicale n’est pas liée au « climat » ou à l’«isolement des villages ». « Les jeunes ont peur de tout ce qu’on nous impose, des contraintes administratives, du tiers payant qu’on a pourtant combattu et qui va accentuer la pression, dit-il. Et surtout ils nous voient fatigués ! ». La fatigue, voilà l’ennemie. Installé avec l’arrivée de la gauche au pouvoir le Dr Paul va partir avec la prochaine élection présidentielle. Trente-six ans de fatigues.

Demain, dans Ouest-France, les confidences d’un curé au bout du rouleau ? Un prêtre expliquant qu’au terme de son sacerdoce il a, du fait du Vatican, perdu la foi ?

Repost 0
Published by Jean-Pierre LABLANCHY - CHRONIMED - dans Concept
commenter cet article
15 janvier 2017 7 15 /01 /janvier /2017 11:23

L'effet des poils du visage et du genre sur la dispersion des bactéries sur un sujet porteur de masque chirurgical.

Auteurs H. A. McLure, M. Mannam, C. A. Talboys, B. S. Azadian, S. M. Yentis H. A. McLure, Magill Département d'Anesthésiques

Les masques chirurgicaux empêchent la dispersion des bactéries des voies aériennes supérieures aux surfaces immédiatement en face et en dessous du visage pendant la conversation.

Cependant, le masquage entraîné aussi une augmentation de la dermabrasion et de la contamination bactérienne des surfaces immédiatement au-dessous du visage.

Les poils du visage et le rasage récent peuvent altérer la quantité de particules déversées par dermabrasion lorsque le masque est agité.

Nous avons étudié l'effet du masquage chez 10 sujets barbus et 10 sujets mâles rasés, et 10 sujets féminins. En agitant le masque, les mâles barbus (p = 0,03) et les femelles (p = 0,03), mais pas chez les mâles rasés, ont augmenté de façon significative le degré d'excrétion bactérienne sur les plaques de gélose 15 cm sous les lèvres.

Au repos, sans masque, les sujets barbus ont perdu beaucoup plus de bactéries que les mâles rasés (p = 0,01) ou les femelles (p = 0,001).

Pour réduire les risques de contamination du champ stérile lorsque les masques sont portés, les femelles et les mâles barbus doivent éviter de bouger le masque.

Les mâles barbus peuvent également envisager de retirer leurs barbes.

Repost 0
Published by Jean-Pierre LABLANCHY - CHRONIMED - dans Infections froides
commenter cet article
15 janvier 2017 7 15 /01 /janvier /2017 11:11

The Water in Your Glass Might Be Older Than the Sun The water you drink is older than the planet you’re standing on.

Earth is old.

The sun is old.

But do you know what may be even older than both?

Water.

It’s a mystery how the world became awash in it.

But one prevailing theory says that water originated on our planet from ice specks floating in a cosmic cloud before our sun was set ablaze, more than 4.6 billion years ago.

As much as half of all the water on Earth may have come from that interstellar gas according to astrophysicists’ calculations.

That means the same liquid we drink and that fills the oceans may be millions of years older than the solar system itself.

The thinking goes that some of the ancient ice survived the solar system’s chaotic creation and came to Earth.

To demonstrate that, researchers analyzed water molecules in oceans for indicators of their ancient past.

The clue comes in the form of something known as “heavy water.” Water, as you know, is made up of two hydrogen atoms and one oxygen atom.

But some water molecules contain hydrogen’s chunky twin, deuterium. (It contains a neutron in its nucleus, whereas regular hydrogen does not.)

Deuterium-rich water is found on other planets and moons, even here on Earth, but researchers are not sure where it came from.

One idea is that much of the heavy water formed in the interstellar cloud and then traveled across the solar system.

Using a computer model, the scientists showed in a 2014 paper that the billions-of-years-old ice molecules could have survived the sun’s violent radiation blasts, and gone on to bathe a forming Earth and its cousins.

They concluded that remnants of that ancient ice remain scattered across the solar system: on the moon, in comets, at Mercury’s poles, in the remains of Mars’ melts, on Jupiter’s moon Europa — and even in your water bottle. Now that’s something to raise your glass to.

Plants will remember if you mess with them enough and yes, you are at the center of the universe.

Mars Shows Signs of Having Flowing Water, Possible Niches for Life, NASA Says SEP 28, 2015 More In Science

Repost 0
Published by Jean-Pierre LABLANCHY - CHRONIMED - dans Concept
commenter cet article
14 janvier 2017 6 14 /01 /janvier /2017 18:21

L'héritage d'Einstein est bien vivant, la preuve : l'une de ses tentatives pour unifier la physique des particules de matière avec celle des champs de force contient peut-être en germe une des clés de la solution de l'énigme de l'énergie noire en physique quantique.

Comme expliqué dans un précédent article introductif sur la géométrie non-commutative en physique,

Albert Einstein a très tôt entrepris d’aller au-delà de sa propre théorie de la relativité générale. L'objectif était double car il s'agissait non seulement de découvrir une théorie unifiée qui aurait réuni le champ de gravitation avec le champ électromagnétique au sein d'un seul champ mais également une théorie non dualiste de la matière et des champs.

Rappelons qu'en ce qui concerne les particules de matière à la fin des années 1910, cela voulait dire les protons et les électrons, puisque le neutron, les neutrinos et les mésons étaient alors inconnus.

Avant sa formulation finale de la théorie de la relativité générale, en novembre 1915, Einstein avait déjà réfléchi, comme plusieurs de ses contemporains et en particulier Poincaré, à des modèles décrivant la structure et les propriétés des particules chargées, en l’occurrence, les électrons.

Poincaré avait montré que l’on pouvait retrouver plusieurs phénomènes liés aux propriétés de l’électron en le considérant comme une répartition étendue de charge qui n’explosait pas sous l’effet de la répulsion électrostatique de ses parties si l’on supposait qu’une autre force s’y opposait.

En 1919, Einstein avait été conduit à modifier légèrement les équations de la relativité générale, dans le cadre de ses recherches sur une théorie non dualiste de la matière et du champ (supposant donc que les particules sont des concentrations d’énergie dans un champ unitaire et pas des objets étrangers à ce champ qu’il fallait postuler).

Il avait alors obtenu pour la première fois ce que les physiciens actuels appellent la théorie unimodulaire de la gravitation.

Le vide en physique est un concept difficile à définir. On pourrait penser qu'il désigne l’absence de tout, mais en mécanique quantique il semblerait que cela ne soit pas vraiment le cas… Futura-Sciences a interviewé Claude Aslangul sur ce sujet.

L'énergie noire est la pire prédiction de la physique théorique

Magiquement, cette théorie prédisait l’existence d’une force de pression issue de la gravité capable de jouer le rôle, en théorie du moins, de la force postulée par Poincaré.

On peut montrer que cette théorie reproduit bon nombre des prédictions de la relativité générale, sauf qu’elle peut conduire à des violations de la conservation de l’énergie !

Nous n’avons pas de raisons valables de douter de cette loi, très bien vérifiée par l’expérience, mais cela n’a pas empêché les physiciens, qui ne sont ni dogmatiques ni étouffés par une soi-disant pensée unique, d’explorer plusieurs théories qui d’une façon ou d’une autre peuvent conduire à des violations de la conservation de l’énergie. Il existe par exemple des modifications des équations de la mécanique quantique, notamment dans l'étude de l’évaporation des trous noirs par rayonnement Hawking, qui viole cette conservation de l’énergie.

Indépendamment de cette problématique, le physicien Lee Smolin, entre autres, a montré que la théorie unimodulaire de la gravité contenait peut-être la solution d’une énigme parfois considérée comme la pire prédiction de la physique.

En effet, la théorie quantique tend à prédire que les champs de matière et de forces possèdent une énergie minimale colossale, c’est-à-dire qu’ils doivent se manifester sous la forme d’une densité d’énergie du vide quantique, la fameuse énergie noire, possédant une valeur extraordinairement élevée.

Problème, la valeur calculée de cette énergie est 10120 fois plus élevée (1 avec 120 zéros !) que ce que montrent les observations depuis 1998.

On a bien du mal à produire des théories qui s’accordent avec cette observation et elle est troublante à plus d’un titre car selon la théorie d’Einstein, comme Pauli l’avait compris dès les années 1920 (voir l’article ci-dessous), une telle densité d’énergie doit tellement courber l’espace sur lui-même qu’il serait plus petit que la Terre.

Or il semble bel et bien que la théorie unimodulaire de la gravité supprime automatiquement l’effet de l’énergie du vide sur la courbure de l’espace-temps, tout en introduisant une constante cosmologique qui se manifeste par une accélération de l’expansion de l’univers observable depuis quelques milliards d’années. Giancarlo Ghirardi est un physicien italien bien connu notamment pour la théorie qu'il a proposée en 1985 avec Alberto Rimini et Tullio Weber.

Il nous parle de la théorie quantique.

L'énergie noire et le problème de la mesure en physique quantique

Le journal Science vient d’attirer l’attention sur l’un des derniers travaux qui spéculent sur la pertinence de la théorie proposée par Einstein en 1919. Il s’agit d’un article déposé sur arXiv par trois physiciens, Thibault Josset et Alejandro Perez, de l’université d’Aix-Marseille, en compagnie de leur collègue Daniel Sudarsky, de l’université nationale autonome du Mexique (Universidad Nacional Autónoma de México, UNAM).

Les trois chercheurs montrent que l’on peut connecter la valeur de la constante cosmologique actuelle à la quantité d’énergie non conservée impliquée par la gravité unimodulaire.

Il faut pour cela relier cette violation de la conservation de l’énergie à celle intervenant notamment dans une classe de théories modifiant les équations de la mécanique quantique afin d’expliquer certains de ses paradoxes.

En effet, la théorie quantique autorise en quelque sorte une particule à être en plusieurs endroits à la fois.

Comment se fait-il que nous n’observions rien de tel à l’échelle macroscopique ?

C’est un avatar d’un célèbre problème en physique quantique et qui se cache sous les désignations ésotériques de problème de la réduction du paquet d’onde ou encore de l’effondrement du vecteur d’état, ou, plus sobrement, de problème de la mesure.

En 1985, les physiciens Ghirardi, Rimini et Weber ont proposé un mécanisme impliquant une modification de la théorie quantique et forçant une particule à se localiser au bout d’un temps souvent très long.

L’effet est très faible mais les objets macroscopiques contenant au moins des millions de milliards de milliards de particules et parfois bien plus, le mécanisme est finalement très rapide.

La théorie de Ghirardi-Rimini-Weber a par la suite été étendue et elle a donné finalement ce qu’on appelle la théorie de la localisation continue spontanée ou CSL (pour continuous spontaneous localization).

C’est cette théorie qui a été mise en connexion avec la gravité unimodulaire et la cosmologie.

Tout ceci reste bien sûr très spéculatif.

Pour aller plus loin, il faut explorer toutes les voies ouvertes au-delà de la physique du modèle standard.

De plus, l'idée qu'il est nécessaire de modifier les équations et l'interprétation de la mécanique quantique, en particulier avec l'introduction de phénomènes non linéaires, ce qui est bien le cas avec la théorie CSL, est complétement dans l'esprit d'Einstein.

L'avenir pourrait montrer que le père de la théorie de la relativité, et dans une certaine mesure de la mécanique quantique, avait des décennies d'avance, voire un siècle... Schrödinger et Einstein avaient entrevu l'énergie noire Article de Laurent Sacco publié le 16/12/2012 Albert Einstein a publié en 1917 son modèle d’univers dans lequel il introduisait la désormais célèbre constante cosmologique.

En relisant deux articles concernant un débat entre Einstein et Schrödinger au sujet de cette constante en 1918, un physicien américain s’est rendu compte qu’Einstein avait entrevu la possibilité que sa constante se comporte comme certains modèles d’énergie noire actuels.

Lorsque Albert Einstein a publié en 1917 son premier modèle cosmologique issue des équations de la relativité générale, il avait utilisé une possibilité au départ purement mathématique dictée par la théorie des invariants en géométrie différentielle.

Il s’agissait aussi de trouver des solutions décrivant la géométrie de l’espace-temps à grande échelle produite par une distribution d’étoiles censée représenter l’univers et en accord avec une idée à laquelle Einstein tenait par-dessus tout : le principe de Mach.

Einstein obtenait au final un système d’équations exprimant la structure de l’espace-temps en cosmologie avec une constante notée lambda, ajustée pour contrebalancer par des forces répulsives les forces d’attraction d’une distribution uniforme d’étoiles dans un espace-temps clos, fini et éternel.

Sans ces forces répulsives, l’univers ne serait pas stable, en contradiction avec ce que l’on pensait savoir à l’époque.

La constante d’Einstein allait devenir célèbre et aujourd’hui tout le monde en a entendu parler sous le nom de constante cosmologique.

Erwin Schrödinger et Albert Einstein partageaient bien des choses en commun, comme un intérêt pour la philosophie et une insatisfaction devant l'interprétation orthodoxe de la mécanique quantique. Ils ont travaillé sur des thèmes identiques en relativité générale, de la cosmologie à une théorie unifiée de la gravitation et du champ électromagnétique.

En 1918, Erwin Schrödinger, le futur découvreur de la mythique équation gouvernant le monde de la mécanique quantique, proposa dans un court article de traiter différemment la constante cosmologique d’Einstein.

Non comme un paramètre de la partie des équations d’Einstein traitant de la courbure de l’espace-temps, mais comme l’effet d’une densité de matière ou d’énergie encore inconnue.

En des termes modernes, comme le fait remarquer aujourd’hui le physicien Alex Harvey, professeur à la City University of New York, dans un article publié sur arxiv, Schrödinger introduisait implicitement le concept d’énergie noire en cosmologie.

Schrödinger, précurseur pour le concept d’énergie noire

Le génial Schrödinger arpenta plus tard de nouveaux sentiers de la cosmologie relativiste avec des décennies d'avance.

En effet, en 1939, il a découvert que dans un univers en expansion, les lois de la mécanique quantique et de la relativité générale peuvent conduire à la création de particules.

Il avait donc 30 ans d’avance sur Zel’dovich, Starobinsky et Hawking qui, entre la fin des années 1960 et le milieu des années 1970, ont exploré les conséquences de la théorie quantique des champs en espace-temps courbe au début de l’univers ou au voisinage des trous noirs.

Einstein ne tarda pas à répondre aux remarques de Schrödinger. Il avait bien sûr eu la même idée, mais n’en avait pas parlé dans son article de 1917, parce que cela aurait ouvert la boîte de Pandore.

En effet, si on considère que la constante cosmologique est la manifestation d’une distribution de matière-énergie, il faut admettre qu’elle peut varier dans le temps et dans l’espace selon des lois à déterminer.

En des termes modernes, selon Alex Harvey, Einstein entrevoyait que sa constante devait être remplacée par des équations décrivant un champ scalaire variable dans l’espace-temps, c'est-à-dire quelque chose comme les modèles de quintessence pour l’énergie noire.

Einstein et Pauli en pleine discussion.

Les deux physiciens étaient des maîtres de la théorie de la relativité générale.

L'énigme de la constante cosmologique

Mais comme aucune indication ne permettait de fixer les équations de ce champ, on ne pouvait que se perdre en conjectures stériles.

Il valait mieux considérer dans un premier temps le modèle cosmologique le plus simple possible au niveau des hypothèses.

Quatre-vingts ans plus tard, Saul Perlmutter, Adam Riess et Brian Schmidt, en découvrant l’expansion accélérée de l’univers, allaient ramener le problème considéré par Schrödinger et Einstein sur le devant de la scène.

Un autre problème clairement vu au début des années 1920 par Wolfgang Pauli allait devenir lui aussi encore plus aigu.

Avant même la découverte par Heisenberg, Born et Schrödinger des lois de la mécanique quantique, le jeune Pauli avait compris que les règles de la vieille théorie quantique imposaient que le champ électromagnétique devait contenir tellement d’énergie même en l’absence de propagation de la lumière qu’il aurait dû courber l’espace de l’univers clos d’Einstein de telle sorte qu’il ressemblerait à une sphère de seulement 31 km de rayon environ.

Ce grave problème persiste aujourd’hui lorsque l’on tente de comprendre la nature de l’énergie noire.

Repost 0
Published by Jean-Pierre LABLANCHY - CHRONIMED - dans Concept Les ondes
commenter cet article
14 janvier 2017 6 14 /01 /janvier /2017 17:59

En 2017, l'ILADS fera son congrès européen à Paris (c'est une première !), les vendredi 19 et samedi 20 mai

L'info sera officielle sur le site de l'ILADS dans quelques jours, je vous la donne en avant première ;-) alors SAVE THE DATE !!

Voici le programme (orateurs internationaux avec traduction simultanée, dont 5 francais )

program selection

19 Mai : Introduction: 8h30 Clinical presentations: 8h45-9h25. Co-infections. Jack Lambert, Ireland. 40 min. 9h25-9h35. Discussion 9h35-10h15. Lab testing for Borrelia sp. and co-infections in cancer and in unexplained syndromes. Armin Schwarzbach, Germany. 40 min. 10h15-10h25. Discussion 10h25-10h55. Development of bacteriophages targeted against Borrelia burgdorferi. Louis Teulières, France. 30 min. 10h55-11h05. Discussion 11h05-11h35. Coffee break 11h35-12h15. Neurologic implications in Lyme. Harald Bennefeld , Germany 40min. 12h15-12h25. Discussion 12h25-14h.

Lunch 14h00.

Treatment of autistic children with antimicrobials. 14h00-14h25. Laura Alonso, Spain. 25 min 14h25-14h50. Philippe Raymond, France. 25 min 14h50-15h. Discussion 15h-15h40. Case reports. Marjo Valonen, Finland. 40 min. 15h40-15h50. Discussion. 15h50-16h20. Coffee break 16h20-16h50. Treatment of persistent Lyme disease and co-infections. Use of antiparasitic, antifungal and anti-mycobacterial drugs. Richard Horowitz, USA. 40 min. 17h00-17h10. Discussion 17h10. End

20 mai : Scientific presentations: 8h45-9h25. Diagnostic tests for chronic Lyme disease and co-infections: discrepancies between published data and recommendations. Christian Perronne, France. 40 min. 9h25-9h35. Discussion 9h35. Development of direct microbiologic methods for diagnosis of Lyme disease and co-infections. Interest of new generation PCRs. 9h35-10h00. Muriel Vayssier-Taussat, France. 25 min. 10h00-10h25. Denis Fritz, France. 25 min. 10h25-10h50. Iwona Bil-Lula. Poland. 25 min. 10h50-11h05. Discussion 11h05-11h35. Coffee break 11h35-12h05. Suppression of long-lived humoral immunity following Borrelia burgdorferi infection in mice. Nicole Baumgarth, USA. 30 min. 12h05-12h15. Discussion 12h15-13h45.

Lunch 13h45-14h15.

Host-pathogen interaction. Genetic predisposition for the clinical pattern of Lyme disease, including chronicity. Shusmita Rahman/ Alaa Badawi Canada. 30 min. 14h15-14h25. Discussion 14h25-14h55. Prevalence of positive serologies for B. burgdorferi among Polish farmers. Violetta Zajac, Poland. 30 min. 14h55-15h05. Discussion. 15h05-15h35. Coffee break 15h35-16h05. Autochthonous parasitic diseases in Austria. Herbert Auer, Austria. 30 min. 16h05-16h15. Discussion 16h15-16h55. Microbial causes of Alzheimer’s disease. Comparison of the results obtained by several research teams (AB. McDonald, J. Miklossy, HB. Allen, StJohn Crean). Judith Miklossy, Switzerland. 40 min. 16h55-17h05. Discussion. 17h05. End Pol

De Saedeleer Eu Committee ILADS

Repost 0
Published by Jean-Pierre LABLANCHY - CHRONIMED - dans Infections froides
commenter cet article
14 janvier 2017 6 14 /01 /janvier /2017 10:27

Des chercheurs israéliens ont mis au point un outil qui détecte dans l’haleine des molécules caractéristiques de 17 maladies, comme Parkinson ou des cancers.

Chaque pathologie peut ainsi être identifiée par une combinaison de 13 composés organiques volatils (ou COV).

Dès l’Antiquité, des médecins ont cherché à évaluer la santé de leurs patients à partir des composés organiques volatils (COV) qu’ils émettent, notamment dans les selles et les urines. Ici, une équipe du Technion-Institut de technologie d'Israël a décidé d’aller un peu plus loin grâce aux nanotechnologies.

L’air expiré contient du dioxyde de carbone, du diazote et du dioxygène, mais aussi plus d’une centaine de COV, des molécules de faible poids moléculaire. La quantité et le type de COV exhalés dépendent du métabolisme et de la santé de l’individu.

C’est pourquoi l’analyse de ces molécules pourrait aider au diagnostic de maladies. L’analyse de l’haleine présente de nombreux avantages par rapport à celle d’autres fluides comme le sang : l’air exhalé est facilement accessible, ne nécessite pas de méthode invasive de prélèvement, il est peu complexe et peut être manipulé en toute sécurité.

Les chercheurs ont construit un outil de diagnostic intelligent, avec des nanoparticules d’or.

Cet outil contenait des capteurs spécialisés capables de détecter dans les molécules de l’haleine celles qui correspondent à des COV liés à des maladies.

L’air exhalé contient des molécules qui sont analysées grâce aux nanotechnologies.

Chaque maladie à une empreinte volatile caractéristique 2.808 échantillons d’air expiré ont été récupérés chez 1.404 personnes diagnostiquées avec 17 maladies différentes ou en bonne santé.

Les 17 maladies en question étaient les suivantes : cancers du poumon, du côlon-rectum, du cou et de la tête, de l’ovaire, de la vessie, de la prostate, du rein, de l’estomac, maladie de Crohn, rectocolite hémorragique, syndrome de l’intestin irritable, maladie de Parkinson (idiopathique ou atypique), sclérose en plaques, hypertension artérielle pulmonaire, pré-éclampsie et maladie rénale chronique.

Les chercheurs ont découvert que ces 17 maladies généraient différentes empreintes, avec une combinaison particulière de 13 COV.

Par exemple, le nonanal (nonanaldéhyde) est lié au cancer de l’ovaire, à la maladie inflammatoire de l’intestin, au cancer du sein et aux adénocarcinomes de l’œsophage et de l’estomac. L’isoprène est lié à la maladie hépatique chronique, la maladie rénale ou le diabète.

L’outil détectait les maladies avec une efficacité de 86 %. Ces résultats permettent donc d’imaginer qu’il soit possible de créer des outils de diagnostic miniaturisés, peu coûteux et faciles d’utilisation.

D’autres recherches sur un échantillon plus large de patients seront nécessaires pour savoir si de telles applications pourront voir le jour en médecine.

Ces résultats paraissent dans la revue ACS Nano.

Repost 0
Published by Jean-Pierre LABLANCHY - CHRONIMED - dans Concept
commenter cet article
14 janvier 2017 6 14 /01 /janvier /2017 10:23

Une étude danoise suggère qu'un tiers des tumeurs diagnostiquées par mammographie correspondent à des surdiagnostics car elles n'auraient pas conduit à des problèmes de santé.

Le débat sur le dépistage généralisé par mammographie est donc relancé.

En France, les femmes sont invitées au dépistage du cancer du sein par mammographie tous les deux ans, entre 50 et 74 ans.

La mammographie utilise les rayons X pour trouver des tumeurs avant qu’elles ne causent des symptômes ou qu’elles soient repérées par palpation.

Le dépistage organisé a pour objectif de diagnostiquer le cancer du sein plus tôt, lorsqu’il est plus facile à traiter. Idéalement, le dépistage généralisé devrait se traduire par une diminution du nombre de femmes diagnostiquées avec de grosses tumeurs, qui grandissent vite et sont plus difficiles à traiter.

Au Danemark, le dépistage par mammographie a été introduit progressivement dans différentes régions du pays : à Copenhague en 1991, Funen en 1993 et Frederiksberg en 1994.

D’autres régions ont introduit le dépistage à partir de 2007.

Celui organisé au Danemark correspond à une mammographie tous les deux ans pour les femmes de 50 à 69 ans.

Pour savoir si la mammographie atteignait ses objectifs, les chercheurs ont analysé les données de plus de 1,4 million de femmes danoises âgées de 35 à 84 ans, entre 1980 et 2010.

Ils ont comparé des femmes qui vivaient dans des régions avec des programmes de dépistage à d'autres vivant dans des zones qui n’offraient pas ce dépistage organisé.

Les chercheurs ont relevé la taille des tumeurs diagnostiquées dans les différentes régions, en considérant qu’une tumeur avancée mesurait plus de 20 mm.

Le dépistage ne diminue pas le nombre de cancers avancés Le dépistage n’était pas associé avec une diminution de l’incidence des tumeurs avancées.

Les chercheurs estiment qu’environ une tumeur sur trois diagnostiquée chez des femmes qui ont subi une mammographie n’aurait jamais causé de problèmes de santé, ce qui correspond donc à un surdiagnostic.

Karsten Jorgensen, principal auteur de l’étude, a expliqué dans une dépêche de Reuters, « le surdiagnostic signifie que les femmes en bonne santé obtiennent des diagnostics inutiles du cancer du sein ».

Il ajoute qu’« un diagnostic de cancer du sein est un événement qui change la vie de la femme et de sa famille, avec des implications importantes pour leur qualité de vie.

Cela entraîne également un surtraitement avec la chirurgie, la radiothérapie et parfois la chimiothérapie - nous savons que ces traitements ont des conséquences graves, parfois mortelles ».

Cependant, les chercheurs soulignent qu’une des limites de cette recherche est que la mammographie s’est améliorée depuis le début de l’étude en 1980.

Les résultats pourraient donc être différents aujourd’hui. De plus, pour Otis Brawley, de l’American Cancer Society, qui a rédigé un éditorial accompagnant l’étude, « cela ne veut pas dire qu’il ne faut pas faire de mammographie, il s'agit de l'utiliser plus efficacement pour sauver le plus de vies ».

À l’avenir, il pourrait être possible d’utiliser les résultats de dépistage pour cibler les femmes qui pourraient être plus suivies que les autres.

En France, en octobre 2016, la ministre de la Santé a annoncé une refonte du programme de dépistage du cancer du sein.

Les résultats sont publiés dans Annals of Internal Medicine.

La mammographie remise en cause Article de Janlou Chaput paru le 14/02/2014

Une nouvelle étude révèle les risques de la mammographie : elle ne permettrait pas de sauver plus de vie que le seul examen physique, et entraînerait des surdiagnostics qui engendrent des opérations gênantes et inutiles chez les patientes.

Faut-il la remettre en cause ?

C’est ce qu’on appelle une vaste étude : près de 90.000 femmes de 40 à 59 ans suivies pendant 25 ans afin de vérifier l’intérêt du dépistage du cancer du sein grâce à la mammographie.

L’idée consistait à séparer les participantes en deux groupes équilibrés.

Dans le premier, les femmes quadragénaires bénéficiaient d’une mammographie, technique radiologique permettant de déceler les tumeurs de 15 mm, tous les ans pendant 5 ans.

Dans le second, les femmes de moins de 50 ans étaient diagnostiquées à l’aide d’un seul examen physique pratiqué par un médecin, grâce auquel on ne décèle que les grosseurs de 21 mm et plus. Au-delà de 50 ans, les femmes avaient droit à un examen annuel pour assurer un suivi, peut-on lire dans le British Medical Journal.

À lire : Avant 40 ans, l’échographie plutôt que la mammographie

Après les 5 premières années, 666 tumeurs mammaires ont été détectées dans le groupe des femmes ayant subi une mammographie, contre seulement 524 dans le lot témoin.

La radiographie des seins semble donc plus pertinente pour détecter les tumeurs.

Mais cela suffit-il pour autant ?

Car la mortalité semble équivalente dans les deux groupes : 180 décès contre 171 parmi ces 1.190 tumeurs à la fin de l’étude.

En tout, 3.250 tumeurs ont été détectées dans le groupe des participantes sous mammographie, contre 3.133 chez leurs homologues, pour respectivement 500 et 505 décès.

Le surdiagnostic, principal risque de la mammographie

Quelles conclusions tirent les auteurs ?

Que la mammographie se révèle trop efficace. À tel point qu’elle détecte de petites tumeurs qui n’évoluent jamais et ne présentent aucune menace.

On parle alors de surdiagnostic, qui monte à 22 % après 15 ans de suivi.

Comme on ne dispose d’aucun moyen pour savoir quelles grosseurs vont se montrer dangereuses, elles sont toutes retirées, parfois inutilement.

On fait donc subir à des femmes des opérations lourdes… et superflues.

Aux yeux des chercheurs, la mammographie devient plus néfaste que bénéfique.

Le sujet fait débat auprès des spécialistes depuis plusieurs années, qui sont divisés sur cette question.

Si certains appellent à stopper les dépistages par mammographie, d’autres estiment qu’ils sauvent malgré tout des vies et qu’il faut donc les poursuivre.

Cette nouvelle étude, imposante, alimente donc de nouveau la polémique.

Repost 0
Published by Jean-Pierre LABLANCHY - CHRONIMED - dans Concept
commenter cet article
14 janvier 2017 6 14 /01 /janvier /2017 10:11

Alternative à l'amalgame dentaire pour soigner une carie : stimuler les capacités naturelles de la dent à se réparer toute seule, en activant les cellules souches de la pulpe.

C'est ce que pourrait faire le Tideglusib, un médicament anti-Alzheimer capable de régénérer la dent chez des souris.

La dentine des dents est produite par des cellules spécialisées : les odontoblastes.

Lorsqu’une carie se développe sur une dent ou que celle-ci est cassée, de la dentine est perdue. Le tissu de la pulpe peut alors être exposé à l’extérieur et s’infecter.

Un processus de réparation naturel est activé en mobilisant des cellules souches de la pulpe.

Mais ce mécanisme ne répare que de petits trous dans la dentine.

C'est pourquoi les dentistes utilisent des amalgames dentaires qui comblent les trous laissés par les caries et restent dans la dent.

Mais pour Paul Sharpe, du King’s College de Londres, « la dent n'est pas seulement un morceau de minéral, elle a sa propre physiologie. Vous remplacez un tissu vivant avec un ciment inerte.

Les obturations fonctionnent bien, mais si la dent peut se réparer elle-même, c'est sûrement la meilleure solution ».

En effet, les amalgames ont aussi des inconvénients : ils peuvent s’éroder, se détacher et favoriser l’infection de la dent.

Du point de vue moléculaire, quand un tissu est endommagé, une voie de signalisation (Wnt/β-cat) est activée et stimule la réparation.

Une des enzymes clés dans la voie de transduction du signal est GSK-3 (glycogen synthase kinase 3).

Des inhibiteurs de GSK-3 ont été développés pour favoriser l’activité de Wnt.

Le Tideglusib est un de ces antagonistes de GSK-3.

Ce médicament est étudié dans des essais cliniques pour le traitement d’Alzheimer ; il a montré qu’il était sans danger lors des essais cliniques, ce qui en fait un bon candidat pour une réparation des dents.

Les dents des souris régénèrent la dentine grâce au Tideglusib

Pour savoir si ce médicament pouvait régénérer la dent, les chercheurs ont percé des trous dans des dents de souris.

Puis ils ont inséré une éponge biodégradable imprégnée de médicament et fermé la dent avec un adhésif dentaire.

Les éponges de collagène utilisées sont autorisées en clinique.

Quand les dents des souris ont été observées plusieurs semaines plus tard, l’éponge s’était dégradée et avait été remplacée par une nouvelle dentine : la dent était capable de se reconstruire d’elle-même.

Reste à savoir si la méthode fonctionnera chez l’Homme, chez qui les trous risquent d’être plus grands.

D’après The Guardian, l’équipe teste ce dispositif chez le rat dont les dents sont quatre fois plus grandes que celles des souris.

Le Tideglusib offre donc un espoir d'obtenir un jour un traitement simple et peu couteux contre les caries.

Mais malheureusement il ne vous permettra pas d'échapper à la roulette du dentiste : celui-ci devra toujours l’utiliser pour retirer les parties de la dent qui doivent être enlevées.

Les résultats sont publiés dans Scientific Reports.

Repost 0
Published by Jean-Pierre LABLANCHY - CHRONIMED - dans Infections froides Concept
commenter cet article
14 janvier 2017 6 14 /01 /janvier /2017 10:06

C'est la première fois en France qu'un tel classement est mis en place : celui des facs françaises en fonction de leur indépendance vis-à-vis de l'entreprise pharmaceutique.

L'occasion de faire un point sur la réalité de ces conflits d'intérêts.

Un palmarès inédit vient d’être publié, le 9 janvier 2016, dans la revue en accès libre PLoS ONE : celui des universités françaises de médecine en fonction de leur rapport avec les laboratoires pharmaceutiques.

Et la plus indépendante est... la faculté de Lyon-Est avec un score de 5 points (sur 26).

Celle d’Angers arrive en deuxième position, avec 4 points. Suivent sept établissements ex æquo, avec chacun 1 point : Aix-Marseille, Lyon-Sud, Paris-Descartes, Paris-Diderot, Rennes 1, Strasbourg et Toulouse-Purpan.

Les 28 autres universités se sont vues attribuer un zéro, n'ayant pas répondu au questionnaire.

Les critères ? 13 en tout, issus pour la plupart de ce qui est réalisé aux Etats-Unis par l'Association américaine des étudiants de médecine depuis 2007 : cela va de la "résistance" aux cadeaux - dont les repas - offerts par l’industrie pharmaceutique, le niveau d’encadrement des liens d’intérêts des enseignants, l’existence de formations de sensibilisation des étudiants sur cette question, ou encore la tolérance aux financements des fabricants de médicaments.

Ce classement a été mis en place par le Formindep, collectif de médecins militant pour une formation médicale indépendante.

Il en est encore à ses balbutiements puisque seulement trois doyens ont accepté de répondre à ses questions.

Mais la problématique des conflits d'intérêts entre facultés de médecine et laboratoires pharmaceutiques est un vrai enjeu - le scandale du Mediator en étant la preuve- et ce classement invite à mieux comprendre la promotion pharmaceutique et comment y répondre.

"La faculté de médecine est l'endroit où la distribution de cadeaux commence"

L'OMS alertait dès 2009 sur l'influence de la promotion pharmaceutique sur le milieu médical et ce dès l'université.

Dans un rapport, traduit en français par la Haute Autorité de santé en 2013, elle constatait que les étudiants en médecine et pharmacie étaient souvent en contact avec des représentants de l'industrie pharmaceutique dès les premières années de leur cursus.

L'OMS prend l'exemple des Etats-Unis où "les étudiants en médecine de troisième année recevraient en moyenne chaque semaine un cadeau ou assisteraient à une activité financée par une entreprise pharmaceutique, et plus de 90 % d'entre eux avaient été invités par des membres de la faculté à participer à des déjeuners financés par une entreprise pharmaceutique".

De l'autre côté, l'OMS y dénonce le trop peu de formation ou de sensibilisation des étudiants sur les effets de ces interactions ou la façon de les gérer : "en général moins d'une journée – certaines écoles y consacrant à peine une à deux heures".

Autre problème soulevé dans ce rapport, la croyance erronée par les étudiants que la promotion pharmaceutique n'influencerait en rien leur prescription.

Ils sont nombreux à déclarer accepter régulièrement des cadeaux tout en désapprouvant le principe.

Mais les étudiants ne sont pas les seuls concernés. Les enseignants, en cumulant plusieurs activités, ou se faisant financer des conférences et des publications, contribueraient à cette promotion pharmaceutique.

Autre pratique mal connue mais pas des moindres : le ghost writting, où les publications de recherches ayant des auteurs universitaires sont en fait écrites par des employés d’entreprises pharmaceutiques ou des sociétés de communication médicale travaillant pour des entreprises pharmaceutiques.

Quant aux facultés,"Certains représentants d'industries pharmaceutiques siègent dans leurs conseils d'administration.

Et des laboratoires financent ou sont même membres fondateurs de leurs fondations", dénonce Jean-Sébastien Borde, médecin et membre du collectif Formindep.

Comment garder son indépendance face aux laboratoires pharmaceutiques?

L'Association Nationale des Etudiants en Médecine de France a elle aussi voulu lutter contre ce risque en distribuant aux étudiants pour la rentrée 2016/2017 près de 8 000 livrets sur le thème "pourquoi garder son indépendance face aux laboratoires pharmaceutiques" médiatisé via cette vidéo ci-dessous d'une association la troupe du rire :

Ainsi pour les étudiants, cela commence par la formation. Pour les facultés, "l'une des premières mesures recommandées serait que chaque faculté de médecine établisse une charte de gestion des conflits d'intérêts, qu'il y ait une véritable politique publique", préconise le médecin Jean-Sébastien Borde du collectif Formindep.

Ce dernier est optimiste: "C'est le premier classement, il va créer une émulation comme cela s'est passé aux Etats-Unis depuis 2007".

Il n'a pas tort.

Le jeudi 12 janvier 2016, le président de la Conférence des doyens des facultés de médecine, Jean-Luc Dubois-Randé, dans un communiqué de presse, prend acte de la "faiblesse des actions entreprises pour exiger une plus grande transparence" des universités à l'égard de l’industrie du médicament et admet "qu'il faut aller plus loin".

Repost 0
Published by Jean-Pierre LABLANCHY - CHRONIMED - dans Concept
commenter cet article