Overblog Suivre ce blog
Administration Créer mon blog
19 mars 2017 7 19 /03 /mars /2017 09:00

Nouveaux points de vue sur la fusion autophagosome-lysosome.

Nakamura S, et al. J Cell Sci. 2017.

La macroautophagie (autophagie) est un système de dégradation intracellulaire hautement conservé qui est essentiel à l'homéostasie dans les cellules eucaryotes.

En raison de la grande variété des cibles cytoplasmiques de l'autophagie, sa dysrégulation est associée à de nombreuses maladies chez l'homme, telles que les maladies neurodégénératives, les maladies cardiaques et le cancer.

Au cours de l'autophagie, les matériaux cytoplasmiques sont séquestrés par l'autophagosome - une structure double membrane - et transportés au lysosome pour la digestion.

Les stades spécifiques de l'autophagie sont l'induction, la formation de la membrane d'isolement (phagophore), la formation et la maturation de l'autophagosome et, enfin, la fusion avec un endosome tardif ou un lysosome.

Bien qu'il existe des aperçus significatifs sur chacune de ces étapes, les mécanismes de fusion autophagosome-lysosome sont les moins bien compris, bien qu'il y ait eu plusieurs avancées récentes.

Dans ce commentaire, nous résumons les connaissances actuelles concernant la fusion autophagosome-lysosome, en se concentrant sur les mammifères, et discuterons des questions restantes et des directions futures du champ.

© 2017. Publié par The Company of Biologists Ltd. PMID 28302910

Repost 0
Published by Jean-Pierre LABLANCHY - CHRONIMED - dans Concept
commenter cet article
19 mars 2017 7 19 /03 /mars /2017 08:27

Un nouveau mécanisme permettant de diminuer la résistance aux antituberculeux vient d’être identifié par des chercheurs lillois.

En parallèle, un documentaire inédit sur l'histoire du BCG vient d'être réalisé.

Des scientifiques français viennent de publier dans la revue Science des travaux inversant la résistance développée par des souches bactériennes à un antituberculeux.

Paru le 17 mars 2017, le travail des chercheurs lillois (Inserm, Université de Lille, Institut Pasteur de Lille, CNRS) s’est penché sur la résistance à l’éthionamide, un antibiotique utilisé pour traiter la tuberculose.

Les scientifiques sont de fait parvenus à agir sur ce mécanisme de résistance pour l’inverser.

"Nous avons créé un prototype de molécule. SMARt-420, capable de resensibiliser les bactéries résistantes à cet antibiotique", expliquent le Dr Alain Baulard, directeur de recherche au Centre d’Infection et d’Immunité de Lille et le Pr Nicolas Willand.

Menés chez l’animal, lez travaux ont ainsi permis de traiter de manière efficace des souris infectées par des bacilles qui étaient devenus insensibles à l’éthionamide seul.

Une bonne nouvelle qui ouvre une nouvelle voie dans la lutte contre la résistance aux antibiotiques.

A quelques jours de la 2ejournée mondiale de la tuberculose (24 mars 2017), l’Organisation Mondiale de la Santé rappelle que 480.000 nouveaux cas de tuberculose multirésistante ont été observés en 2015.

Repost 0
Published by Jean-Pierre LABLANCHY - CHRONIMED - dans Infections froides
commenter cet article
19 mars 2017 7 19 /03 /mars /2017 08:14

Climat : février 2017 très chaud

Températures en février 2017, depuis trois mois et depuis un an.

Écart à la moyenne calculée sur 1951/1980. Nasa GISS.

La température planétaire moyenne de février 2017 pointe au deuxième rang des plus chaudes depuis le début des relevés thermométriques.

Avec 1,10°C de plus que la moyenne climatologique calculée sur la période 1951/1980. Seul le mois de février 2016, marqué par un fort El Niño dans le Pacifique tropical, le dépasse.

Cette persistance de températures élevées hisse l’indicateur de température moyenne bien au dessus du niveau atteint dans les années 2000.

Changer de référence climatologique

Il est donc intéressant de quitter la référence climatologique des années 1951/1980 pour comparer les températures actuelles avec celles de la fin du 19ème siècle, car elles sont similaires à celles d’avant la Révolution industrielle et le début des émissions massives de CO2.

Et surtout constitue la base de calcul des objectifs fixés par les dernières Conférences des Parties de la Convention Climat de l’ONU : ne pas dépasser les 2°C de plus que cette référence séculaire, et même, ajoutait l’Accord de Paris en 2015, se rapprocher le plus possible des 1,5°C.

Pour visualiser la situation actuelle vis à vis de cet objectif, il convient donc d’observer la courbe qui suit :

Courbe de la température moyenne de la planète avec les années 1880/1920 en référence. Nasa GISS.

Sur l’ensemble de l’année 2016, cet indicateur dépasse de 1,25°C la température des années 1880/1920.

En raison de l’inertie du système climatique terrestre et de l’effet refroidissant d’environ 0,3°C provoqué par nos émissions de particules fines réfléchissant l’énergie solaire (un effet temporaire si les émissions s’arrêtent), il convient d’acter que l’objectif le plus ambitieux de la COP-21 n’est pas tenable.

Les 1,5°C seront inéluctablement dépassés, même si nous arrêtions immédiatement toute émission de gaz à effet de serre.

Les promesses des Etats présentées en décembre 2015 à Paris ne permettent d’ailleurs pas de respecter les 2°C, même si elles étaient toutes tenues.

Et l’on sait que les Etats-Unis de Donald Trump ont décidé de tourner le dos à cet Accord, de facto sinon de jure.

Les commentateurs ou acteurs qui ont fait de cet Accord une « prophétie auto-réalisatrice » ont probablement pris leurs désirs pour une réalité.

Ce graphique démontre également que la rengaine climato-sceptique d’un climat qui aurait brusquement cessé d’évoluer en 1998 n’est qu’un grossier mensonge.

Les climatologues américains (Nasa, GISS, Université Columbia de New York) ont ajouté aux températures indiquées mois par mois en bleu et dont les moyennes annuelles calendaires sont indiquées par des carrés noirs, deux courbes intéressantes.

En rouge, les températures sont lissées sur 123 mois, donc 11 années, ce qui permet d’éliminer les effets climatiques des oscillations océaniques, ainsi que tout effet éventuel du cycle d’activité du Soleil, bien connu des astrophysiciens, d’environ 11 ans.

Or, cette courbe lissée est quasi la même que celle qui ressort d’un calcul effectué sur toutes les années depuis 1970, et donne une ligne quasi droite.

Et fait irrésistiblement penser à d’autres courbes, celles des émissions de gaz à effet de serre dominées aujourd’hui par les émissions de CO2 dues au charbon : Emissions de CO2 mondiales, par source (Wikipédia).

Emissions dont la conséquence sur l’intensification de l’effet de serre se mesure à l’aide de la courbe suivante, qui montre l’évolution de la teneur en CO2 au sommet du Mauna Loa, un volcan éteint de l’île d’Hawaï : Teneurs en CO2 au sommet du Mauna Loa (Hawaï) depuis 1958 (Scripps).

Toujours pas de Niña en vue L’année 2017 va t-elle rester sur cette lancée ?

Souvent, mais pas systématiquement, la température moyenne de la planète chute lorsqu’une Niña succède à un fort Niño.

Le Pacifique tropical est aujourd’hui en situation neutre, et pourrait le rester jusqu’au moins l’été, indiquent les prévisions des océanographes.

Les cartes ci-dessus montrent qu’en janvier et février 2016 un très gros El Niño sur le Pacifique tropical – visible avec l’ovale rouge très allongé qui recouvre cette partie de l’océan – contribuait fortement au record planétaire.

Mais ce n’est plus le cas en 2017, avec un océan Pacifique revenu à sa moyenne. Températures en janvier et février 2017, 2016 et 2015.

Ecart à la moyenne calculée sur 1951 1980. Nasa GISS.

http://huet.blog.lemonde.fr/2017/03/18/climat-fevrier-2017-tres-chaud/

Climat : mois de février 2017 très chaud. Le réchauffement favorise les mutations des micro-organismes.
Climat : mois de février 2017 très chaud. Le réchauffement favorise les mutations des micro-organismes.
Climat : mois de février 2017 très chaud. Le réchauffement favorise les mutations des micro-organismes.
Climat : mois de février 2017 très chaud. Le réchauffement favorise les mutations des micro-organismes.
Climat : mois de février 2017 très chaud. Le réchauffement favorise les mutations des micro-organismes.
Repost 0
Published by Jean-Pierre LABLANCHY - CHRONIMED - dans Infections froides
commenter cet article
18 mars 2017 6 18 /03 /mars /2017 19:46

De nombreuses études attestent déjà de la dangerosité de certaines de ces molécules sur la santé, car elles seraient à l’origine de cancers, de malformations congénitales, d’obésité et de diabète, mais également de troubles de développement (autisme, hyperactivité, diminution du quotient intellectuel).

De nouveaux travaux, toujours plus nourris, complètent ce tableau en montrant leurs effets délétères sur le développement du cerveau.

Les scientifiques du CNRS ont constitué un mélange de 15 substances de synthèse présentes dans un panel de produits de la vie courante.

Les ingrédients du mélange comprennent notamment le BPA, le triclosan, le benzophénone-3 et le perchlorate de sodium.

« Des études précédentes ont testé les effets de certaines molécules individuellement, mais la particularité du projet repose sur cette combinaison de substances », explique Barbara Demeneix, endocrinologue au CNRS et coauteure de l’étude.

Des embryons de grenouilles de l’espèce Xenopus laevis ont été exposés pendant trois jours à ce cocktail chimique et à des concentrations comparables à celles couramment mesurées dans le liquide amniotique humain.

Le fœtus baigne dans ce dernier lors de la grossesse et peut être indirectement exposé à des substances toxiques.

L’âge des embryons a été sélectionné selon le début du fonctionnement de la glande thyroïde qui libère les hormones thyroïdiennes, essentielles au bon développement cérébral.

Par analogie avec l’humain, la période d’exposition de l’expérience correspond au moment ou seule l’hormone thyroïdienne de la mère est présente. Résultats de l’étude : malgré l’exposition sur une durée restreinte, les impacts sur le développement du cerveau des têtards sont multiples.

En effet, le cocktail de substances appliquées affecte le fonctionnement de leurs hormones thyroïdiennes, modifie l’expression de plusieurs gènes qui participent à la construction cérébrale.

Le résultat est une réduction du volume des neurones, accompagnée d’une baisse de la mobilité des têtards.

La fonction des hormones thyroïdiennes étant présente chez l’ensemble des vertébrés, écrivent les auteurs, « ces résultats suggèrent que les mélanges de telles substances chimiques, omniprésentes, pourraient exercer des effets négatifs sur le développement du fœtus humain ».

Les auteurs du rapport de CHEM Trust rappellent qu’avec ses 85 milliards de neurones, le cerveau est un organe extrêmement complexe.

Son développement subtil et élaboré, s’effectue tout au long de la vie. Mais les premiers stades de développement, du fœtus à l’adolescence, connaissent des modifications rapides et présentent une grande sensibilité aux produits chimiques toxiques.

Lors de ce processus, une perturbation des hormones thyroïdiennes peut entraîner des répercussions importantes, telles que la réduction du quotient intellectuel ou l’apparition de troubles du spectre autistique (autisme, syndrome d’Asperger, syndrome de Rett, etc.).

Lorsque l’exposition a lieu après la naissance, les risques associés sont généralement une baisse de motricité et de concentration, en fonction du type de molécule et des caractéristiques de l’exposition (durée, intensité).

Aussi « le phénomène d’exposition aux produits chimiques auquel nous assistons est un problème de santé public majeur et une menace pour l’intelligence », souligne le professeur Philippe Grandjean (université du Danemark du Sud-université de Harvard), contributeur du rapport de CHEM Trust.

À travers le 7e programme d’action pour l’environnement (PAE), pour la période 2013-2020, l’Union européenne affiche sa volonté de réduire la présence des substances toxiques dans l’environnement.

Pour autant, la mise en place d’une réglementation appliquée aux perturbateurs endocriniens n’est toujours pas en vue.

Celle-ci aurait dû voir le jour en 2013 au plus tard et Bruxelles a été condamnée par la Cour de justice de l’Union européenne, en décembre 2015, pour carence dans la gestion de ce dossier.

Bruxelles n’est toujours pas sortie de l’ornière.

Tout récemment, l’exécutif européen a renoncé à présenter au vote les critères d’identification des perturbateurs endocriniens, en vue de les interdire. Selon le professeur Michael Warhurst, directeur général de CHEM Trust, la réglementation doit être plus stricte :

« Le développement du cerveau des futures générations est un enjeu principal. Nous avons besoin de régulateurs européens pour éliminer des groupes de produits chimiques, plutôt que restreindre lentement les produits.

Nous ne pouvons continuer à jouer avec la santé de nos enfants ».

Par Ludmilla Terres Le 7 mars 2017

Repost 0
Published by Jean-Pierre LABLANCHY - CHRONIMED - dans Nutrition
commenter cet article
18 mars 2017 6 18 /03 /mars /2017 19:30

Ce que les « Monsanto Papers » révèlent du Roundup

LE MONDE ECONOMIE

Le 18 mars 2017

La justice américaine a déclassifié des correspondances internes de la firme.

Dès 1999, cette dernière s’inquiétait du potentiel mutagène du glyphosate.

Rarement hasard du calendrier aura été plus embarrassant pour une agence d’expertise.

Dans le cadre d’une action intentée contre Monsanto, la justice fédérale américaine a déclassifié, jeudi 16 mars, plus de 250 pages de correspondance interne de la firme agrochimique, montrant que cette dernière s’inquiétait sérieusement, dès 1999, du potentiel mutagène du glyphosate, principe actif de son produit phare, le Roundup, et molécule phytosanitaire la plus utilisée au monde.

Or le 15 mars, à la veille de la publication de cette documentation confidentielle, l’Agence européenne des produits chimiques (ECHA) annonçait qu’elle ne considérait le glyphosate ni comme cancérogène ni même mutagène – c’est-à-dire capable d’engendrer des mutations génétiques.

Pour Monsanto, l’affaire est cruciale : le Roundup est la pierre angulaire de son modèle économique, fondé sur la vente liée de ce pesticide et des cultures transgéniques capables de le tolérer.

Ces documents internes de la firme de Saint Louis (Missouri) ont été rendus publics dans le cadre d’une action collective portée devant une cour fédérale de Californie par plusieurs centaines de travailleurs agricoles touchés par un lymphome non hodgkinien (un cancer du sang).

S’appuyant sur un avis rendu en mars 2015 par le Centre international de recherche sur le cancer (CIRC), les plaignants attribuent leur maladie au contact prolongé avec l’herbicide commercialisé par Monsanto.

Connivences

Les précédentes archives déclassifiées dans le cadre de cette affaire ont notamment montré que Monsanto avait bénéficié de connivences au sein de l’Agence de protection de l’environnement (EPA), chargée aux Etats-Unis d’évaluer la sûreté du glyphosate (Le Monde daté du 17 mars).

Cette fois, les courriels mis au jour racontent une autre histoire.

En 1999, les cadres de Monsanto souhaitent faire appel aux services d’une autorité scientifique incontestable pour plaider la cause du glyphosate auprès des régulateurs européens.

Tout l’enjeu est de les convaincre que le produit n’est pas génotoxique. « Prenons un peu de recul et regardons ce que nous voulons vraiment faire, écrit un cadre de l’entreprise à ses collègues.

Nous voulons trouver quelqu’un qui est familier du profil génotoxique du glyphosate/Roundup et qui peut avoir une influence sur les régulateurs, ou conduire des opérations de communication scientifique auprès du public, lorsque la question de la génotoxicité….

La mauvaise image de Monsanto, principal risque pour la fusion avec Bayer

LE MONDE ECONOMIE

Le 18 mars 2017

Le PDG du groupe allemand Werner Baumann, qui a fait de l’alliance avec le semencier américain son projet personnel, et s’emploie depuis des semaines à déminer le terrain.

Le groupe Bayer n’a pas commenté les révélations sur les tentatives de Monsanto pour influencer les études sur son pesticide phare, le glyphosate.

Après tout, le rachat du semencier américain par le chimiste allemand n’a pas encore eu lieu, et, tant qu’il n’est pas conclu, « les deux groupes évoluent comme deux entreprises différentes » avait d’ailleurs répété Werner Baumann, PDG du groupe allemand, lors de la conférence de presse organisée pour la présentation des résultats annuels du groupe à Leverkusen, le 22 février.

Le dirigeant de 54 ans, aux lunettes rondes et à la froide efficacité, a fait de l’alliance Bayer-Monsanto son projet personnel : c’est lui qui l’a imaginée, étayée et défendue en interne.

Lui aussi qui se charge depuis des mois de convaincre toutes les parties prenantes : les actionnaires, les salariés, les autorités de la concurrence, et, bien sûr, les responsables politiques.

M. Baumann a ainsi été le premier dirigeant allemand à rendre visite à Donald Trump, mi-janvier, en compagnie du patron de Monsanto, pour lui présenter le bien-fondé de l’opération.

Il a insisté sur le caractère « constructif » de sa conversation avec le président américain, jugé « attentif et intéressé par notre vision de l’avenir de l’agriculture. »

La fusion serait « en bonne voie » et doit se conclure à la fin de l’année 2017, si les autorités américaines et européennes de la concurrence donnent leur feu vert.

L’image du groupe allemand va être écornée

« Des erreurs ont été faites »

Reste bien sûr l’image de Monsanto, véritable risque pour Bayer, jusqu’ici peu associé aux scandales, alors même qu’il est un grand fabricant de produits phytosanitaires et propose le glyphosate parmi ses herbicides.

Conscient du danger, M. Baumann s’emploie depuis plusieurs semaines à déminer le terrain.

« Bien sûr, des erreurs ont été faites, et elles collent à l’image de Monsanto. Dans le passé, le groupe américain s’est peu donné la peine de nouer le dialogue avec une opinion publique critique », a-t-il reconnu dans le journal allemand Welt am Sonntag du 12 mars.

« Il faut remettre les faits au cœur de la discussion. » Gardera-t-il le nom Monsanto après la fusion ?

Rien n’est encore décidé : « Pour Monsanto, le plus important est d’avoir la possibilité de développer des produits qui aident les agriculteurs.

Sous quel nom cela se fera, c’est secondaire », avait précisé M. Baumann le 22 février.

La question est loin d’être anodine pour le nouvel ensemble, qui deviendra le plus grand groupe agrochimique mondial.

Peut-on croire Bayer quand il affirme vouloir « nourrir la population mondiale, en forte croissance », de façon « durable » ?

Cette stratégie est précisément la justification de l’alliance avec Monsanto : augmenter les rendements par une plus grande innovation, non plus seulement via des solutions chimiques, mais à toutes les étapes de la chaîne de production, notamment grâce aux solutions numériques, appelées digital farming.

« Nous sommes d’avis que nous avons besoin autant de l’agriculture conventionnelle que de l’agriculture biologique », martelait Liam Condon, directeur du département Crop Science de Bayer (science des cultures) lors de la conférence de presse.

« Nous devons augmenter les rendements de façon durable. Nous considérons l’agriculture comme un système où interviennent les semences, la protection de la plante, le sol, dans leurs interactions avec le climat.

En optimisant ce système, nous voulons produire davantage qu’en intervenant sur un seul de ces éléments », a-t-il déclaré, sans préciser la place qu’occuperait le glyphosate dans cette nouvelle stratégie.

Cécile Boutelet (Berlin, correspondance) Le 18 mars 2017

Repost 0
Published by Jean-Pierre LABLANCHY - CHRONIMED - dans Nutrition
commenter cet article
18 mars 2017 6 18 /03 /mars /2017 17:54

La cystatine SN inhibe la mort cellulaire induite par l'auranofine par induction autophagique et la régulation du ROS par l'activité glutathion-réductase dans le cancer colorectal.

Oh BM, et al. Cell Death Dis. 2017.

La cystatine SN (CST1) est un inhibiteur spécifique appartenant à la superfamille de la cystatine qui contrôle les activités protéolytiques des cysteine ​​proteases telles que les cathepsines.

Notre étude antérieure a montré que l'expression élevée de CST1 augmente les métastases tumorales et l'invasivité dans le cancer colorectal.

Récemment, l'auranofine (AF), un inhibiteur de la thiorédoxine réductase 1 (TrxR1) contenant de l'or (I), a été utilisé cliniquement pour traiter la polyarthrite rhumatoïde.

La FA est un inhibiteur de la deubiquitinase associé au protéasome et peut agir comme un agent antitumoral.

Dans cette étude, nous avons étudié si l'expression CST1 induit autophagie et la survie des cellules tumorales.

Nous avons également étudié les effets thérapeutiques de la FA en tant qu'agent anti-tumoral dans les cellules du cancer colorectal (CRC).

Nous avons trouvé que les cellules de CRC exprimant des niveaux élevés de CST1 subissent une autophagie accrue et présentent une résistance chimiothérapeutique à la mort cellulaire induite par AF, alors que celles exprimant de faibles taux de CST1 sont sensibles à la FA.

Nous avons également observé que le knockdown de CST1 dans le haut CST1 CRC cellules utilisant CST1 spécifique de petits ARN interférant a atténué l'autophagic activation et restauré l'AF-induite pour la mortalité cellulaire.

Inversement, la surexpression de CST1 augmente l'autophagie et la viabilité dans les cellules exprimant de faibles taux de CST1.

Il est intéressant de noter que l'expression élevée de CST1 atténue la mort cellulaire induite par AF en inhibant la génération d'espèces réactives intracellulaires d'oxygène (ROS), comme le montre le fait que le blocage de la production de ROS a inversé la mort cellulaire induite par AF dans les cellules CRC.

En outre, la régulation positive de l'expression de CST1 a augmenté l'activité de la glutathion-réductase cellulaire (GR), en réduisant l'état redox cellulaire et en induisant l'autophagie dans les cellules CRC traitées par AF.

Ces résultats suggèrent qu'une expression élevée de CSTl peut être impliquée dans l'induction autophagique et protège de la mort cellulaire induite par AF par inhibition de la génération de ROS par la régulation de l'activité de GR.

PMID 28300829

Texte intégral

Http://www.nature.com/cddis/journal/v8/n3/full/cddis2017100a.html

Repost 0
Published by Jean-Pierre LABLANCHY - CHRONIMED - dans Concept
commenter cet article
18 mars 2017 6 18 /03 /mars /2017 17:45

Mitophagie: Lien avec le développement du cancer et sa thérapie.

Kulikov AV, et al. Biochem Biophys Res Commun. 2017.

La mitophagie, est la dégradation sélective des mitochondries via la voie autophagique, c'est un mécanisme vital de contrôle de la qualité mitochondriale dans les cellules.

La Mitophagie est responsable de l'élimination des dysfonctionnements ou des mitochondries endommagées, ce qui est essentiel pour la physiologie cellulaire normale et le développement des tissus.

Les voies impliquées dans la régulation de la mitophagie, de la tumorigénèse et de la mort cellulaire se chevauchent dans de nombreux cas et peuvent être déclenchées par des signaux communs en amont, qui convergent vers les mitochondries.

L'échec à moduler correctement le renouvellement mitochondrial en réponse à des stress oncogènes peut soit stimuler soit supprimer la tumorigénèse.

Ainsi, l'analyse de la diaphonie parmi les processus de mitophagie, de mort cellulaire et de tumorigénèse est importante pour l'identification des cibles responsables de la stimulation de la mort cellulaire et de l'élimination sélective des cellules cancéreuses.

Dans la présente étude, nous analysons les mécanismes de la régulation de la mitophagie, les voies sous-jacentes à l'utilisation des mitochondries endommagées, et comment l'intervention avec mitophagie peut affecter la résistance des cellules tumorales au traitement.

© 2016 Elsevier Inc.

Texte intégral:

Http://www.sciencedirect.com/science/article/pii/S0006291X16317739?via%3Dihub

Repost 0
Published by Jean-Pierre LABLANCHY - CHRONIMED - dans Concept
commenter cet article
18 mars 2017 6 18 /03 /mars /2017 17:39

Toxic Story Deux ou trois vérités embarrassantes sur les adjuvants des vaccins

ROMAIN GHERARDI

Depuis quelques années, une défiance croissante envers les vaccins gagne la population.

Des rumeurs alarmantes circulent sur leurs effets secondaires...

Et les atermoiements des autorités politiques et sanitaires sur la toxicité de certains composants entretiennent l’inquiétude.

Soucieux de casser ce cercle vicieux, Romain Gherardi lève le voile sur les principaux suspects : les adjuvants aluminiques, présents dans de nombreux vaccins.

Ce livre raconte son histoire, celle d’un professeur hospitalo-universitaire qui, par le plus grand des hasards, voit apparaître dans les années 1990 une pathologie inconnue.

La myofasciite à macrophages, comme il l’a nommée, intrigue le monde de la santé autant qu’elle l’inquiète.

Mais dès lors qu’il en a identifié la cause – les adjuvants aluminiques –, Romain Gherardi constate un revirement soudain. Articles scientifiques refusés. Financements taris.

Réunions pipées.

Le mot “vaccin” lui ferme toutes les portes. Il poursuit pourtant ses recherches, avec d’autant plus de persévérance que la pathologie présente de troublantes ressemblances avec d’autres syndromes jusqu’alors inexpliqués : le syndrome de fatigue chronique et le syndrome de la guerre du Golfe.

Mais il a beau renverser les dogmes en vigueur – élimination rapide des adjuvants après la vaccination, innocuité de leur faible dose –, accumuler les éléments nouveaux, les autorités sanitaires et les industriels du vaccin persistent dans le déni, ou instillent le doute sur l’interprétation de ses résultats

Toxic Story est une enquête scientifique sur les adjuvants et le récit d’un long dessillement : celui d’un médecin-chercheur qui a choisi le parti de la science.

Le parti des patients. Romain Gherardi participe au colloque organisé par l'Institut des sciences de la communication (ISCC - CNRS/Pars-Sorbonne/UPMC) et l'Association des journalistes scientifiques de la presse d'information (AJSPI) :

Les journalistes face aux vaccins, mardi 25 octobre. 14h00 à 15h00 :

Les adjuvants, controverse centrale de la défiance.

Table ronde avec Romain Gherardi, chercheur (CNRS) et Brigitte Autran, PU-PH (UPMC).

Animée par Alain Labouze, rédacteur en chef de Science Actualités (Universcience).

Toxic Story Deux ou trois vérités embarrassantes sur les adjuvants des vaccins ROMAIN GHERARDI.
Repost 0
Published by Jean-Pierre LABLANCHY - CHRONIMED - dans Concept
commenter cet article
18 mars 2017 6 18 /03 /mars /2017 09:57

La PCR numérique : diviser pour plus de sensibilité

by C.AUDEBERT

La PCR en point final, celle qui se termine souvent par un dépôt sur gel d’agarose, ainsi que la PCR quantitative, dans laquelle on suit l’évolution de la libération de molécules fluorescentes dont le décollage plus ou moins précoce dépend de la quantité de matrice initialement introduite, se voient déclinées en versions numériques.

Par numérique est entendu ici, qu’une PCR peut prendre deux valeurs : 0 ou 1 (idéalement, 0 quand aucune cible n’est introduite au départ d’une PCR et que par voie de conséquence aucun signal issu d’amplification n’est observé, et 1 pour l’exact inverse).

Le principe de la PCR numérique est simple au niveau du concept mais techniquement beaucoup plus difficile à mettre en application.

Il s’agit de multiplier le nombre de bio-réacteurs disponibles, ainsi, un échantillon sera partitionné en des milliers de compartiments distincts.

Ensuite chaque compartiment sera considéré comme autant de réacteurs indépendants… donc en fin de PCR autant de réactions montrant oui ou non une amplification (autant de 0 et de 1), renvoyant à un système binaire.

L’application de la Loi de Poisson permettra ensuite d’estimer très finement la quantité initiale de cibles présentes dans l’échantillon de départ.

Les avantages de la PCR numérique par rapport à la qPCR classique sont assez évidents :

– elle permet une quantification absolue sans établir une courbe standard préalable

– elle est plus sensible voire beaucoup plus sensible.

Raindance annonce ainsi détecter un mutant parmi 250 000 molécules sauvages avec une limite inférieure de détection de 1 parmi 1.000.000

– elle est moins sensible aux inhibiteurs.

Le fait de diluer la matrice ADN complexe de départ pour la répartir dans un nombre important de réacteurs permet de favoriser le départ de PCR

– elle est nettement plus précise.

La technologie sera d’autant plus précise que le nombre de compartiments, le nombre de micro-réacteurs sera important



L’article « Digital PCR hits its stride » (La PCR numérique franchit un nouveau cap) de Monya Baker dans le Nature Methods (juin 2012) permet un aperçu de la technologie qui est passée du concept à des solutions commerciales qui se veulent de plus en plus accessibles.

Actuellement, plusieurs fournisseurs proposent des plateformes aux spécifications très différentes.

Les quatre fournisseurs ci-dessous proposent des systèmes de PCR numérique basés sur de la microfluidique pour Fluidigm, des interfaces solides (type OpenArray) de Life Technologies et des micro-gouttes pour Raindance et Biorad.


Ainsi, que le mentionne Jim Huggett (chef d’équipe au LGC), cité dans la publication de Monya Baker (Digital PCR hits its stride), la PCR numérique est réservée à des utilisateurs experts et se trouve encore allouée à des applications spécialisées car encore beaucoup plus chère que la PCR quantitative (traditionnelle) qui reste adaptée à la majorité des applications.

Repost 0
Published by Jean-Pierre LABLANCHY - CHRONIMED
commenter cet article
18 mars 2017 6 18 /03 /mars /2017 09:51

Un lien entre l'Alzheimer et les bactéries intestinales

Il existe un lien entre la composition de la flore bactérienne intestinale et la maladie d'Alzheimer, selon une étude publiée dans la revue Neurobiology of Aging.

Giovanni Frisoni et ses collègues des Hôpitaux universitaires de Genève (HUG) et du Centre national Fatebenefratelli (IRCCS) ont comparé la composition de la flore bactérienne intestinale d'un groupe de personnes atteintes de la maladie d'Alzheimer et présentant des dépôts de protéines amyloïdes, qui est une caractéristique cérébrale de la maladie, et d'un groupe avec ou sans trouble de mémoire, n'ayant pas de dépôts d'amyloïde.

Les bactéries stimulant l'inflammation étaient plus abondantes chez les personnes atteintes d'Alzheimer alors que les bactéries anti-inflammatoires étaient plus nombreuses chez celles sans amyloïde.

« À ce stade, ces observations ne permettent pas d'affirmer que la maladie d'Alzheimer est directement causée par la présence de bactéries nuisibles dans les intestins », précise le professeur Frisoni. «

Mais elles indiquent que l'étude de l'interaction entre microbes intestinaux et cerveau est une piste de recherche sérieuse qu'il vaut la peine de poursuivre ».

Psychomédia Publié le 26 septembre 2016

Psychomédia avec source : Tribune de Genève.

Repost 0
Published by Jean-Pierre LABLANCHY - CHRONIMED
commenter cet article