Overblog Suivre ce blog
Administration Créer mon blog
30 décembre 2016 5 30 /12 /décembre /2016 08:00

Triclosan : les choses à savoir sur ce produit dangereux

Le Minnesota est officiellement devenu le premier État à interdire les savon contenant du triclosan, une substance chimique antibactérienne longtemps utilisée, dont il a été prouvé qu’elle « perturbe les hormones sexuelles et thyroïdiennes ainsi que d’autres fonctions corporelles », et dont les scientifiques pensent qu’elle peut mener à des souches de bactéries résistantes, a rapporté CBS News.

L’interdiction prendra effet le 1er Janvier 2017.

En 2017, une interdiction fédérale du triclosan suivra celle du Minnesota.

Il semblerait également que le triclosan ne soit pas uniquement mauvais pour l'organisme, en effet, d’après les découvertes des chercheurs de l’université du Minnesota, il serait également toxique pour l’environnement.

Leur recherche a révélé que le triclosan « pouvait se décomposer en dioxine dangereuse pour les lacs et les rivières.

». La décision du Minnesota est un exemple de changement qui a débuté au niveau local, et cette décision de l’État du Nord a inspiré la FDA qui a décidé de prononcer une interdiction fédérale de la substance chimique, interdiction qui sera effective dès Septembre 2017. « Je voulais changer la situation nationale avec le triclosan, et nous avons réussi à contribuer à ce changement », a déclaré à CBS News John Marty, le sénateur de l’État du Minnesota.

Lors d’une interview à propos de l’interdiction, un porte-parole de la FDA a déclaré « Les fabricants de produits nettoyants pour les mains et le corps ne fournissent pas les données nécessaires afin d’établir l’efficacité et la sécurité des 19 ingrédients actifs présents dans la réglementation finale », a dit Janet Woodcock, MD, directrice du centre de recherche et d’évaluation des médicaments de la FDA, « Il est possible que les consommateurs pensent que les produits antibactériens sont plus efficaces pour prévenir la propagation des germes, mais il n’existe aucune preuve scientifique affirmant qu’ils sont meilleurs que le savon ordinaire et l’eau ».

Elle a également ajouté qu’en plus d’être inutiles, certains composants anti bactériologiques — et pas uniquement le triclosan — pouvaient causer des dommages sur le long terme.

Les grandes sociétés comme Procter & Gamble et Johnson & Johnson ont déjà commencé à réduire progressivement le triclosan.

Mais regardez les étiquettes : d’après CBS News, certains produits contenant la substance nocive sont toujours présents dans les rayons des magasins.

Cependant, trois ingrédients de remplacement ont été soumis à la FDA pour examen : le chlorure de benzalkonium, le chlorure de benzéthonium et le chloroxylénol.

Mais tout n’est pas clair pour autant.

Certes, le triclosan est progressivement éliminé du savon, mais la substance toxique est toujours présente dans le dentifrice.

D’après le New York Times, « C’est parce que la marque de dentifrice la plus vendue, Colgate Total, a réussi à convaincre la FDA que dans le dentifrice, les bénéfices du triclosan l’emportent sur les risques », et actuellement, Colgate Total est la seule marque de dentifrice à utiliser cette substance chimique.

La marque assure que le triclosan est une force puissante qui lutte efficacement contre les gingivites, le tartre, les maladies des gencives et les caries, a déclaré le porte-parole de la FDA. «

Sur la base de preuves scientifiques, l’équilibre entre les avantages et les risques est favorable à l’utilisation de la substance », a expliqué le porte-parole. Colgate a obtenu l’approbation pour utiliser du triclosan en 1997, quand, d’après le Times, « dans le cadre de sa demande de nouveau médicament, la marque avait mené une évaluation complète concernant les effets du triclosan sur la sécurité humaine.

L’examen comprenait une évaluation de ‘la cancérogénicité, de la toxicité pour la reproduction et le développement, de l’irritation de la peau et des yeux, et de la toxicité à long terme et à court terme’ ».

L’ingrédient est donc passé pour quelque chose de sain à mettre dans la bouche, même si à l’origine, il était utilisé pour stériliser les mains des chirurgiens avant une opération.

Pourtant, les essais sur les animaux ont prouvé que le triclosan pouvait perturber le développement normal du système reproductif et du métabolisme, a rapporté le Times.

Malgré cela, de nombreux dentistes ne voient pas de problème au fait que leurs patients utilisent du dentifrice contenant du triclosan. « Il prévient les gingivites, alors si vous êtes sensible à ce niveau-là, il faut reconsidérer les choses », a dit un dentiste au Times.

« Mais pour les personnes qui n’ont pas ce problème, cela fait plus de mal que de bien. » Un autre a également déclaré que le fluorure stanneux était un substitut efficace au produit.

Comme l’interdiction du triclosan dans les savons au Minnesota sera mise en place avant celle concernant le reste du pays, l’État a affirmé qu’il fera son maximum afin d’identifier sa mise en œuvre et de la communiquer à la FDA.

Et même si de nombreux dentistes ne voient pas d’inconvénient à l’utilisation de la substance chimique dans le dentifrice, sachez que le choix final vous appartient.

Kristine Solomon Le Style International•29 décembre 2016

Repost 0
Published by Jean-Pierre LABLANCHY - CHRONIMED - dans Concept
commenter cet article
29 décembre 2016 4 29 /12 /décembre /2016 12:36

Electricité : les compteurs Linky® déclencheront-ils une polémique sanitaire ?

Survolté, Le Canard Enchaîné revient aujourd’hui sur les nouveaux compteurs électriques Linky®.

Et il se gausse de l’avis rassurant que vient d’émettre, sur le sujet, l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail 1.

Cette Anses vient d’expliquer, expertises savantes à l’appui, que nous n’avions pas à nous affoler : « Compteurs communicants : des risques sanitaires peu probables » :

« Les compteurs Linky®, que ce soit en champ électrique ou magnétique, sont à l’origine d’une exposition comparable à celle d’autres équipements électriques déjà utilisés dans les foyers depuis de nombreuses années (télévision, chargeur d’ordinateur portable, table de cuisson à induction…). L’exposition à proximité d’un compteur de gaz ou d’eau est très faible, compte tenu de la faible puissance d’émission et du nombre réduit de communications (moins d’une seconde 2 à 6 fois par jour). L’exposition due aux compteurs est par exemple bien plus faible que celle due à un téléphone mobile GSM. »

Pour sa part Le Canard Enchaîné relève que « le courant passe mal ».

Il évoque les « 306 » maires qui « font de la résistance » et refuse ces installations – dont ceux de Caen et d’Aix-en-Provence. Idem, en Dordogne, à Montpeyroux (460 habitants) et à Montferrand-du-Périgord (160 âmes) où l’affaire est devant la justice administrative.

A Pamiers, à Niort, à Chartres-de-Bretagne certains se barricade  contre les installateurs de compteurs communicants.

Cette résistance fait parfois l’objet d’entrefilets dans la presse locale.

Passage de courant

Le « courant passe mal » : on rapporte encore des plaques de cuisson en survoltage, des boxes Internet qui vacillent, des lampes tactiles comme prises de folie…

Le Canard ne rapporte pas (encore) les premiers cas d’hyper-électro-sensibilité et les premiers certificats médicaux contre-indiquant la pose d’un compteur communicant au domicile du patient. Cela ne saurait tarder. Que dira alors, s’il est saisi, l’Ordre des médecins ?

L’affaire Linky® ne fait (peut-être) que commencer.

Deux millions des ces compteurs sont déjà installé en France.

Il y en aura trente-cinq millions en 2021. Un dossier à cinq milliard d’euros.

EDF saura-t-elle communiquer ?

1 « Officiel : les compteurs électriques Linky® ne sont pas dangereux. Faut-il en avoir peur ? » Journalisme et santé publique du 15 décembre 2016.

Lire aussi « Une bonne nouvelle pour Linky, votre futur compteur électrique ‘’communicant’’» Slate.fr, 15 décembre 2016

 

 

Repost 0
Published by Jean-Pierre LABLANCHY - CHRONIMED - dans Les ondes
commenter cet article
29 décembre 2016 4 29 /12 /décembre /2016 10:50

Apsychognosie médicale



    Consacrer toute sa vie professionnelle à ceux qui sont malades est une épreuve psychique redoutable. L’image d’Épinal du saint laïque en blouse blanche drapé dans sa science qui lui tient lieu de bouclier contre toute manifestation de faiblesse a la vie dure. Comme si tout soignant, et peu importe qu’il soit médecin ou non, se trouvait vacciné par ses études éprouvantes et longues contre toute pathologie psychiatrique.
Les étudiants en médecine sont lourdement atteints, leur taux de suicide particulièrement élevé, pour en rester à une donnée objective chiffrable, en témoigne.  
      Mais, en fait, et dans le monde entier, les responsables des enseignements, des formations et des services hospitaliers font comme si cette souffrance psychique majeure n’existait pas. Malgré la rupture récente du silence entourant cette question vitale, tout semble se passer comme si le corps médical dans son ensemble se considérait lui-même comme dépourvu de toute possibilité de connaissance de l’existence de son propre psychisme. C’est le sens premier du mot apsychognosie (1).

Les médecins ont le droit d’être malades dans leur corps comme dans leur tête, et de recevoir sans tarder tous les soins que leur état impose. Qu’on se le dise dans les chaumières comme dans tous les lieux de pouvoir. Est-il normal que la profession de médecin soit celle où on se suicide le plus et où les addictions sont les plus fréquentes ?  Non, faire un tel choix de vie  plutôt tourné vers les autres ne justifie en rien la survenue de tels drames humains dans l’indifférence générale.


(1) Terme inventé  en France par Pierre Fouquet dans les années 1950 pour évoquer l’abrasion psychique majeure occasionnée par une alcoolisation chronique prolongée.

F-M Michaut  CO d'Exmed 28-31 décembre 2016
psychognosie médicale CO d'Exmed
Repost 0
Published by Jean-Pierre LABLANCHY - CHRONIMED - dans Concept
commenter cet article
29 décembre 2016 4 29 /12 /décembre /2016 08:25

S’il demeure une excellente source d’oméga 3, ce poisson accumule aussi des métaux lourds et des polluants.

Des labels de qualité permettent d’identifier les spécimens les plus sains.

FRAIS, FUMÉ, EN SUSHIS ou en filet, le saumon est le poisson préféré des Français, juste devant le cabillaud.

Son nom désigne plusieurs espèces, du genre Oncorhyncus, saumons sauvages de l’océan Pacifique ainsi que Salmo salar, le saumon atlantique, variété la plus consommée en Europe.

Mais avec la surpêche, les saumons sauvages, qui remontaient les fleuves pour se reproduire en eau douce et dont les plus jeunes migraient vers l’océan pour grandir, se font rares.

D’où le recours à l’élevage intensif, la salmoniculture.

En France, au moins 80 % des saumons consommés proviennent de Norvège, d’Écosse et d’Irlande.

En 2013, après la diffusion d’un documentaire dénonçant les conditions d’élevage en Norvège, les Français avaient boudé ce poisson.

Avant que les ventes de saumon frais ne repartent à la hausse (+ 7 % en mars 2016) selon France Agri-Mer.

La consommation française de saumon fumé reste également une des plus importantes d’Europe.

De quoi rassurer les nutritionnistes car ce poisson demeure une excellente source d’oméga 3. Mais tout n’est pas rose dans le saumon.

Prédateur situé en haut de la chaîne alimentaire, il est susceptible d’accumuler dans sa graisse des métaux lourds et des polluants organiques persistants (PCB, dioxines) et des pesticides.

Il est riche en oméga 3…

Le saumon est très riche en deux types d’oméga 3 : l’eïcosapentaénoïque (EPA) et le docosahexaénoïque (DHA) dont le précurseur est l’acide alpha-linolénique (ALA).

Différentes études soulignent l’intérêt de ces acides gras polyinsaturés à longue chaîne dans la prévention des maladies cardio-vasculaires et la réduction de la mortalité par infarctus du myocarde (1).

Ils permettent de fluidifier le sang, prévenir la formation de plaques d’athérome dans les artères, diminuer la pression artérielle et le taux de triglycérides…

Ils pourraient également réduire le risque de démences, principalement sous l’action de la DHA qui joue un rôle essentiel dans le fonctionnement du cerveau (2).

En stimulant la microcirculation de l’oreille interne, ils prémuniraient même des troubles de l’audition liés à l’âge comme le suggère une étude sur 65.215 femmes, suivies pendant dix-huit ans (3). … mais les teneurs sont en baisse

Selon la Société internationale pour l’étude des acides gras et lipides (Issfal), la consommation hebdomadaire de 3,5 g d’EPA et de DHA protégerait des maladies cardio-vasculaires : 100 g de saumon cuit à la vapeur en apportent 1,21 g.

Globalement, les poissons d’élevage sont plus gras que les sauvages qui se dépensent davantage, mais leur teneur en oméga 3 tend à diminuer.

Autrefois nourris avec des protéines et huiles de poissons, ils mangent désormais 70 % d’aliments d’origine végétale. Résultat : le taux d’oméga 3 des saumons d’élevage écossais est passé de 2,7 g à 1,4 g pour 100 g de chair entre 2006 et 2015 (4).

« Ce taux reste cependant sensiblement supérieur à celui du saumon sauvage », nsouligne Marc Vandeputte, coordinateur des recherches piscicoles à l’Inra.

LEXIQUE :

ALA L’acide alpha-linolénique est un acide gras essentiel, précurseur de nombreux acides gras polyinsaturés dont le DHA et l’EPA.

Comme il ne peut être synthétisé par l’organisme, les besoins doivent être couverts par l’alimentation.

PCB Les polychlorobiphényles sont utilisés pour les isolations électriques et pour leurs propriétés ignifugeantes dans les encres, les peintures et les matières plastiques. Interdits depuis 1987, ils persistent dans l’environnement.

POU DE MER Lepeophtheirus salmonis est un parasite de 6 à 12 millimètres de long qui ronge la peau du saumon jusqu’à créer parfois des plaies ulcérées.

Sauvage ou d’élevage, pas plus d’une fois par semaine « On peut manger du saumon sauvage comme du saumon d’élevage car si on trouve plus de mercure dans le premier, il y a plus d’intrants et d’antibiotiques dans le second, affirme Charlotte Crastilleur, directrice adjointe à la direction de l’évaluation des risques à l’Agence nationale de sécurité alimentaire (Anses).

Mais dans les deux cas, les taux de contamination sont inférieurs aux doses maximales autorisées et les bénéfices apportés par les oméga 3 restent supérieurs aux risques. » Néanmoins, afin de maintenir un bon apport en acides gras essentiels tout en limitant l’exposition à des toxiques, l’Anses recommande de ne consommer du poisson que deux fois par semaine en alternant un poisson gras comme le saumon (ou le maquereau) avec un poisson maigre (5).

Se fier à certains labels Le Label Rouge, attribué par le ministère de l’Agriculture, garantit que le saumon est de qualité supérieure.

Le saumon écossais a été le premier a en bénéficier. Les consommateurs, qui veulent s’assurer d’un impact environnemental réduit des élevages, peuvent se référer au nouveau label français Pêche Durable.

Attention : le label bio n’est pas exempt de polluants.

Dans une enquête de décembre 2016, le mensuel 60 Millions de consommateurs a retrouvé quatre résidus de pesticides, interdits depuis longtemps, dans des pavés de saumon bio frais de Norvège et d’Irlande, en quantité plus importantes que dans les saumons conventionnels (6).

En cause, leur alimentation davantage à base de farines et huiles provenant de poissons sauvages.

En revanche, il y a moins de toxiques dans les saumons fumés dont les tissus graisseux ont été retirés.

Varier les préparations pour éviter les calories La chair du saumon fournit de bonnes quantités de protéines, de vitamines D, A, B parmi laquelle la vitamine B12, indispensable au bon développement du système nerveux, des minéraux et des oligoéléments (phosphore, potassium, sélénium, iode, cuivre, fer, zinc…).

Mais, en fonction des préparations, le saumon peut être plus calorique qu’il n’y paraît : si 100 g de saumon cru d’élevage fournissent 181 kcal, compter 231 kcal pour la même quantité de rillettes de saumon, 237 kcal pour le carpaccio, et 265 kcal pour 100 g de sandwich au saumon fumé avec du beurre, plus qu’une brochette de bœuf du même poids (7). Attention au surplus de sel

Les teneurs en sodium du saumon fumé peuvent parfois atteindre 1,9 g pour 100 g, soit près de 5 g de sel, dose journalière maximale recommandée par l’Organisation mondiale de la santé pour prévenir l’hypertension artérielle et les maladies cardio-vasculaires.

Modération aussi avec les sushis, surtout en cas de diabète : le riz blanc cuit qui accompagne le saumon cru a un indice glycémique élevé, et augmente le taux de glucose dans le sang. "De moins en moins d’antibiotiques" - Marc Vandeputte, coordinateur des recherches piscicoles à l'Inra «

En Norvège, les saumons d’élevage sont vaccinés et ne reçoivent quasi plus d’antibiotiques.

C’est de l’ordre de 0,9 g par tonne produite. Au Chili, on en utilise 100 fois plus mais il n’y a pratiquement pas de saumon d’élevage chilien vendu en France.

Actuellement, le problème numéro un des élevages est l’épidémie de poux de mer qui oblige à traiter les poissons avec des insecticides.

On essaie de réduire cette propagation par tous les moyens.

Une piste est de mettre dans les bassins des poissons qui se nourrissent des larves de poux.

Une autre est d’utiliser des bâches pour empêcher les parasites d’entrer dans les cages à saumons.

Mais, pour l’heure, on a besoin de traitements. » (1) A quantitive analysis of fish consumption and coronary heart disease mortality, Konig A. et al, American Journal of Preventive Medecine, 2005. (2) The pleiotropic effects of omega-3 docosahexaenoic acid and the allsmarks of alzheimer’s disease, Belkouch M. et al, Journal of Nutritional Biochemistry, 2016. (3) Fish and fatty acid consumption and the risk of hearing loss in women, Curhan G. et al, American Journal of Clinical Nutrition, 2014. (4) Impact of sustainable feeds on omega-3 long-chain fatty acid levels in farmed Atlantic salmon, 2006-2015, Sprague et al, Scientific Reports, 2015. (5) Poissons et produits de la pêche, synthèse des recommandations Anses, 2013. (6) Saumon : carton rouge pour le bio, n° 521, 2016. (7) Tables Ciqual (Anses). Par Brigitte Bègue

Repost 0
Published by Jean-Pierre LABLANCHY - CHRONIMED - dans Nutrition
commenter cet article
29 décembre 2016 4 29 /12 /décembre /2016 07:08

Darwin dynamite la génétique.

 

A bas les programmes, vive le hasard et la sélection !

 

Slogan de la prochaine élection présidentielle ?

Nenni.

Un sujet de discussion, vive, pour biologistes.

La biologie doit elle se plier à ce nouvel adage ?

C’est ce que semble montrer une expérience sur des cellules souches de sang de poulet dont les résultats sont publiés dans la revue PLOS Biology (1).

Selon cet article, au cœur de nos cellules, au plus près de notre ADN, le support moléculaire de l’hérédité, nul « programme génétique » au sens que l’informatique donne au mot programme. Mais le hasard et la sélection naturelle.

Un truc analogue au concept central du grand Charles Darwin. Itw de JJ Kupiec et P Sonigo par S. Huet Libération du 9/09/2001.

L’expérience a été réalisée par une équipe regroupant biologistes et mathématiciens, de Lyon, Paris, Evry, Lausanne et du Japon.

Dirigée pour la partie expérimentale par Olivier Gandrillon (CNRS).

Elle repose sur une théorie avancée pour la première fois par Jean-Jacques Kupiec (2) en… 1983 !

A l’époque, sans aucun succès.

Pas seulement en raison d’un parcours chaotique, qui l’a vu intégrer le monde de la recherche comme ingénieur d’étude puis de recherche à l’INSERM.

Et s’être présenté en vain au concours de chercheur en 1993, recalé par un jury manifestement pas très malin. Mais surtout en raison de « l’idéologie dominante » dans les laboratoires, fondée sur une interprétation des observations et expériences sur le vivant faisant la part belle à un « programme génétique ».

Un programme qui serait « écrit » dans l’ADN et qu’il suffirait de lire pour le connaître, le comprendre et résoudre les mystères du vivant.

Pourtant, les observations allant à l’encontre de cette théorie dominante s’accumulaient.

Face à cette difficulté, la plupart des biologistes suivaient alors une démarche similaire à celle des astronomes d’avant Copernic.

Complexifier la théorie géocentriste de Ptolémée pour lui permettre d’intégrer les nouvelles observations. Là, c’est la génétique et la notion de gènes qui se complexifient… au point de devenir de plus en plus floues.

Pendant ce temps, Kupiec solidifie sa proposition et la diffuse, avec articles scientifiques, interviews dans la presse et livres comme « Ni Dieu ni gène » (Le Seuil, 2001 avec Pierre Sonigo).

Des génomes entiers « lus » Comme souvent en science, c’est en creusant profond un sillon que l’on peut mettre en cause l’idée initiale.

En biologie, l’explosion de la technologie a permis de creuser très profond.

Des génomes entiers sont « lus » – au sens où l’on établit les longues séquences des bases (lettres) de l’ADN (les nucléotides Adénine, Cytosine, Thymine et Guanine) – pour des milliers d’espèces allant de bactéries et virus à l’éléphant ou l’homme.

Des bases de données gigantesques en découlent.

En outre, leur environnement de protéines, encore plus gigantesque en nombre d’informations, est aussi analysé de manière systématique, notamment avec le programme de recherche international ENCODE.

Les premiers résultats d’ENCODE ont été publié en 2012, ils montraient que le génome ne se comporte vraiment pas comme un « programme » sur le mode informatique : une instruction, une opération.

Ainsi, ENCODE confirmait l’importance des interactions entre l’ADN et les protéines de la « chromatine » (l’ensemble formé par l’ADN et les protéines qui lui sont liées dans le noyau des cellules) ou le caractère massif de transcriptions d’ADN en ARN sans que cela n’entraîne la production de protéines.

Mais nul programme au bout de l’exploration.

Les biologistes d’ENCODE ne se sont pas cachés les conséquences de leurs travaux.

«Ces découvertes forcent à repenser la définition du gène et de l’unité minimum de l’hérédité», écrivait l’un des auteurs dans la revue Nature.

Devant l’échec final de la recherche de ce programme au cœur du génome, l’attitude adoptée par de nombreux biologistes fut de basculer de la vision réductionniste à une vision de type holiste : ce serait « le tout » – la cellule » – qui expliquerait le fonctionnement du génome. Ni réductionnisme ni holisme Interrogé,

Jean-Jacques Kupiec en tirait une toute autre leçon.

Voici ce qu’il me déclarait pour un article paru dans Libération :

«Encode fournit une description de la chromatine à un niveau de précision inédit.

Mais cela reste une description et non une explication de son fonctionnement. L’obtention de données est certes importante pour faire progresser la science, mais nous avons aussi besoin de modèles et de théories qui expliquent le fonctionnement de la nature, qui permettent de faire des prédictions et de proposer des expériences nouvelles.

La science progresse grâce à un équilibre entre observation, expérimentation et théorisation. Dessin de Jochen Gerner (Libération du 14/09/2012)

Comparons avec les physiciens.

Ils explorent l’univers et en établissent une carte toujours plus élaborée.

Mais cette carte ne nous donne pas les lois qui expliquent le mouvement des planètes ou la formation des galaxies.

Aujourd’hui, les biologistes accumulent des données et établissent des cartes de plus en plus précises du vivant à l’échelle moléculaire et cellulaire.

C’est certainement très utile.

Mais un problème théorique majeur n’est pas résolu, perceptible dans le projet Encode lui-même.

Encode est présenté comme une suite logique : après avoir séquencé les génomes, on allait comprendre comment la cellule interprète le génome, puisque la seule séquence ne fournissait pas de réponses à nos questions sur le vivant.

Or, il s’agit en fait d’un glissement théorique très important. Cela revient à affirmer que le niveau explicatif du vivant n’est pas celui des gènes mais celui de la cellule prise comme un tout. On introduit ainsi une vision dite holiste – où le tout commande les parties – en contradiction avec le paradigme réductionniste de la biologie moléculaire, où les parties élémentaires doivent commander le tout.

Ce glissement théorique n’est pas une infamie en soi, le problème est que cette contradiction n’est pas assumée et qu’on n’en tire pas les conséquences.

Expression aléatoire des gènes Jean-Jacques Kupiec

Cette contradiction, qui fait osciller la biologie entre le réductionnisme et le holisme, est récurrente.

Sa solution implique de changer radicalement de cadre théorique. J’ai proposé une nouvelle théorie qui n’est ni holiste ni réductionniste.

Elle confère un rôle décisif aux phénomènes aléatoires – opposée à la vision déterministe qui fonde la notion de programme génétique – notamment dans l’expression des gènes. Ce moteur aléatoire au niveau génétique et moléculaire serait contrôlé par le niveau cellulaire sur le mode de la sélection naturelle.

Avec des collègues physiciens, nous avons effectué des simulations informatiques qui montrent la capacité de cellules fonctionnant selon ces principes à s’organiser en tissus. Ces simulations suggèrent aussi une nouvelle manière d’envisager le cancer (3).

Avec d’autres collègues nous étudions de manière expérimentale l’expression aléatoire des gènes afin de montrer qu’il s’agit d’un aspect essentiel de la différenciation des cellules en types différents et non d’un simple «bruit» parasitant le déroulement d’un «programme génétique» auquel la plupart de mes collègues adhèrent toujours comme paradigme de la biologie.

Cette nouvelle approche pourrait résoudre le mystère des relations entre la formation d’un individu et l’évolution des espèces sous la forme d’un processus unique, régulé par la sélection naturelle (4).»

Jean-Jacques Kupiec annonçait ainsi l’expérience dont les résultats sont publiés par PLOS Biology. Des prédictions testables Son objectif ?

Explorer par l’expérience une différence de prédiction entre les deux théories. Programme génétique d’un côté, hasard et sélection de l’autre.

Dans la première, les cellules souches, ou celle d’un embryon, savent « à l’avance » ce qu’elles doivent devenir. Grâce à l’information que leur ADN est censée contenir. Elles se transforment donc en cellules spécialisées en suivant ce « plan », de manière directe.

Dans la seconde théorie, elles commencent par exprimer leurs gènes au hasard, ce qui se traduit par une contenu en ARN et en protéines variable.

Puis un processus de sélection intervient, qui réduit drastiquement cette diversité aux types cellulaires opérationnels et viables dans l’embryon ou l’adulte.

Ces deux théories débouchent sur deux prédictions testables.

Pour celle du hasard/sélection, la variabilité des cellules doit évoluer en affichant d’abord une forte diversité due à l’expression au hasard des gènes.

Puis diminuer au cours de la stabilisation due à la sélection naturelle. En revanche, la théorie du programme n’a aucune raison de prédire cette forte diversité au début du processus de différenciation cellulaire.

Comment tester cette prédiction ? L’équipe d’Olivier Gandrillon a réalisé l’expérience avec des cellules souches de sang de poulet.

Nourries pour se diviser en cellules filles qui se spécialisent en érythrocytes ou globules rouges, les cellules qui transportent l’oxygène.

Les biologistes, grâce à des techniques nouvelles, automatisées, ont pu mesurer dans chaque cellule fille l’évolution de son contenu en ARN – lequel correspond à l’expression des gènes – lors du processus.

Et cela jusqu’à 72h après la première division de la cellule souche mère.

La difficulté technique de l’affaire explique qu’il ait fallu tant de temps pour y parvenir, même après l’obtention des crédits auprès de l’Agence Nationale de la Recherche (ANR) par l’équipe. Le résultat est net.

La variabilité de l’expression des gènes augmente aux débuts du processus, ainsi que la variabilité de la taille des cellules.

Les auteurs de l’article écrivent que ce résultat est «complètement compatible avec l’idée que la différenciation(cellulaire, note de SH) n’est pas un « simple programme » que toutes les cellules exécutent de manière identique, mais résulte d’un comportement dynamique du réseau moléculaire sous-jacent».

Le test de Popper La théorie passe ainsi avec brio un test « popperien » (du nom du philosophe des sciences Karl Popper).

Elle a prédit un fait d’observation – là, expérimental – que la théorie concurrente ne prédit pas. Un peu comme la Relativité générale d’Einstein prédit les ondes gravitationnelles récemment découvertes, ou explique un détail de l’orbite de Mercure, deux observations qui prennent Newton en défaut. Cette expérience va t-elle faire « basculer » l’opinion des biologistes ?

Et donc ouvrir un nouveau programme de recherche sur le volet « sélection » : quels sont les mécanismes sélectifs qui, à partir d’une population de cellules qui commencent par se différencier au hasard, réduisent drastiquement cette variation à la seule qui convienne, ici une cellule musculaire, là une cellule de sang ?

En 2009, dans une interview (5) à La Recherche, faite par Nicolas Chevassus-au-Louis, Jean-Jacques Kupiec faisait allusion à ce travail futur, à son succès attendu par lui, mais avertissait «je ne crois pas à l’expérience miracle qui emporte seule la conviction.

Je crois plutôt à une accumulation de faits qui, accompagnée d’un changement de perspective théorique, créera un nouveau paradigme».

Après tout, Charles Darwin n’a pas convaincu tout le monde tout de suite après la publication de l’Origine des espèces. (1)

Single-cell-based analysis highlights a surge in cell-to-cell molecular variability preceding irreversible commitment in a differentiation process. Angelique Richard, Los Boullu, Ulysse Herbach, Arnaud Bonnafoux, Valerie Morin, Elodie Vallin, Anissa Guillemin, Nan Papili Gao, Rudiyanto, Gunawan, Jeremie Cosette, Ophelie Arnaud, Jean-Jacques Kupiec, Thibault Espinasse, Sandrine Gonin-Giraud, Olivier Gandrillon. (2) Kupiec, J.J. A probabilist theory for cell differentiation, embryonic mortality and DNA C-value paradox. Spec. Sci. Technol. 6(5):471-478, 1983. (3) Laforge, B., Guez, D., Martinez, M., Kupiec, J.J. Modeling embryogenesis and cancer : an approach based on an equilibrium between the autostabilization of stochastic gene expression and the interdependance of cells for proliferation. Progress Biophys. Mol. Biol. 89: 93-120, 2005. (4) Jean-Jacques Kupiec, L’origine des Individus, 2008 (Fayard) (5) La Recherche No 434, Octobre 2009.

La prédiction avait été publiée au préalable dans l’article de Laforge et al. Cité plus haut, et dans la thèse de Thomas Heams, dirigée par Jean-Jacques Kupiec.

Elle était également à la base de toutes les demandes de crédits (retoquées) faites au début des années 2000. 28 décembre 2016 Il est des champs de la génétique qui sont encore très mal compris et où les perspectives classiques tendent simplement à complexifier les modèles pré-existants, comme il l’est rappelé dans l’article (avec un clin d’oeil à la physique relativiste et à la mécanique quantique qui font la même chose sans nouveau modèle convaincant depuis longtemps).

JJ Kupiec ouvre une nouvelle boîte, magnifiquement pertinente du point de vue conceptuel! Il lui faudra encore de nombreuses années pour démontrer son paradigme, si tant est qu’il soit correct, mais cela a maintenant déjà bien commencé et son idée « sent » formidablement bon.

La sélection naturelle darwinienne, si elle finira un jour par être complétée ou remplacée par d’autres théories (ça finit toujours par arriver…) a déjà fait ses preuves de manière remarquable, avec des prédictions « les yeux fermés », sans aucun moyen de vérifier, qui se sont avérées exactes des centaines d’années après, illustrant le génie de leur concepteur.

Ces prédictions géniales (dans le même genre, on avait eu par exemple les prédictions exactes d’Einstein sur le décalage de l’orbite de Mercure, confirmées des dizaines d’années après) et l’accumulation de preuves empiriques ont démontré la force de cette théorie, sa capacité exceptionnelle à expliquer la développement du vivant.

Ce que l’on ne savait pas c’est qu’elle n’expliquait pas seulement le développement du vivant à l’échelle des espèces (i.e. entre individus d’une même espèce) mais aussi à l’échelle de l’individu (i.e. entre cellules d’un même individu), ce que nous propose JJ Kupiec! Cela peut poser plusieurs questions, des plus basiques: « les mécanismes sélectifs sont ils les mêmes à l’échelle de l’espèce et à l’échelle de l’individu? » (je parle conceptuellement, il est évident qu’une lyse de cellule diffère d’une prédation par un carnivore du point de vue physique) aux plus évoluées: « quelle est la définition d’un organisme? » et celle également posée dans l’article de Nature sur le programme Encode: « quelle est la plus petite unité de l’hérédité? »

Plus on travaille sur la génétique, plus on se rend compte que cette unité semble complexe à définir, puisqu’on sait désormais qu’il n’y a pas que les gènes qui peuvent se transmettre mais également l’expression des gènes (i.e. l’interaction de ces gènes avec l’environnement), les gènes des organismes qui nous sont associés (il n’y a aucun organisme qui vit « seul »; nous nous vivons accompagnés de milliards de bactéries sur notre peau, dans notre estomac, etc), l’expression de ces gènes, ainsi que toutes les interactions possibles et imaginables entre les gènes de ces organismes et nos gènes.

Et d’ailleurs, comme le démontrera peut-être Kupiec, ce ne serait pas que les gènes qui seraient transmis mais également le moteur aléatoire des cellules et les processus sélectifs associés dont il parle?

Globalement la proposition de JJ Kupiec est fantastique:

il propose une nouvelle idée très simple (et que l’on connait déjà) pour expliquer une partie de la génétique qui semble se complexifier de manière inextricable.

J’attends la suite avec impatience! " Antoine 28 décembre 2016 Chouette, vous venez de découvrir l’épigénétique. " Ben non…l’épigénétique dit que l’environnement modifie l’expression des gènes au sein de chaque cellule, lors du développement et/ou du fonctionnement desdites cellules.

JJ Kupiec dit qu’il existe un moteur cellulaire dans les tissus, indépendant de l’environnement, qui génère des cellules de manière aléatoire dans le but de créer une gamme de variabilité cellulaire sur laquelle s’opérera une sélection naturelle.

Sélection naturelle qui permettra aux tissus de ne garder que les bonnes cellules (i.e. les meilleures cellules à répondre au processus sélectif, lequel est encore inconnu) lors de leur développement.

Ca fait quand même beaucoup de différences avec la simple définition de l’épigénétique…

Et cela implique aussi beaucoup de choses.

Par exemple est ce que c’est aussi de l’ADN qui code pour ce moteur cellulaire et le processus de sélection naturelle associé? Quelle région? La partie la plus importante de l’hérédité est peut-être là…

Par ailleurs si le plus petit niveau de sélection naturelle se situe désormais au niveau cellulaire, il faudra encore revoir la définition d’individu – cela a déjà bien commencé, maintenant on définit les individus en tant qu’individus avec leurs cortèges microbiens (ou autres) associés.

Enfin cette sélection au niveau cellulaire est elle contrôlée uniquement par les cellules de l’individu, ou peut-elle interagir avec des individus (et leurs cellules) exogènes?

Si c’est le miroir de la sélection darwinienne mais à l’échelle cellulaire, ça veut dire que l’évolution de la vie a des propriétés fractales. 28 décembre 2016 Mauvaise mise en contexte.. L’article oublie d’introduire le modèle actuel de signalisation cellulaire permettant la différenciation des cellules souches. Il existe dans l’espace extracellulaire un gradient de protéines (morphogène).

Ces protéines vont activer des récepteurs sur les cellules souches.

Cela va activer une voie de signalisation cellulaire qui va changer le programme transcriptionnel (l’expression de l’ADN) de la cellule.

Cela induit ensuite une différente expression de protéines et donc ensuite une différenciation de la cellule.

–>La différenciation de la cellule souche est donc liée au gradient de protéines (morphogènes) dans l’espace extracelullaire (dans l’environnement de la cellule souche).

–> L’article Gandrillon et al., 2016 mesure le programme transcriptionel de cellules pendant un intervalle de temps très LIMITE avant la différenciation de la cellule souche.

–> Le hasard et la selection naturelle ne va donc pas « contrôler » la différenciation des cellules souches…

Ce qui semble novateur dans l’article de Gandrillon et al. 2016, c’est l’étude du programme transcriptionnel à l’échelle de la cellule unique.

C’est déjà une belle avancée technologique.

Aussi, le schéma (Libération 2012) représente une molécule d’ARN comme un gros rond. L’ARN est un acide ribonucléique et devrait donc être représenté plus sous la forme d’un ruban. " C’était un peu le sujet de ma thèse de 1983 (comme l’article de J.J. Kupiec cité par Le Monde ) ​ qui s’appelait « Analyse systémique de la cancérogénèse » (mais oui …) et analysait les interactions que l’on ne nommait pas encore « épigénétiques » et la structure chromatinienne sur base des travaux d’un certain Claudio Nicolini ou en France de Jos » Uriel : Cancer, retrodifferentiation, and the myth of Faust. https://www.ncbi.nlm.nih.gov/pubmed/61805. (voir : http://www.mountvernon.fr/Complexite_et_cancerogenese/Complexite_et_cancerogenese.pdf )

Le résultat expérimental le plus « questionnant » par rapport au paradigme du « tout est programmé » alors était celui de John Gurdon qui, dès 1965, transplantait un noyau de cellule d’épiderme de crapaud dans un oeuf fécondé mais énucléé (un simple « blanc d’oeuf, en quelque sorte) et observait le développement d’un embryon complet !

Ce fut l’origine de ses travaux sur le clonage et la chèvre Dolly qui lui valurent le prix Nobel en 2012 … C’était déjà la preuve surtout que le gène ne décide pas de tout, tout comme le livre de recette ne détermine pas forçément ce que le cuisinier va préparer ….

Mieux vaut tard que jamais …

François Saint Pierre 28 décembre 2016

Très grande satisfaction personnelle à la lecture de cet article. Il y a longtemps que je soutiens le point de vue de Kupiec dans des débats théoriques, face aux généticiens de l’INRA, mais surtout de l’INSERM.

Voir que petit à petit ses idées gagnent du terrain me permet de penser que la science est réactionnaire, mais, heureusement, pas totalement. " 28 décembre 2016

Personnellement, je reste sceptique quant à l’aspect aléatoire. Kupiec écrit: il faut « Introduire le hasard dans le déclenchement des gènes » et « Un phénomène fondé sur le hasard peut être reproductible selon les lois de la statistique « (http://next.liberation.fr/guide/2001/09/08/la-biologie-n-a-plus-besoin-d-une-theorie-de-notaire_376523).

Pour moi, tout est question d’énergie qui permet le maintien d’un état d’équilibre et je ne crois pas que l’expression des gènes soit « simplement » aléatoire, lié au hasard.

Je ne crois pas au dessein intelligent, et c’est à mon sens un déséquilibre énergétique qui va déclencher la machine…pour établir un nouvel état d’équilibre…différent du premier…et qui lui-même aboutira à nouveau à un déséquilibre…qui déclenchera à nouveau une machine…pour rétablir un nouvel état d’équilibre…différent du deuxième…et ainsi de suite…

La vie quoi!

Et quand le système n’est plus capable de rétablir et maintenir un équilibre qui fait suite à un déséquilibre, alors il meurt…La considération de l’aspect énergétique réfute le simple hasard… Alors on peut imaginer que tout se met en route comme le propose Kupiec, ça part dans tous les sens au début et finalement, seul ce qui peut aboutir à quelque chose subsiste.

Ce serait alors similaire à la théorie de Stephen Hawking expliquant notre univers, mais adaptée à la matière vivante…

Mais Hawking intègre lui des considérations d’ordre énergétique, notamment autour de la force nucléaire forte de l’atome d’hydrogène qui ne pourrait pas supporter de variation…On passe par toutes sortes d’univers, avec des masses variables pour l’atome d’hydrogène et seul celui compatible subsiste…

Bon, Kupiec est génial parce que sa vision est originale et confortée par l’expérimentation…qui ne tient pas compte des aspects énergétiques…

Quand je lis: « Le résultat est net. La variabilité de l’expression des gènes augmente aux débuts du processus, ainsi que la variabilité de la taille des cellules. Les auteurs de l’article écrivent que ce résultat est «complètement compatible avec l’idée que la différenciation (cellulaire, note de SH) n’est pas un « simple programme » que toutes les cellules exécutent de manière identique, mais résulte d’un comportement dynamique du réseau moléculaire sous-jacent». OK! mais au delà du hasard, de l’aléatoire, les considérations d’ordre énergétique (enthalpie, entropie…) gouvernent l’évolution du système…

Mais l’idée de Kupiec, que ce n’est pas un simple programme, est géniale.

Et cette idée est parfaitement compatible avec l’épigénétique, qui nous explique comment l’environnement influence l’expression de ces gènes, qui conforte l’idée que leur expression n’obéit pas à un simple programme…

Repost 0
Published by Jean-Pierre LABLANCHY - CHRONIMED - dans Concept
commenter cet article
28 décembre 2016 3 28 /12 /décembre /2016 16:25

La graisse permet aux cellules cancéreuses de se développer et se propager dans le corps.

 

Les cellules cancéreuses se propagent à d'autres régions du corps via des vaisseaux lymphatiques existants ou en les créant, selon les résultats d'une étude publiée dans la revue médicale Nature . La principale source d'énergie de ce voyage serait les acides gras.

Les chercheurs de l'université de Leuven en Belgique ont découvert comment les cellules cancéreuses se propagent à d'autres sites dans le corps grâce à de nouvelles «routes» pour voyager.

Stopper la propagation du cancer

La propagation du cancer , appelée métastase, est l'une des complications les plus importantes et potentiellement mortelles du cancer.

La chimiothérapie et la radiothérapie actuelles peuvent traiter efficacement de nombreux cancers, cependant, la multiplication des cellules cancéreuses à de multiples sites dans le corps entraîne la majorité des décès associés au cancer.

Pour que les cellules cancéreuses se propagent, elles doivent trouver une «route» préexistante, ou construire une nouvelle «route» pour voyager.

Les vaisseaux lymphatiques, qui transportent du liquide plutôt que du sang, sont la voie principale de propagation des cellules cancéreuses.

La formation de nouveaux vaisseaux lymphatiques, appelée lymphangiogenèse, est un processus mal compris et il manque actuellement des médicaments cliniquement approuvés pour empêcher cette croissance. Les scientifiques ont démontré que ces vaisseaux lymphatiques utilisaient des acides gras comme carburant.

"Notre étude montre que l'utilisation des graisses par les vaisseaux lymphatiques est programmée dans leur développement et nécessaire à leur croissance et à leur fonctionnement.

En augmentant ou en empêchant l'utilisation des graisses, nous avons constaté que nous pouvions contrôler la croissance des vaisseaux lymphatiques", explique le docteur Brian Wong, responsable de l'étude.

Cette étude confirme les résultats d'une étude publiée en août 2016 dans cette même revue qui révélait que les cellules cancéreuses avaient besoin de gras pour se développer.

Réduire leur consommation de lipides permettrait de les stopper et donc de traiter les cancers.

 

Repost 0
Published by Jean-Pierre LABLANCHY - CHRONIMED - dans Concept
commenter cet article
28 décembre 2016 3 28 /12 /décembre /2016 10:49
Cette opération bénigne pour l'hypertrophie de la prostate est presque deux fois plus pratiquée en Savoie que dans le Pas-de-Calais.
 
Photo d'illustration.
 
Repost 0
Published by Jean-Pierre LABLANCHY - CHRONIMED - dans Concept
commenter cet article
27 décembre 2016 2 27 /12 /décembre /2016 18:46

Un défi majeur dans la compréhension et le traitement final de l'autisme est d'identifier les mécanismes moléculaires communs qui sous-tendent ce trouble génétiquement hétérogène.

 

Le profil transcriptomique des cerveaux autistes a révélé une mauvaise corrélation corrélée du régulateur d'épissage neuronal nSR100 / SRRM4 et son programme d'épissage microexon cible dans plus d'un tiers des individus analysés.

Pour étudier si la mauvaise régulation du nSR100 est causalement liée à l'autisme, nous avons généré des souris mutantes avec des niveaux réduits de cette protéine et son programme d'épissage cible.

Remarquablement, ces souris montrent plusieurs types autistiques comme des caractéristiques, y compris des comportements sociaux modifiés, la densité synaptique, et la signalisation.

En outre, l'augmentation de l'activité neuronale, qui est souvent associée à l'autisme, entraîne une diminution rapide du nSR100 et l'épissage des microexons qui chevauchent de manière significative ceux mal réglés chez les cerveaux autistes.

Collectivement, nos résultats fournissent la preuve que la mauvaise régulation d'un nSR100 dépendante de l'épissage du réseau contrôlé par des changements dans l'activité neuronale est causalement liée à une fraction importante de cas autisme.

 

 

 

Volume 64, Issue 6, p1023–1034, 15 December 2016

 

Misregulation of an Activity-Dependent Splicing Network as a Common Mechanism Underlying Autism Spectrum Disorders

 

Mathieu Quesnel-Vallières, Zahra Dargaei, Manuel Irimia, Thomas Gonatopoulos-Pournatzis, Joanna Y. Ip, Mingkun Wu, Timothy Sterne-Weiler, Shinichi Nakagawa, Melanie A. Woodin, Benjamin J. Blencowe8,Press enter key for correspondence informationPress enter key to Email the author,

Sabine P. CordesPress enter key for correspondence informationPress enter key to Email the author

8Lead Contact

DOI: http://dx.doi.org/10.1016/j.molcel.2016.11.033

Access this article on

ScienceDirect

Highlights

•Multiple autistic-like features in nSR100/Srrm4 haploinsufficient mice

•nSR100 mutant mice have altered synaptic transmission and neuronal excitability

•Neuronal activation induces splicing changes observed in autistic individuals

•Neuronal activation alters splicing by reducing nSR100 levels

 

Summary

A key challenge in understanding and ultimately treating autism is to identify common molecular mechanisms underlying this genetically heterogeneous disorder. Transcriptomic profiling of autistic brains has revealed correlated misregulation of the neuronal splicing regulator nSR100/SRRM4 and its target microexon splicing program in more than one-third of analyzed individuals. To investigate whether nSR100 misregulation is causally linked to autism, we generated mutant mice with reduced levels of this protein and its target splicing program. Remarkably, these mice display multiple autistic-like features, including altered social behaviors, synaptic density, and signaling. Moreover, increased neuronal activity, which is often associated with autism, results in a rapid decrease in nSR100 and splicing of microexons that significantly overlap those misregulated in autistic brains. Collectively, our results provide evidence that misregulation of an nSR100-dependent splicing network controlled by changes in neuronal activity is causally linked to a substantial fraction of autism cases.

Keywords:

autism spectrum disorder, alternative splicing, microexons, nSR100/SRRM4, neuronal activity

 

 

 

Repost 0
Published by Jean-Pierre LABLANCHY - CHRONIMED - dans Concept
commenter cet article
27 décembre 2016 2 27 /12 /décembre /2016 18:20

                                                               Perturbateurs endocriniens

Ils sont partout autour de nous, donc obligatoirement aussi au sein de nos organismes, ces produits fabriqués par l'industrie chimique, notamment pour l'agriculture et les médicaments.
 
Le système endocrinien humain est d'une grande complexité, et encore difficilement explorable par la clinique en dehors de ses pathologies les plus voyantes.
 
En vérité, les médecins ne se sentent pas vraiment concernés par ces modifications imperceptibles, tant qu'un grand scandale sanitaire ne bouleversera pas l'opinion.

Du fait de sa dangerosité potentielle liée à sa puissance et à sa diffusion planétaire, l'industrie chimique devrait être hautement surveillée.
 
La Commission européenne achève sa proposition de réglementation avec une disposition maintenant de fait l'usage des «perturbateurs endocriniens par conception ».
Source : le Monde du 20 décembre 2016.

Puissent les législateurs ne pas se laisser prendre - et nous tous avec, hélas- à ce piège sémantique redoutable.


 Dr François-Marie Michaut  CO d'Exmed 23-24 décembre 2016
Repost 0
Published by Jean-Pierre LABLANCHY - CHRONIMED - dans Nutrition
commenter cet article
27 décembre 2016 2 27 /12 /décembre /2016 11:35

Lithium, un anticancéreux?

Selon une étude parue dans le British Journal of Psychiatry en novembre 2016, chez les malades traités par lithium pour troubles bipolaires le risque d’apparition d’un cancer serait réduit d’environ 25 %, ceci comparativement aux malades bipolaires traités par des anticomitiaux comme l’acide valproïque.

Le mécanisme responsable des effets du lithium serait l’inhibition de la glycogène synthase kinase-3 qui intervient d’une manière complexe dans la signalisation intracellulaire.  

Par ailleurs, une étude parue dans Nature en 2016 montre que le lithium réduit le risque de métastase de cancer du colon. Le lithium se comporterait comme un facteur antimétastatique.

Le lithium pourrait-il être un adjuvant dans le traitement des cancers où GSK-3 serait très impliqué.

 

Posté le  

Repost 0
Published by Jean-Pierre LABLANCHY - CHRONIMED - dans Concept
commenter cet article