Overblog Suivre ce blog
Administration Créer mon blog
21 avril 2017 5 21 /04 /avril /2017 02:15

Italie : un tribunal reconnaît un lien entre une tumeur et le téléphone portable

Le plaignant avait eu une tumeur bénigne liée, selon lui, à son travail l'obligeant à utiliser son portable plusieurs heures par jour pendant 15 ans.

SOURCE AFP

Il devra recevoir une rente à vie pour le préjudice subi, un tribunal italien a reconnu le lien entre l'apparition d'une tumeur bénigne du cerveau et l'usage excessif du téléphone portable chez un homme.

Le jugement prononcé par le tribunal d'Ivrea (Nord) le 11 avril, et rendu public jeudi, a admis un lien entre l'apparition d'un neurinome chez un homme de 57 ans dont le travail dans une grande entreprise l'a obligé à utiliser son portable entre trois et quatre heures par jour pendant quinze ans.

Ce « jugement reconnaît le lien de causalité entre un usage inapproprié du téléphone portable et une tumeur au cerveau », ont indiqué les avocats du plaignant, Stefano Bertone et Renato Ambrosio.

Le jugement est toutefois susceptible d'appel.

« Désormais nous pensons qu'il est nécessaire de réfléchir sur ce problème et prendre des mesures adaptées », ont-ils ajouté.

Leur client avait commencé à ressentir les symptômes de sa maladie en 2010 sous la forme d'une sensation permanente d'oreille bouchée avant que ne soit diagnostiqué un neurinome auriculaire. «

Par chance, il ne s'agit que d'une tumeur bénigne, mais néanmoins invalidante.

J'ai dû subir l'ablation du nerf acoustique et je suis sourd du côté droit », a-t-il indiqué.

L'expert nommé par le juge a évalué son préjudice corporel à 23 % et condamné l'Institut national d'assurance contre les accidents du travail (Inail) à lui verser une indemnité à vie de 500 euros par mois.

Pas de conclusion définitive

Les études menées à ce jour dans le monde n'ont pas permis aux scientifiques de parvenir à une conclusion définitive sur les liens éventuels entre cancer et usage du téléphone portable.

Réunis à Lyon en 2011 à l'initiative de l'Organisation mondiale de la santé (OMS), une trentaine d'experts internationaux avaient estimé que l'usage du portable pouvait être cancérogène pour l'homme et réclamé que de nouvelles études soient menées sur l'utilisation intensive et sur le long terme des téléphones portables.

En attendant, ils avaient plaidé pour l'utilisation de « kits mains libres » et la pratique des SMS.

Publié le 20/04/17 à 16h48 | Source lepoint.fr

Un tribunal reconnaît un lien entre une tumeur et le téléphone portable.
Repost 0
Published by Jean-Pierre LABLANCHY - CHRONIMED - dans Les ondes
commenter cet article
15 février 2017 3 15 /02 /février /2017 07:57

Une conférence tenue en Turquie a rassemblé lundi des scientifiques internationaux dont les résultats semblent confirmer les risques pour la santé des téléphones portables.

Comme souvent, ces résultats menés sur de petits échantillons devront être confirmés à plus large échelle.

À une époque où le téléphone portable est devenu inévitable, même chez les enfants, plusieurs études ont d’ores et déjà tenté de déterminer les risques réels de son utilisation.

L’une d’elles, Interphone, réalisée dès les débuts de la généralisation de la téléphonie mobile, avait finalement échoué à conclure au terme de plusieurs années de suivi de nombreux utilisateurs, hésitant entre une innocuité totale et un risque important de développer un cancer...

Pour mieux répondre aux interrogations, des scientifiques tentent quotidiennement, à plus petite échelle, de déterminer les effets des mobiles sur la santé d’animaux modèles, voire sur la santé humaine.

Alors qu’une réunion concernant les dangers des téléphones portables, organisée par le Centre international de recherche sur le cancer (Circ) a démarré mardi à Lyon et devrait apporter de nouvelles conclusions le 31 mai, une autre conférence intitulée « Science update: cell phones and health » (« Mise à jour de la science : téléphones portables et santé ») s’est quant à elle achevée à Istanbul le 23 mai.

La question des ondes électromagnétiques

Les organisateurs, dont l’Environemental health trust (une organisation indépendante qui tient à connaître et à diffuser au grand public les effets des téléphones portables sur la santé) et les Universités de Gazi (Turquie) et d’Athènes (Grèce), avaient réuni des spécialistes internationaux.

Présentées à la conférence, les découvertes faites au cours des dernières années par plusieurs équipes semblent accabler les téléphones mobiles, dont les effets seraient particulièrement visibles au niveau du cerveau et de la fertilité.

Ce sont les ondes électromagnétiques émises par les téléphones et les antennes relais qui sont au centre des débats.

Avec des fréquences comprises entre 900 et 1.800 mégahertz, et bien qu’elles soient cousines des ondes de moyenne fréquence utilisées pour la diffusion de la radio considérées comme n’ayant aucune conséquence sur la santé (de 300 à 3.000 kilohertz), elles sont tout aussi proches des dangereuses microondes de nos fours capables de cuire rapidement des aliments (de 1 à 300 gigahertz).

Faudra-t-il réduire notre utilisation des téléphones portables ?

Dangereux pour le cerveau… Ainsi, une équipe de l’Université de Gazi menée par Nesrin Seyha a exposé des lapins blancs de Nouvelle-Zélande à des ondes de 1.800 mégahertz quotidiennement pendant 15 minutes.

L’observation d’une augmentation significative de radicaux libres dans le cerveau des animaux exposés (le malondialdéhyde et le 8-hydroxy-2’-déoxyguanosine) indique que les ondes électromagnétiques provoquent une élévation du stress oxydatif, ce qui pourrait endommager les lipides et surtout l’ADN cérébral.

Selon une deuxième étude également menée par Nesrin Seyha, la barrière hémato-encéphalique qui permet de filtrer les molécules ou les agents pathogènes dangereux pour le cerveau serait aussi affectée, car rendue plus perméable chez des rats mâles (mais pas chez les femelles), après seulement 20 minutes d’exposition à des ondes de 900 ou 1.800 mégahertz.

Ces effets constatés à l'échelle cellulaire entraînent-ils des conséquences sur le fonctionnement cérébral ?

Il semblerait que la réponse soit positive ! Une troisième étude présentée à la conférence, et réalisée par une équipe grecque, montre en effet une diminution de l’efficacité de la mémoire spatiale chez la souris.

Après une exposition à des ondes de 900 mégahertz à raison de 2 heures par jour, des souris placées dans un bassin ont plus de mal à se diriger (grâce à leur mémoire et à un repère visuel) vers la plateforme dissimulée sous quelques millimètres d’eau et qui leur permet de se reposer. …et pour la fertilité

D’autres études ont quant à elles démontré la présence de dommages au niveau des chromosomes des lymphocytes humains ou de l’ADN des cellules situées au niveau des racines des cheveux.

La fertilité serait aussi mise à mal par les ondes électromagnétiques, qui réduiraient la reproduction chez la drosophile et augmenteraient la quantité d’espèces réactives de l’oxygène dans les spermatozoïdes humains étudiés in vitro.

De plus, selon une étude rendue publique par l’Université du Queens au Canada, ces fréquences réduiraient la fertilité humaine masculine, en augmentant le taux de testostérone mais en réduisant celui de l’hormone lutéinisante (la LH, qui permet à la testostérone d'être plus active).

Ces résultats, bien qu’inquiétants, demandent à être confirmés par des études plus larges.

L'une d'elles, baptisée Cosmos, est aujourd’hui en cours et porte sur le suivi de 250.000 personnes... mais ne livrera ses résultats que dans vingt ou trente ans.

Repost 0
Published by Jean-Pierre LABLANCHY - CHRONIMED - dans Les ondes
commenter cet article
6 février 2017 1 06 /02 /février /2017 13:44

Electrophotonique : ce que les photons disent de notre santé.

 

Par Georges Vieilledent    IPSN 2016

 

https://www.youtube.com/watch?v=e5d2tRJgcSc

 

M. Georges Vieilledent

 

Pour faire un bilan électrophotonique :

2 Zone d'activité Douzil

Brens 81600

Véronique Bois Assistante

Vous pouvez nous contacter par téléphone aux heures ouvrables au numéro suivant : 05 63 81 99 63

Véronique se fera un plaisir de répondre à vos questions

 

 

 

 

 

 

Repost 0
Published by Jean-Pierre LABLANCHY - CHRONIMED - dans Les ondes
commenter cet article
19 janvier 2017 4 19 /01 /janvier /2017 05:40

Sans surprise, 2016 a été l'année la plus chaude sur Terre depuis le début des relevés de températures en 1880.

Ca ne paraît pas évident durant cette exceptionnelle vague de froid qui frappe la France , mais le dérèglement climatique continue, d'année en année, à réchauffer la Terre. 2016 a été l'année la plus chaude sur la planète depuis le début des relevés de températures en 1880, d'après les derniers chiffres de l'Agence américaine océanique et atmosphérique (NOAA). Il s'agit du troisième record annuel consécutif de chaleur.

Avec une montée record du mercure durant chacun des mois de janvier à août, la température à la surface des terres et des océans a été 0,94 °C supérieure à la moyenne du XXe siècle (qui était de 13,9°C), surpassant le précédent record de 2015 de 0,04°C.

Seule exception pendant l'année : même si septembre 2016 a été très chaud, il a marqué la fin des records mensuels consécutifs de chaleur enregistrés depuis seize mois.

Cela résultait en partie de la récurrence du courant équatorial chaud du Pacifique El Nino. Celui-ci a commencé à se dissiper à partir du printemps.

Moins de chaleur en 2017 ? Dans une analyse séparée des relevés de températures mondiales, la Nasa a également déterminé que 2016 a été l'année la plus chaude sur le globe en 136 ans.

Depuis le début du XXIe siècle, la planète a enregistré cinq années de chaleur record , en 2005, 2010, 2014, 2015 et 2016. « Même si on ne prend pas en compte le réchauffement dû à l'influence d'El Nino, 2016 reste l'année la plus chaude de l'histoire moderne », pointe le professeur Piers Forster, directeur du Centre international Priestley pour le climat à l'Université de Leeds, aux Royaume-Uni.

Selon lui, « 2017 sera probablement moins chaude mais je m'attends encore à de nouveaux records de montée du mercure sur la planète d'ici quelques années ».

Quant au mois de décembre 2016, la température à la surface des terres et des océans s'est située 0,79°C au-dessus de la moyenne du XXe siècle. Le mois dernier a ainsi été le troisième mois de décembre le plus chaud dans les annales après 2014 et 2015.

Pour l'ensemble de 2016, la température à la surface des terres a été 1,43°C supérieure à la moyenne du XXe siècle, soit la plus élevée depuis 1880, battant le précédent record de 2015 de 0,10°C.

Records de chaleur sur les 3 dernières années . Ondes de chaleur.
Records de chaleur sur les 3 dernières années . Ondes de chaleur.
Records de chaleur sur les 3 dernières années . Ondes de chaleur.
Records de chaleur sur les 3 dernières années . Ondes de chaleur.
Records de chaleur sur les 3 dernières années . Ondes de chaleur.
Records de chaleur sur les 3 dernières années . Ondes de chaleur.
Repost 0
Published by Jean-Pierre LABLANCHY - CHRONIMED - dans Les ondes
commenter cet article
14 janvier 2017 6 14 /01 /janvier /2017 18:21

L'héritage d'Einstein est bien vivant, la preuve : l'une de ses tentatives pour unifier la physique des particules de matière avec celle des champs de force contient peut-être en germe une des clés de la solution de l'énigme de l'énergie noire en physique quantique.

Comme expliqué dans un précédent article introductif sur la géométrie non-commutative en physique,

Albert Einstein a très tôt entrepris d’aller au-delà de sa propre théorie de la relativité générale. L'objectif était double car il s'agissait non seulement de découvrir une théorie unifiée qui aurait réuni le champ de gravitation avec le champ électromagnétique au sein d'un seul champ mais également une théorie non dualiste de la matière et des champs.

Rappelons qu'en ce qui concerne les particules de matière à la fin des années 1910, cela voulait dire les protons et les électrons, puisque le neutron, les neutrinos et les mésons étaient alors inconnus.

Avant sa formulation finale de la théorie de la relativité générale, en novembre 1915, Einstein avait déjà réfléchi, comme plusieurs de ses contemporains et en particulier Poincaré, à des modèles décrivant la structure et les propriétés des particules chargées, en l’occurrence, les électrons.

Poincaré avait montré que l’on pouvait retrouver plusieurs phénomènes liés aux propriétés de l’électron en le considérant comme une répartition étendue de charge qui n’explosait pas sous l’effet de la répulsion électrostatique de ses parties si l’on supposait qu’une autre force s’y opposait.

En 1919, Einstein avait été conduit à modifier légèrement les équations de la relativité générale, dans le cadre de ses recherches sur une théorie non dualiste de la matière et du champ (supposant donc que les particules sont des concentrations d’énergie dans un champ unitaire et pas des objets étrangers à ce champ qu’il fallait postuler).

Il avait alors obtenu pour la première fois ce que les physiciens actuels appellent la théorie unimodulaire de la gravitation.

Le vide en physique est un concept difficile à définir. On pourrait penser qu'il désigne l’absence de tout, mais en mécanique quantique il semblerait que cela ne soit pas vraiment le cas… Futura-Sciences a interviewé Claude Aslangul sur ce sujet.

L'énergie noire est la pire prédiction de la physique théorique

Magiquement, cette théorie prédisait l’existence d’une force de pression issue de la gravité capable de jouer le rôle, en théorie du moins, de la force postulée par Poincaré.

On peut montrer que cette théorie reproduit bon nombre des prédictions de la relativité générale, sauf qu’elle peut conduire à des violations de la conservation de l’énergie !

Nous n’avons pas de raisons valables de douter de cette loi, très bien vérifiée par l’expérience, mais cela n’a pas empêché les physiciens, qui ne sont ni dogmatiques ni étouffés par une soi-disant pensée unique, d’explorer plusieurs théories qui d’une façon ou d’une autre peuvent conduire à des violations de la conservation de l’énergie. Il existe par exemple des modifications des équations de la mécanique quantique, notamment dans l'étude de l’évaporation des trous noirs par rayonnement Hawking, qui viole cette conservation de l’énergie.

Indépendamment de cette problématique, le physicien Lee Smolin, entre autres, a montré que la théorie unimodulaire de la gravité contenait peut-être la solution d’une énigme parfois considérée comme la pire prédiction de la physique.

En effet, la théorie quantique tend à prédire que les champs de matière et de forces possèdent une énergie minimale colossale, c’est-à-dire qu’ils doivent se manifester sous la forme d’une densité d’énergie du vide quantique, la fameuse énergie noire, possédant une valeur extraordinairement élevée.

Problème, la valeur calculée de cette énergie est 10120 fois plus élevée (1 avec 120 zéros !) que ce que montrent les observations depuis 1998.

On a bien du mal à produire des théories qui s’accordent avec cette observation et elle est troublante à plus d’un titre car selon la théorie d’Einstein, comme Pauli l’avait compris dès les années 1920 (voir l’article ci-dessous), une telle densité d’énergie doit tellement courber l’espace sur lui-même qu’il serait plus petit que la Terre.

Or il semble bel et bien que la théorie unimodulaire de la gravité supprime automatiquement l’effet de l’énergie du vide sur la courbure de l’espace-temps, tout en introduisant une constante cosmologique qui se manifeste par une accélération de l’expansion de l’univers observable depuis quelques milliards d’années. Giancarlo Ghirardi est un physicien italien bien connu notamment pour la théorie qu'il a proposée en 1985 avec Alberto Rimini et Tullio Weber.

Il nous parle de la théorie quantique.

L'énergie noire et le problème de la mesure en physique quantique

Le journal Science vient d’attirer l’attention sur l’un des derniers travaux qui spéculent sur la pertinence de la théorie proposée par Einstein en 1919. Il s’agit d’un article déposé sur arXiv par trois physiciens, Thibault Josset et Alejandro Perez, de l’université d’Aix-Marseille, en compagnie de leur collègue Daniel Sudarsky, de l’université nationale autonome du Mexique (Universidad Nacional Autónoma de México, UNAM).

Les trois chercheurs montrent que l’on peut connecter la valeur de la constante cosmologique actuelle à la quantité d’énergie non conservée impliquée par la gravité unimodulaire.

Il faut pour cela relier cette violation de la conservation de l’énergie à celle intervenant notamment dans une classe de théories modifiant les équations de la mécanique quantique afin d’expliquer certains de ses paradoxes.

En effet, la théorie quantique autorise en quelque sorte une particule à être en plusieurs endroits à la fois.

Comment se fait-il que nous n’observions rien de tel à l’échelle macroscopique ?

C’est un avatar d’un célèbre problème en physique quantique et qui se cache sous les désignations ésotériques de problème de la réduction du paquet d’onde ou encore de l’effondrement du vecteur d’état, ou, plus sobrement, de problème de la mesure.

En 1985, les physiciens Ghirardi, Rimini et Weber ont proposé un mécanisme impliquant une modification de la théorie quantique et forçant une particule à se localiser au bout d’un temps souvent très long.

L’effet est très faible mais les objets macroscopiques contenant au moins des millions de milliards de milliards de particules et parfois bien plus, le mécanisme est finalement très rapide.

La théorie de Ghirardi-Rimini-Weber a par la suite été étendue et elle a donné finalement ce qu’on appelle la théorie de la localisation continue spontanée ou CSL (pour continuous spontaneous localization).

C’est cette théorie qui a été mise en connexion avec la gravité unimodulaire et la cosmologie.

Tout ceci reste bien sûr très spéculatif.

Pour aller plus loin, il faut explorer toutes les voies ouvertes au-delà de la physique du modèle standard.

De plus, l'idée qu'il est nécessaire de modifier les équations et l'interprétation de la mécanique quantique, en particulier avec l'introduction de phénomènes non linéaires, ce qui est bien le cas avec la théorie CSL, est complétement dans l'esprit d'Einstein.

L'avenir pourrait montrer que le père de la théorie de la relativité, et dans une certaine mesure de la mécanique quantique, avait des décennies d'avance, voire un siècle... Schrödinger et Einstein avaient entrevu l'énergie noire Article de Laurent Sacco publié le 16/12/2012 Albert Einstein a publié en 1917 son modèle d’univers dans lequel il introduisait la désormais célèbre constante cosmologique.

En relisant deux articles concernant un débat entre Einstein et Schrödinger au sujet de cette constante en 1918, un physicien américain s’est rendu compte qu’Einstein avait entrevu la possibilité que sa constante se comporte comme certains modèles d’énergie noire actuels.

Lorsque Albert Einstein a publié en 1917 son premier modèle cosmologique issue des équations de la relativité générale, il avait utilisé une possibilité au départ purement mathématique dictée par la théorie des invariants en géométrie différentielle.

Il s’agissait aussi de trouver des solutions décrivant la géométrie de l’espace-temps à grande échelle produite par une distribution d’étoiles censée représenter l’univers et en accord avec une idée à laquelle Einstein tenait par-dessus tout : le principe de Mach.

Einstein obtenait au final un système d’équations exprimant la structure de l’espace-temps en cosmologie avec une constante notée lambda, ajustée pour contrebalancer par des forces répulsives les forces d’attraction d’une distribution uniforme d’étoiles dans un espace-temps clos, fini et éternel.

Sans ces forces répulsives, l’univers ne serait pas stable, en contradiction avec ce que l’on pensait savoir à l’époque.

La constante d’Einstein allait devenir célèbre et aujourd’hui tout le monde en a entendu parler sous le nom de constante cosmologique.

Erwin Schrödinger et Albert Einstein partageaient bien des choses en commun, comme un intérêt pour la philosophie et une insatisfaction devant l'interprétation orthodoxe de la mécanique quantique. Ils ont travaillé sur des thèmes identiques en relativité générale, de la cosmologie à une théorie unifiée de la gravitation et du champ électromagnétique.

En 1918, Erwin Schrödinger, le futur découvreur de la mythique équation gouvernant le monde de la mécanique quantique, proposa dans un court article de traiter différemment la constante cosmologique d’Einstein.

Non comme un paramètre de la partie des équations d’Einstein traitant de la courbure de l’espace-temps, mais comme l’effet d’une densité de matière ou d’énergie encore inconnue.

En des termes modernes, comme le fait remarquer aujourd’hui le physicien Alex Harvey, professeur à la City University of New York, dans un article publié sur arxiv, Schrödinger introduisait implicitement le concept d’énergie noire en cosmologie.

Schrödinger, précurseur pour le concept d’énergie noire

Le génial Schrödinger arpenta plus tard de nouveaux sentiers de la cosmologie relativiste avec des décennies d'avance.

En effet, en 1939, il a découvert que dans un univers en expansion, les lois de la mécanique quantique et de la relativité générale peuvent conduire à la création de particules.

Il avait donc 30 ans d’avance sur Zel’dovich, Starobinsky et Hawking qui, entre la fin des années 1960 et le milieu des années 1970, ont exploré les conséquences de la théorie quantique des champs en espace-temps courbe au début de l’univers ou au voisinage des trous noirs.

Einstein ne tarda pas à répondre aux remarques de Schrödinger. Il avait bien sûr eu la même idée, mais n’en avait pas parlé dans son article de 1917, parce que cela aurait ouvert la boîte de Pandore.

En effet, si on considère que la constante cosmologique est la manifestation d’une distribution de matière-énergie, il faut admettre qu’elle peut varier dans le temps et dans l’espace selon des lois à déterminer.

En des termes modernes, selon Alex Harvey, Einstein entrevoyait que sa constante devait être remplacée par des équations décrivant un champ scalaire variable dans l’espace-temps, c'est-à-dire quelque chose comme les modèles de quintessence pour l’énergie noire.

Einstein et Pauli en pleine discussion.

Les deux physiciens étaient des maîtres de la théorie de la relativité générale.

L'énigme de la constante cosmologique

Mais comme aucune indication ne permettait de fixer les équations de ce champ, on ne pouvait que se perdre en conjectures stériles.

Il valait mieux considérer dans un premier temps le modèle cosmologique le plus simple possible au niveau des hypothèses.

Quatre-vingts ans plus tard, Saul Perlmutter, Adam Riess et Brian Schmidt, en découvrant l’expansion accélérée de l’univers, allaient ramener le problème considéré par Schrödinger et Einstein sur le devant de la scène.

Un autre problème clairement vu au début des années 1920 par Wolfgang Pauli allait devenir lui aussi encore plus aigu.

Avant même la découverte par Heisenberg, Born et Schrödinger des lois de la mécanique quantique, le jeune Pauli avait compris que les règles de la vieille théorie quantique imposaient que le champ électromagnétique devait contenir tellement d’énergie même en l’absence de propagation de la lumière qu’il aurait dû courber l’espace de l’univers clos d’Einstein de telle sorte qu’il ressemblerait à une sphère de seulement 31 km de rayon environ.

Ce grave problème persiste aujourd’hui lorsque l’on tente de comprendre la nature de l’énergie noire.

Repost 0
Published by Jean-Pierre LABLANCHY - CHRONIMED - dans Concept Les ondes
commenter cet article
29 décembre 2016 4 29 /12 /décembre /2016 12:36

Electricité : les compteurs Linky® déclencheront-ils une polémique sanitaire ?

Survolté, Le Canard Enchaîné revient aujourd’hui sur les nouveaux compteurs électriques Linky®.

Et il se gausse de l’avis rassurant que vient d’émettre, sur le sujet, l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail 1.

Cette Anses vient d’expliquer, expertises savantes à l’appui, que nous n’avions pas à nous affoler : « Compteurs communicants : des risques sanitaires peu probables » :

« Les compteurs Linky®, que ce soit en champ électrique ou magnétique, sont à l’origine d’une exposition comparable à celle d’autres équipements électriques déjà utilisés dans les foyers depuis de nombreuses années (télévision, chargeur d’ordinateur portable, table de cuisson à induction…). L’exposition à proximité d’un compteur de gaz ou d’eau est très faible, compte tenu de la faible puissance d’émission et du nombre réduit de communications (moins d’une seconde 2 à 6 fois par jour). L’exposition due aux compteurs est par exemple bien plus faible que celle due à un téléphone mobile GSM. »

Pour sa part Le Canard Enchaîné relève que « le courant passe mal ».

Il évoque les « 306 » maires qui « font de la résistance » et refuse ces installations – dont ceux de Caen et d’Aix-en-Provence. Idem, en Dordogne, à Montpeyroux (460 habitants) et à Montferrand-du-Périgord (160 âmes) où l’affaire est devant la justice administrative.

A Pamiers, à Niort, à Chartres-de-Bretagne certains se barricade  contre les installateurs de compteurs communicants.

Cette résistance fait parfois l’objet d’entrefilets dans la presse locale.

Passage de courant

Le « courant passe mal » : on rapporte encore des plaques de cuisson en survoltage, des boxes Internet qui vacillent, des lampes tactiles comme prises de folie…

Le Canard ne rapporte pas (encore) les premiers cas d’hyper-électro-sensibilité et les premiers certificats médicaux contre-indiquant la pose d’un compteur communicant au domicile du patient. Cela ne saurait tarder. Que dira alors, s’il est saisi, l’Ordre des médecins ?

L’affaire Linky® ne fait (peut-être) que commencer.

Deux millions des ces compteurs sont déjà installé en France.

Il y en aura trente-cinq millions en 2021. Un dossier à cinq milliard d’euros.

EDF saura-t-elle communiquer ?

1 « Officiel : les compteurs électriques Linky® ne sont pas dangereux. Faut-il en avoir peur ? » Journalisme et santé publique du 15 décembre 2016.

Lire aussi « Une bonne nouvelle pour Linky, votre futur compteur électrique ‘’communicant’’» Slate.fr, 15 décembre 2016

 

 

Repost 0
Published by Jean-Pierre LABLANCHY - CHRONIMED - dans Les ondes
commenter cet article
23 décembre 2016 5 23 /12 /décembre /2016 09:37

Soupçons sur les ondes des téléphones portables

Les niveaux d’exposition aux radiofréquences annoncés par les fabricants sont dépassés en conditions réelles d’utilisation.

Dans la hotte des achats de Noël, les téléphones portables figurent en bonne place.

Sans que les consommateurs soient clairement avertis de leur exposition aux radiofréquences de ces appareils et à leurs dangers potentiels.

Car les données fournies par les fabricants sont fondées sur des tests effectués en laboratoire, selon des procédures très différentes des conditions réelles d’utilisation des mobiles.

C’est ce que dénoncent aujourd’hui des militants « anti-ondes », qui y voient « un scandale industriel et sanitaire » de même nature que le « dieselgate ». Un « phonegate » donc ?

Dans le cas présent, il ne s’agit pas d’une tricherie au sens strict, mais plutôt d’un brouillage des informations données aux usagers, à la faveur d’une réglementation laxiste.

Les enjeux sanitaires n’en sont pas moins importants.

L’Organisation mondiale de la santé a classé les radiofréquences comme « peut-être cancérogènes pour l’homme ».

Et l’Agence nationale de sécurité sanitairede l’alimentation, de l’environnement et du travail(Anses) a estimé, dans un rapport de juillet 2016, que ces ondes ont « des effets possibles sur les fonctions cognitives et le bien-être » des plus jeunes.

Le dossier est technique, ce qui contribue à son opacité.

L’exposition aux radiofréquences émises et reçues par un téléphone portable est mesurée par le débit d’absorption spécifique (DAS), exprimé en watts par kilogramme (W/kg).

Il s’agit de la quantité d’énergie absorbée, sous forme de chaleur, par les tissus biologiques.

En Europe, une réglementation de 1999 a fixé la valeur à ne pas dépasserà 2 W/kg, pour l’exposition de la tête et du tronc, et à 4 W/kg pour les membres.

Les fabricants respectent bien ces normes… du moins quand l’appareil n’est pas placé au contact du corps.

Pour faire certifier leurs modèles, ils font en effet procéder à des essais en laboratoire.

L’exposition au niveau de la tête est évaluée, non sur des cobayes humains, mais sur des mannequins remplis d’eau et de sucres.

Pour le corps, on se contente de cuves d’eau.

Or, si, pour les tests au niveau de la tête, la réglementation impose que la mesure soit faite téléphone collé à l’oreille, pour ceux au niveau du reste du corps, elle laisse les industriels libres de fixer la distance à laquelle est placé l’appareil.

Et de la choisir en sorte, précisément, que la limite d’exposition ne soit pas dépassée.

Des notices d’utilisation floues

A l’exception des modèles les plus récents, pour lesquels la distance lors des tests a été raccourcie, celle-ci était jusqu’ici d’environ 15 mm, avec un maximum de 25 mm.

Ces quelques millimètres font toute la différence avec la vie réelle, dans laquelle le portable est couramment porté dans la poche de chemise, de veste ou de pantalon, au contact presque direct avec la peau.

Rappelons que même quand l’utilisateur ne téléphone pas, son mobile, lorsqu’il est en veille, reste connecté et source de radiofréquences.

L’Agence nationale des fréquences (ANFR), l’établissement public chargé du contrôle de ce secteur, a fait procéder à ses propres évaluations, dans des laboratoires européens, sur un échantillon de 95 téléphones mobiles choisis dans différents points de vente entre début 2012 et fin 2014, et 71 autres prélevés au cours de l’année 2015.

A une distance du corps de 1,5 cm, aucun ne dépassait la limite de 2 W/kg.

Mais elle a fait réaliser de nouvelles mesures avec, cette fois, l’appareil au contact du corps.

Les résultats sont très différents.

Ils sont rapportés dans l’avis de juillet 2016 de l’Anses.

En 2015, peut-on y lire, « 89 % des téléphones mesurés au contact par l’ANFR présentaient un DAS supérieur à 2 W/kg et 25 % un DAS supérieur à 4 W/kg ».

Quelques-uns atteignaient même 7 W/kg.

Ces dépassements ne concernent pas l’exposition de la tête, mais du reste du corps.

Les industriels peuvent faire valoir que les notices d’utilisation de leurs produits, de même que les informations accessibles en ligne ou sur le smartphone lui-même, mentionnent bien que les tests ont été menés à une certaine distance du corps, et que celle-ci doit être respectée pour ne pas dépasser les niveaux d’exposition certifiés.

Encore faut-il scruter à la loupe cette documentation pour le savoir.

Au demeurant, l’ANFR a constaté que « la notice d’utilisation de 25 % des téléphones contrôlés présentant un DAS au contact du corps supérieur à 2 W/kg n’indiquait pas de distance minimale d’utilisation ».

Repost 0
Published by Jean-Pierre LABLANCHY - CHRONIMED - dans Les ondes
commenter cet article
17 décembre 2016 6 17 /12 /décembre /2016 23:08

Chez la souris, l'exposition à des flashs de lumière réduit les plaques amyloïdes et stimule les cellules capables de les éliminer.

Cette technique non invasive représente un espoir pour un nouveau traitement de la maladie d’Alzheimer. La maladie d’Alzheimer touche environ 900.000 personnes en France.

Au niveau cérébral, elle se caractérise par la présence de dépôts de protéines bêta-amyloïdes. Ces plaques nocives pour les cellules empêchent le fonctionnement normal du cerveau.

Actuellement, il n’existe pas de traitement efficace contre cette pathologie.

Récemment, la Haute autorité de santé (HAS) a même conseillé de dérembourser certains médicaments jugés inefficaces.

De nouvelles pistes de traitements doivent donc être trouvées pour s’attaquer à cette redoutable maladie.

Précédemment, des études ont montré que les patients qui souffrent de maladie d’Alzheimer ont des problèmes concernant les « oscillations gamma » du cerveau : ces ondes, d’une fréquence comprise entre 27 et 80 Hz, contribuent à des fonctions cérébrales comme l’attention, la perception et la mémoire.

D’où l’idée de stimuler ces ondes dans le cerveau des malades d’Alzheimer.

Dans un premier temps, les chercheurs ont utilisé l’optogénétique chez des souris, pour stimuler des oscillations gamma à 40 Hz dans l’hippocampe, une région importante pour la mémoire.

L’optogénétique permet de contrôler l’activité de neurones modifiés génétiquement grâce à de la lumière.

Après une heure de stimulation à 40 Hz, les chercheurs ont trouvé une réduction de 40 à 50 % des protéines bêta-amyloïdes dans l’hippocampe.

Chez les malades, des plaques bêta-amyloïdes gênent le fonctionnement normal du cerveau. © Juan Gaertner, Shuttestock

Les oscillations gamma réduisent les plaques amyloïdes Mais comment obtenir le même résultat sans optogénétique ?

Afin de produire des oscillations gamma dans le cerveau, les chercheurs du MIT ont utilisé un stroboscope pour envoyer de la lumière LED qui clignote à différentes fréquences.

L'appareil a été testé à 40 Hz sur des souris aux stades précoces d'Alzheimer. Une heure d’exposition aux flashs de lumière a stimulé des oscillations gamma et réduit les niveaux d’amyloïde de moitié dans le cortex visuel des souris.

Mais au bout de 24 heures, les protéines revenaient à leur niveau d’origine.

Les chercheurs ont alors utilisé un traitement plus long chez des souris avec une accumulation plus importante de plaques amyloïdes. Avec un traitement d'une heure par jour pendant sept jours, celles-ci étaient réduites.

Les oscillations gamma ont aussi diminué les protéines Tau anormales, un autre marqueur moléculaire de la maladie d’Alzheimer.

Les oscillations gamma agiraient de deux manières : elles limitent la production d'amyloïdes et aident le cerveau à se débarrasser de ces protéines, un travail dévolu aux cellules immunitaires de la microglie.

Quand les oscillations gamma étaient stimulées chez la souris, celle-ci était modifiée et s'activait pour éliminer les protéines amyloïdes.

Li-Huei Tsai, professeur de neurosciences au MIT et auteur de cette étude parue dans Nature, reste prudente quant à l’application de cette technique en médecine, car de nombreux traitements efficaces chez la souris ont échoué chez l’Homme.

Avec Ed Boyden, un autre auteur de cette recherche, elle a créé une entreprise, Cognito Therapeutics, pour étudier les applications de la technique.

La question est maintenant de savoir comment stimuler les oscillations gamma chez l'être humain, de préférence dans l’hippocampe…

Repost 0
Published by Jean-Pierre LABLANCHY - CHRONIMED - dans Les ondes
commenter cet article
27 novembre 2016 7 27 /11 /novembre /2016 08:20

Pendant le sommeil, les ondes cérébrales dites «Princesse Leia» aident le cerveau à se souvenir PTSD Schizophrenie

Elles font un tour complet qui dure 70 millisecondes et qui se répète des milliers de fois durant la nuit.

Après une bonne nuit de sommeil, on se sent frais, dispos et les pensées plus claires.

Une sensation causée par la réorganisation de la mémoire intervenue durant la nuit, la consolidation mémorielle.

Une équipe de six chercheurs en neurologie et radiologie du Salk Institute vient de parfaire la compréhension des ondes cérébrales responsables de ce phénomène et d'en dévoiler une curieuse caractéristique: lorsque nous dormons, sous notre boîte crânienne, elles tournent autour de nos oreilles comme le célèbre double chignon en pain aux raisins de la Princesse Leia.

«Jusqu'à présent, l'enregistrement de l'activité électrique dans le cerveau endormi devait se faire un point à un moment donné après l'autre, et les chercheurs en neurosciences n'avaient pas la possibilité de l'observer dans son ensemble, ils devaient la reconstituer après coup», explique Lyle Muller, auteur principal de l'étude.

Ce qui explique pourquoi il a longtemps été admis que certaines ondes cérébrales, les spindles ou fuseaux du sommeil, intervenant entre les phases de sommeil paradoxal et de sommeil profond et contribuant à la consolidation mémorielle, s'activaient toutes au même moment dans le néocortex.

Soigner la schizophrénie et le stress post-traumatique Grâce des implants d'électrocorticographie –les mêmes utilisés chez les épileptiques lors du bilan préopératoire– capables de mesurer l'activité du cerveau à plusieurs endroits à la fois,

Lyle et ses collègues ont pu au contraire observer que les spindles ne s'activent pas toutes simultanément avec la même intensité –les pics suivent un schéma circulaire autour du néocortex, à un point, puis à un autre, quelques millisecondes plus tard.

«Nous pensons que cette organisation de l'activité cérébrale permet aux neurones de parler à d'autres neurones, situés dans d'autres zones», précise Muller, qui fonde ses conclusions sur le laps de temps entre deux pics, cohérent avec la vitesse des signaux neuronaux.

En tout, les ondes mettent 70 millisecondes pour effectuer un tour complet.

Un schéma qui se répète des centaines et des centaines de fois durant la nuit.

Pourquoi?

Les chercheurs n'ont pas encore la réponse, mais estiment la chose liée à la formation des souvenirs, qui impliquent différentes informations, stockées à différents endroits dans le cerveau. Une découverte qui, à terme, pourrait contribuer à mieux comprendre et soigner la schizophrénie –qui se caractérise notamment par des fuseaux de sommeil anormaux– ou encore permettre d'effacer des souvenirs obsédants chez les individus souffrant de stress post-traumatique.

Science & santé | Repéré par Peggy Sastre 25.11.2016

Repost 0
Published by Jean-Pierre LABLANCHY - CHRONIMED - dans Les ondes
commenter cet article
15 décembre 2014 1 15 /12 /décembre /2014 20:04

L’INVS n’a pas la clé des champs (électromagnétiques)

Que sait-on à ce jour de la dangerosité des champs électromagnétiques (CEM), ces rayonnements non ionisants qui évoluent dans une gamme de fréquences comprise en 0 et 300 GigaHz ?

Et quelle conduite tenir devant un groupe de pathologies attribuée à des CEM ?

C’est le propos de la note de positionnement que l’Invs vient de publier.

Deux types de CEM sont à distinguer : les champs de basses et extrêmement basses fréquences (entre 0 et 300 kiloHz), émis notamment par les appareils fonctionnant avec du courant alternatif comme les lignes électriques ou les transformateurs (CEM-EBF), et à l’autre « extrémité » les champs de hautes à extrêmement hautes fréquences (de 3 mégaHz à 300 GHz) dont les radiofréquences (CEM-RF) utilisées en téléphonie mobile, télévision, radiodiffusion FM, radar et communication satellitaire ; ou dans les fours à micro-ondes.

Des effets biologiques connus

L’effet principal de ces CEM est thermique (utilisé pour le micro-ondes et perceptible quand on téléphone trop longtemps…).

L’exposition aigue et de très forte intensité aux CEM-BF provoque (selon des études OMS et du Comité scientifique sur les risques émergents pour la commission européenne) des effets visuels, neuromusculaires, osseux , « les seuls effets néfastes établis à ce jour » pour ces fréquences ; or l’Invs indique que les règlementations actuelles « sont destinées à protéger totalement la population contre ces effets ».

Pour les CEM-RF, « à part » l’accident de la route (même avec les kits main-libre !) et l’interférence avec certains dispositifs médicaux, aucun lien entre l’exposition environnementale et la santé humaine n’a pu être établi.

Faisant le point sur « ce qui est suspecté ou allégué », l’Invs note qu’un doute persiste concernant un risque de maladie d’Alzheimer lors d’une exposition professionnelle aux CEM-EBF et que plusieurs études évoquent une augmentation du risque de leucémie aigüe chez le jeune enfant vivant à moins de 50 m d’une ligne à très haute tension.

Concernant les radiofréquences (CEM-RF), les utilisations intensives ou à long terme de téléphone mobile exposeraient « peut-être » (niveau de preuve « limité ») à une augmentation du risque respectivement de gliome et de neurinome de l’acoustique.

L’Invs ne trouve pas d’étude concluante sur le risque cancérigène, souvent évoqué, des antennes-relais.

Des champs qui restent à défricher

Des études sur les effets « divers » sur la santé des CEM ont pu associer les symptômes non pas à la distance réelle de l’antenne-relais mais à la distance estimée par les personnes interrogées, ce qui évoquerait  un effet nocebo.

Enfin concernant l’intolérance environnementale idiopathique aux CM, l’Invs rappelle que le seul critère de définition de cas étant à ce jour l’attribution à une exposition à des CEM, par le patient lui-même, des symptômes qu’il ressent, sa prévalence est difficile à estimer (d’ailleurs très variable en fonction des pays) : il souhaite que les études se poursuivent.

Rappelant son rôle, comme pour tout risque sanitaire, de surveillance épidémiologique, d’investigation, de soutien à la recherche, l’Invs prévoit que les acteurs de terrain soient à l’avenir davantage sollicités, tant localement que sur la réflexion nationale.

Devant une sollicitation pour l’augmentation de survenue de maladies  (dans le temps ou l’espace) autour d’une antenne relais (on appelle ça des « agrégats spatio-temporels de maladies non infectieuses »), il préconise une démarche d’investigation « rigoureuse et transparente », tout en convenant des importantes limites méthodologiques : « il est rare que l’investigation conduise à identifier une cause externe à la survenue de cas groupés de maladies ».

Ces « non conclusions » laissent le champ libre aux interprétations et sur certaines situations (cancers infantiles), ont aboutit à un vrai champ de bataille.

Dr Blandine Esquerre 

Publié le 15/12/2014

 

Repost 0
Published by Jean-Pierre LABLANCHY - CHRONIMED - dans Les ondes
commenter cet article