Ces concepts qui ont fondé notre science moderne

science-

science

 

 

 

Définir la théorie scientifique


- complète et sans exception
Pour durer, une théorie scientifique doit être complète, et ne comporte aucune exception. Par exemple, il est impossible d’accepter la loi de la gravité de Newton si, de temps en temps, des blocs de pierre flottent dans l’air.


- valeur prédictive
Le pouvoir prédictif est important : la théorie doit pouvoir être testée. Par exemple, la conception de l'aile d'un avion signifie qu'une fois que l'avion atteint une certaine vitesse, nous prédisons qu'il s'élèvera dans les airs, comme cela se produit à chaque occasion observée.

- appel aux mathématiques sauf exception
Les théories les plus logiques sont celles qui font appel aux mathématiques. À partir des lois du mouvement et de la gravité de Newton, nous pouvons, par le biais de calculs mathématiques, faire des déductions (aller du général au particulier) sur une série de phénomènes, du balancement d'un pendule au moment de la prochaine éclipse solaire.
Mais certaines théories n'utilisent pas des concepts mathématiques : la théorie de l'évolution de Darwin, par exemple, possède un certain pouvoir explicatif sans recourir aux mathématiques. Les théories relatives à la biologie et aux sciences médicales n’utilisent pas toujours les mathématiques.

Les mathématiques


Les mathématiques sont l'étude des nombres, des quantités, des formes et de l'espace, ainsi que de leurs interactions.
Les mathématiques appliquées utilisent des techniques mathématiques pour nous aider à comprendre les processus physiques et technologiques. Les mathématiques pures sont entièrement abstraites : elles ne dépendent pas de ce qui se passe dans le monde physique, ni même de quoi que ce soit d'extérieur à elles.


La vérité d'une théorie mathématique dépend de la logique et d'une preuve formelle rigoureuse, et non de l'expérience.

 

Une théorie mathématique est présentée sous la forme d'une série d'axiomes (un axiome est une proposition non démontrée, utilisée comme fondement d’un raisonnement ou d’une théorie mathématique) et à partir desquels l'ensemble de la théorie peut être déduit. Au début du vingtième siècle, les mathématiciens pensaient qu'il était possible de démontrer que leur sujet était un système complet et autorégulé. Cependant, en 1931, l’Autrichien Kurt Gödel a démoli cet espoir en prouvant que dans un système mathématique basé sur un nombre fini d'axiomes, il y aura toujours des propositions qui sont vraies, mais qui ne peuvent pas être prouvées à partir des axiomes.

 

Changement de paradigme

Le philosophe français Gaston Bachelard introduit le concept de rupture épistémologique pour décrire comment la science doit changer de théorie et de méthode en cas d’échec.

Dans son ouvrage de 1962 intitulé « La structure des révolutions scientifiques », le philosophe épistémologiste, l’américain Thomas S. Kuhn a suggéré que:

 

la science ne se développe pas de manière continue et linéaire, mais plutôt par une série de "changements de paradigmes".

 

En philosophie des sciences, un paradigme est une vision très générale du monde, un cadre conceptuel dans lequel les scientifiques opèrent, et dans lequel toute investigation particulière est entreprise. Dans le cadre d'un paradigme donné, les chercheurs poursuivent une "science normale", résolvant les problèmes posés selon la vision connue du monde, sans chercher à la remettre en question.


Un changement de paradigme est une rupture, une révolution scientifique au cours de laquelle un paradigme en remplace un autre. Cela conduit à une période de "science révolutionnaire" au cours de laquelle de nouvelles perspectives s'ouvrent, de nouvelles pistes de recherche se présentent et de nouvelles questions sont posées sur les anciennes données et sur les anciennes hypothèses. Les changements de paradigme se produisent lorsque des incohérences et des énigmes insolubles du paradigme existant s'accumulent.

L'exemple classique d'un changement de paradigme est la prise de conscience par Nicolas Copernic (1473-1543) que l'ancien modèle ptolémaïque de l'univers centré sur la terre ne pouvait pas expliquer les observations accumulées sur les planètes. En émettant l'hypothèse que la Terre tournait autour du Soleil, et non l'inverse, il a constaté que son nouveau modèle correspondait mieux aux données. Le modèle de Copernic centré sur le Soleil a été dénoncé par l'Église catholique romaine, car il éloignait la Terre, et donc l'humanité, du centre de l'univers.

Un autre changement spectaculaire de paradigme, citons le renversement de la mécanique newtonienne par la physique quantique et la relativité au début du vingtième siècle.
En mettant en lumière les changements de paradigme, Kuhn a montré que la science est en fait une activité humaine. En tant que telle, la science est dans une certaine mesure subjective, façonnée par des facteurs sociaux, culturels et historiques.

 

Espace

L'espace est l'étendue sans limites dans laquelle tous les objets sont situés. Dans le cadre de l'espace, les positions des objets, les uns par rapport aux autres, peuvent être données par la distance et la direction. L'espace, l'une des grandeurs fondamentales de la science, est mesuré par le mètre.
Selon la mécanique newtonienne, l'espace a trois dimensions linéaires et est absolu, existant indépendamment de toute matière.
Selon la théorie de la relativité, l'espace fait partie du continuum espace-temps, le temps étant la quatrième dimension. La relativité nous dit que l'espace-temps n'est pas absolu et ses deux aspects peuvent être déformés par les champs gravitationnels autour des objets massifs.
La théorie du Big Bang postule que l'espace-temps est apparu il y a 13,7 milliards d'années et que, depuis cet événement, il n'a cessé de s'étendre. Dans l'abstrait, l'espace est conçu comme illimité, mais la question de savoir si l'univers lui-même est infini, continue de préoccuper les cosmologistes.



Selon la théorie générale de la relativité, l'espace-temps agit comme une "feuille de caoutchouc" ou un « drap » qui peut être déformée par la présence de grandes masses.

Temps


Le temps est l'une des dimensions fondamentales de la physique. Il mesure la durée, en relation avec un processus périodique régulier tel que la rotation de la Terre ou l'émission de radiations par des atomes de césium (utilisé comme base pour la définition moderne de la seconde, l'unité fondamentale du temps).


Notre expérience subjective du temps suggère qu'il n'est pas absolu, le temps est long lorsque nous nous ennuyons et s’accélère lorsque nous nous amusons. De notre point de vue, le passé, le présent et le futur se chevauchent.


Contrairement à cette expérience, la mécanique classique newtonienne insiste sur le fait que le temps s'écoule à une vitesse uniforme. Mais les théories de la relativité d'Einstein nous apprennent que le temps n'est pas absolu et qu'aux vitesses approchant celle de la lumière (par rapport à l'observateur), le temps est dilaté. Avec l'espace, le temps forme le continuum quadridimensionnel appelé espace-temps.

Le temps peut être défini comme le cadre dans lequel le changement se produit. Il semble également avoir une direction : bien que la plupart des lois de la physique permettent aux processus d'aller dans les deux sens, certaines ne le permettent pas.

 

C'est le cas de la deuxième loi de la thermodynamique, formulée au XIXe siècle, qui stipule que l'entropie (désordre ou chaos) de tout système augmente avec le temps. Les roches s'effritent, les voitures rouillent, les êtres vivants meurent et se décomposent - autant de processus irréversibles.


Selon la théorie du Big Bang, l'univers a commencé il y a 13,7 milliards d'années. Si le temps existait avant cela, alors ce qui s'est passé dans cette période antérieure n'a pu avoir aucun effet sur la période actuelle.

La deuxième loi de la thermodynamique suggère que tout mouvement et tout changement, et que le temps lui-même finira par cesser. Les cosmologistes rappellent que notre univers n'est qu'un univers parmi une myriade d'autres, et que la fin de notre univers n’est pas la fin de tout.

 

 

L'infini

L’infini est une quantité, grande ou petite, sans fin ni limite. C'est l'un de ces concepts que l'esprit humain a du mal à appréhender, notamment en ce qui concerne le temps et l'espace.
Il est presque impossible d'imaginer "l'éternité", et pourtant la notion de limite de l'espace ou de fin du temps est tout aussi problématique : on finit toujours par se demander ce qu'il y a au-delà de la limite ou ce qui se passe après la fin du temps. Les physiciens n'ont pas encore apporté de réponses concluantes.

En mathématiques, le concept d'infinitésimaux (quantités infiniment petites, mais supérieures à zéro) est essentiel.

Deux siècles plus tard, le mathématicien allemand Georg Cantor (1845-1918) a développé une arithmétique de l'infini, c'est-à-dire une extension, aux nombres qui lui servent à mesurer l'infini, des règles de calcul qu'on applique aux nombres entiers, servant à mesurer le fini. Il a montré qu’il existe différents infinis, dont certains sont plus grands que d'autres.

 

Matière

La matière est toute substance, solide, liquide ou gazeuse, qui occupe de l'espace et possède une masse. La théorie atomique moderne a vu le jour au début du XIXe siècle lorsque le chimiste anglais John Dalton (1766-1844) a proposé que les substances homogènes soient constituées de minuscules particules identiques appelées atomes.

Ces derniers sont essentiellement indivisibles et restent inchangés au cours des réactions chimiques.
Dalton ne faisait pas de distinction entre les atomes et les molécules. Les atomes sont les unités de base des éléments (hydrogène, oxygène, fer, or, uranium, etc.), et diffèrent en masse et en propriétés chimiques selon l'élément concerné. Les molécules sont composées de plus d'un atome, généralement d'éléments différents et sont les unités de base des composés chimiques. Par exemple, une molécule d'eau comporte deux atomes d'hydrogène et un d'oxygène.

À la fin du XIXe siècle, le physicien Thomson (1856-1940) a découvert l'électron, une minuscule particule chargée négativement au sein de l'atome. Cette découverte a montré que les atomes sont divisibles et a déclenché des recherches intensives sur la structure atomique.

Le modèle qui a émergé décrit l'atome comme un espace vide, dans lequel un minuscule noyau est entouré de "nuages" d'électrons chargés négativement. Le noyau contient la majeure partie de la masse de l'atome et se compose de protons (particules à charge positive) et de neutrons (qui n'ont pas de charge).

D'autres recherches sur les particules fondamentales ont conduit au "modèle standard" de la physique des particules.

Nos hypothèses sur la nature de la matière ont été troublées par la théorie quantique, qui introduit l'idée que les électrons et diverses autres particules peuvent se comporter comme des ondes.

 

Une autre hypothèse, selon laquelle la matière ne peut être ni créée ni détruite, a été démolie lorsqu'Einstein a proposé sa formule E = mc2 qui montre que la matière peut être convertie en énergie et vice versa, comme le démontrent la fission et la fusion nucléaires, à la base des armes et de l'énergie nucléaires.

 

Théorie des ondes

Nous considérons les vagues comme des ondulations dans un plan d'eau. De nombreux phénomènes physiques, son, lumière, et rayons X sont constitués d'ondes.
Une onde est un changement périodique ou une oscillation qui se propage dans un milieu ou un espace. La plupart transportent de l'énergie d'un endroit à un autre.

 

Les ondes sonores transfèrent de l'énergie mécanique, tandis que les ondes lumineuses transfèrent de l'énergie électromagnétique.


Dans les ondes transversales, les oscillations sont perpendiculaires à la direction du déplacement, tandis que dans les ondes longitudinales, elles sont parallèles à la direction du déplacement.


Les ondes ont trois caractéristiques en commun : l'amplitude, la longueur et la fréquence. Les ondes peuvent être réfléchies, où elles rebondissent sur une surface, réfractées où elles sont déviées par le passage dans un autre milieu et diffractées quand elles s'étalent après avoir traversé un petit espace. Elles peuvent interférer entre elles. Quel que soit le type d'onde, ces caractéristiques peuvent être décrites à l'aide de formules mathématiques.

 

La mécanique newtonienne

La mécanique est la branche de la physique qui décrit le mouvement des objets, que ce soit à l'échelle galactique ou subatomique. La plupart des types de mouvement, de l'orbite d'une planète à la trajectoire d'un boulet de canon, peuvent être décrits par les trois lois du mouvement et la loi de la gravitation formulées par Isaac Newton (1642-1727).


Le concept de force est sous-jacent aux lois de Newton. Une force est tout ce qui modifie le taux de changement de la vitesse d'un corps. Ce taux de changement peut impliquer une accélération ou une décélération dans une direction uniforme, ou un changement dans la direction du mouvement.


La première loi du mouvement de Newton stipule qu'un corps reste au repos ou se déplace en ligne droite et à une vitesse constante, à moins qu'il ne soit soumis à une force extérieure. La tendance d'un corps à rester au repos ou à se déplacer à une vitesse constante est nommée son inertie. Celle-ci dépend de la masse du corps.

La deuxième loi de Newton stipule que la force agissant sur un corps est égale au changement créé dans son élan.

La troisième loi stipule que toute force d'action est modérée par une réaction égale et opposée.

La loi de la gravitation de Newton stipule que toute masse dans l'univers exerce une force sur toute autre masse, et que cette force est directement proportionnelle à la masse. La gravitation elle-même est l'une des forces fondamentales de la nature et n'est que partiellement comprise.

 

Les lois de Newton ont fait preuve d’un étonnant pouvoir de prédiction et d’applications pratiques. Cependant, la relativité et la théorie quantique montrent que les lois de Newton ne s'appliquent ni à des vitesses proches de celle de la lumière, ni à l'échelle subatomique.

 

Électromagnétisme

Le magnétisme et l'électricité étaient mal compris jusqu'au début du XIXe siècle, lorsqu'une série d'expériences a montré qu'un courant électrique circulant dans un fil de cuivre affectait les aiguilles de boussoles magnétiques situées à proximité. Il devint évident que le magnétisme et l'électricité étaient des forces qui pouvaient agir l'une sur l'autre à distance. En 1831, Michael Faraday (1791-1867) a démontré qu'un courant électrique apparait dans un fil s'il est soumis à un champ magnétique variable.
Ce phénomène est à la base du générateur électrique, tandis que le processus inverse est à la base du moteur électrique.


Plus tard au XIXe siècle, le physicien James Clerk Maxwell (1831-79) a proposé que l'électricité et le magnétisme soient des manifestations d'une seule force électromagnétique et que les oscillations électriques génèrent des ondes électromagnétiques.

 

D'autres recherches ont validé ses théories et ont permis de découvrir que les ondes radio, les rayons X, en passant par la lumière visible, sont de nature électromagnétique.

 

Théorie quantique

Vers la fin du XIXe siècle, l'observation de divers phénomènes liés au rayonnement électromagnétique a soulevé des questions auxquelles la physique classique semblait incapable de répondre. Puis, en 1900, le physicien Max Planck a suggéré que le rayonnement électromagnétique - y compris la lumière - n'est pas émis sous forme d'onde continue, mais sous forme de petits paquets d'énergie appelés quanta. Planck a lié l'énergie (E) de chaque quantum à la fréquence de l'onde (f) dans l'équation E = hf, où h est la constante de Planck.

L'effet photoélectrique, dans lequel des électrons sont émis lorsque la lumière ou d'autres formes de rayonnement électromagnétique frappent certains métaux est resté sans explication. En 1905, Albert Einstein a proposé que cet effet ne pût être expliqué que si la théorie quantique de la lumière de Planck était validée. Dans le cas de l'effet photoélectrique, la lumière ne se comporte pas comme une onde, mais comme un flux de particules (photons). Deux décennies plus tard, le physicien français Louis Victor de Broglie (1892-1987) a suggéré que les électrons présentaient une "dualité onde-particule" similaire.

L'idée de Planck a incité le physicien danois Niels Bohr à suggérer en 1913 qu'à l'intérieur de l'atome, les électrons ne peuvent se déplacer que sur certaines orbites autorisées, chacune ayant son propre niveau d'énergie. Lorsqu'un électron saute d'un niveau d'énergie supérieur à un niveau inférieur, un rayonnement est libéré sous forme de quanta.
En 1927, le physicien allemand Heisenberg a élaboré son célèbre principe d'incertitude. La mécanique newtonienne suppose que la position et la quantité de mouvement d'un corps peuvent être mesurées simultanément avec une précision infinie. Le principe d'incertitude stipule qu'à l'échelle atomique et subatomique, cela n'est pas possible, car l'acte même d'observer modifie le résultat.


La théorie quantique, qui ébranle de nombreux cadres conceptuels tels que la causalité, peut sembler contraire au bon sens. Mais elle a trouvé d'innombrables applications pratiques, notamment dans notre compréhension des semi-conducteurs, la base de la technologie informatique moderne.

Relativité

La mécanique newtonienne considère que la masse, l'espace et le temps sont tous absolus. Ces hypothèses fonctionnent parfaitement bien, mais la théorie spéciale (1905) et la théorie générale (1915) de la relativité d'Albert Einstein ont proposé que, dans certaines circonstances, la mécanique newtonienne ne s'applique plus.


La théorie spéciale de la relativité stipule que rien ne peut voyager plus vite que la vitesse de la lumière, qui, dans le vide, est constante, quel que soit le mouvement de l'observateur. Si un objet passe rapidement devant un observateur, il semblera être devenu plus court et plus massif, bien que cet effet ne soit significatif qu'à des vitesses proches de celle de la lumière. De même, une horloge passant à des vitesses similaires par rapport à l'observateur semblera fonctionner plus lentement que lorsqu'elle est au repos.

 

La théorie générale propose l'idée d'espace-temps, et affirme que la masse peut "courber" à la fois l'espace et la lumière via la gravité. Des expériences ont par la suite validé les théories d'Einstein.

La théorie des cordes

Ce modèle de la physique concerne trois des quatre forces fondamentales de la nature et utilise la mécanique quantique pour décrire la manière dont ces forces affectent les particules subatomiques.
S'appuyant sur des modèles antérieurs de l'atome, les physiciens théoriques ont proposé, à partir du milieu du XXe siècle, un large éventail de particules subatomiques. Ces propositions ont permis d'expliquer divers résultats expérimentaux, et l'existence de nombre de ces particules hypothétiques a été établie par la suite. Par exemple, en 1964, le physicien américain Murray Gell-Mann a proposé que les protons et les neutrons présents dans les noyaux atomiques soient chacun constitués de trois particules encore plus petites, qu'il a appelées quarks. Ceux-ci ont été découverts depuis.

 

Les quarks sont une catégorie de particules élémentaires. Ils sont maintenus ensemble par la force nucléaire par échange de particules appelées gluons.


Les gluons sont un type de boson, une catégorie de particule élémentaire qui sert de médiateur aux forces fondamentales. La force nucléaire impliquée dans certains types de radioactivité est médiée par les bosons W et Z, tandis que la force électromagnétique est médiée par les photons.

La force électromagnétique provoque l'interaction entre des particules chargées électriquement, comme les protons et les électrons. Les électrons appartiennent à la troisième classe de particules élémentaires, les leptons. Parmi les autres leptons figure le neutrino, qui n'a aucune charge et pratiquement aucune masse.

Ce modèle standard ne tient pas compte de la quatrième force fondamentale, la gravitation, qui est régie par la relativité générale.

Une tentative de réconciliation de la mécanique quantique et de la relativité générale en une "théorie du tout" est la théorie des cordes, qui suggère que les électrons et les quarks sont des "cordes" unidimensionnelles oscillantes. La théorie des cordes reste controversée, car elle nécessite des dimensions supplémentaires non observées et n'a pas encore fait de prédictions vérifiables.

 

Le Big Bang


En 1929, l'astronome américain Hubble observe que diverses galaxies
s'éloignent. Cela a donné naissance à l'idée que l'univers est en expansion. L’idée du Big Bang est née.
Au début, l'univers était petit, très dense et très chaud, il était composé des particules élémentaires simples. L'expansion a été rapide et, en quelques minutes, les protons et les neutrons se sont assemblés pour former les noyaux d'hydrogène et d'hélium, qui ont commencé à fusionner pour former des étoiles, au sein desquelles d'autres éléments ont rapidement été créés.
L'expansion s'est poursuivie, mais on ignore si elle se poursuivra éternellement. Si l'univers a une masse suffisante, sa gravité peut finir par le ramener dans un "Big Crunch", ce qui pourrait conduire à un autre Big Bang. Dans le cas contraire, l'expansion se poursuivra éternellement et l'univers connaîtra une longue mort froide.

La théorie du chaos

La théorie du chaos est un domaine des mathématiques qui étudie comment de petites différences dans les conditions initiales au sein de systèmes dynamiques complexes peuvent aboutir à des résultats différents. La théorie du chaos a été appliquée à des systèmes dans de nombreux domaines, comme la météorologie, la biologie et la physique. Bien que ces systèmes soient déterministes, sans éléments aléatoires, la façon apparemment chaotique dont ils se comportent rend la prédiction très difficile.

Un des premiers pionniers de la théorie du chaos fut le mathématicien américain Edward Lorenz. En 1961, Lorenz utilisait un modèle informatique pour prédire le temps. Il a commencé par saisir des données relatives à des variables interdépendantes telles que la température, l'humidité, la pression atmosphérique, la force et la direction du vent. La première fois qu'il a lancé le programme, il a tapé un chiffre de 0,506127 pour l'une des variables. Puis, lorsqu'il a relancé le programme, il a pris un raccourci en tapant le chiffre arrondi de 0,506. Le scénario météorologique qui en a résulté la deuxième fois était complètement différent du premier. L'infime disparité de 0.000127 avait eu un effet énorme.

En 1963, un collègue de Lorenz a fait remarquer que s'il avait raison, "un seul battement d'ailes d'une mouette suffirait à modifier le temps pour toujours". En 1972, dans le titre d'un article, Lorenz demandait : "Le battement d'ailes d'un papillon au Brésil déclenche-t-il une tornade au Texas ?» Ainsi, la théorie du chaos a trouvé son nom populaire : l'effet papillon.
Le battement d'ailes d'un seul papillon ne provoque pas une tornade, de nombreux autres facteurs entrent en jeu. Mais ce seul battement d'ailes peut être la goutte d'eau qui fait déborder le vase.

Malgré son nom, la théorie du chaos est rigoureusement mathématique et a permis d'élucider l'ordre caché qui régie une multitude de systèmes apparemment aléatoires, de facteurs qui précipitent les crises d'épilepsie, turbulences de l'air qui provoquent la traînée des véhicules en mouvement, fluctuations des populations d'animaux sauvages au flux de circulation dans les rues encombrées des villes, et les mouvements financiers.

 

Intelligence artificielle

En 1950, le mathématicien Alan Turin propose un test pour établir si une machine peut être qualifiée d'intelligente. Un humain assis dans une pièce pose des questions à un autre humain dans une deuxième pièce, et à un ordinateur dans une troisième pièce. Si l'humain dans la première pièce ne peut pas juger s'il parle à un humain ou à une machine, alors l'ordinateur a réussi le "test de Turing".

Des doutes ont été émis sur la validité de ce test. Dans une célèbre expérience de pensée, un homme est assis dans une pièce pendant que des personnes à l'extérieur de la pièce glissent des questions en chinois sous la porte. L'homme ne comprend pas le chinois, mais suit un ensemble d'instructions qui lui indiquent quels morceaux de papier il doit repousser sous la porte. Par conséquent, les personnes à l'extérieur de la pièce ne peuvent pas dire qu'il n'est pas de langue maternelle chinoise. La conclusion est que même si les ordinateurs donnent les bonnes réponses, ils ne pourront jamais être des esprits conscients et intelligents. Cependant, ils pourraient être plus performants que les humains quand il s’agit de la gestion des systèmes complexes.

 

La théorie des bactéries et germes

C’est une théorie sans mathématiques.
Pendant des siècles, les causes de nombreuses maladies sont restées un mystère. Certains attribuaient la maladie au poison, d'autres au mauvais air, d'autres encore au mécontentement de Dieu.

Dans les années 1840, Ignaz Semmelweiss, un obstétricien hongrois travaillant à Vienne, a remarqué que les femmes en travail suivies par des médecins étaient beaucoup plus susceptibles de succomber à la fièvre puerpérale que celles suivies par des sages-femmes. Il a fait le rapprochement avec le fait que les médecins venaient souvent directement d'autopsies sans se laver les mains, et a insisté pour que les médecins se désinfectent avant d'examiner leurs patients. Les idées de Semmelweiss ont suscité beaucoup d'hostilité et ont été généralement ignorées à l'époque.

Dans les années 1850, lors d'une épidémie de choléra à Londres, le médecin John Snow a montré que la plus forte densité de l’épidémie se trouvait chez les personnes qui utilisaient une pompe pour obtenir de l'eau potable. Snow a retiré la poignée de la pompe et le nombre de cas a diminué de façon spectaculaire. Ces liens ont permis de montrer comment les maladies se propagent. Certains avaient commencé à suggérer que les agents responsables pouvaient être des germes, des micro-organismes visibles uniquement au microscope. C'est au microbiologiste français Louis Pasteur (1822-95) qu'il revient de trouver des moyens de prévenir et de traiter les maladies causées par des micro-organismes. Il a utilisé la chaleur pour détruire les micro-organismes nuisibles dans le lait et a développé des vaccins pour guérir la rage et l'anthrax.

Le médecin allemand Robert Koch (1843-1910) a identifié les bactéries à l'origine de maladies telles que le choléra et la tuberculose, et en définissant les critères permettant de déterminer si une maladie est causée par un micro-organisme. Ces maladies sont nommées les maladies infectieuses.

Dans les années 1870, le chirurgien britannique Joseph Lister a été le premier à pratiquer une chirurgie antiseptique. La prochaine grande avancée a été la découverte de la pénicilline par le microbiologiste écossais Alexander Fleming en 1928. Ce fut le premier d'une longue série d'antibiotiques, médicaments qui se sont avérés efficaces contre un grand nombre de maladies bactériennes. Les vaccins et les antibiotiques ont sauvé beaucoup de vies et ont inauguré l’efficacité de la médecine moderne.

 

Évolution

La théorie de l'évolution par la sélection naturelle exposée par le naturaliste anglais Charles Darwin dans son livre « L'origine des espèces » (1859) est une théorie simple, facile et efficace n’utilisant pas les mathématiques.

Darwin a passé des décennies à collecter et classer des preuves avant de publier sa théorie. Les géologues avaient montré que la Terre était beaucoup plus ancienne qu'on ne l'imaginait et que les roches anciennes conservaient les fossiles de nombreux animaux disparus. En comparant ces fossiles entre eux et avec des espèces vivantes similaires, mais différentes, Darwin a suggéré que des groupes d'espèces modernes similaires avaient évolué par petites étapes à partir d'ancêtres communs. Le mécanisme qu'il a suggéré était la sélection naturelle. De temps à autre, une mutation fortuite se produit chez un individu, qui le rend mieux adapté à son environnement. Ces individus ont donc plus de chances de se reproduire avec succès et de transmettre l'adaptation. C'est ainsi que de nouvelles espèces dont nous faisons partie sont apparues.

Nature ou culture

Du vivant de Darwin, un Autrichien, un moine du nom de Gregor Mendel (1822-84) a découvert certaines lois de l'hérédité. Grâce à ses expériences sur des générations de plants de pois, Mendel a démontré qu'une caractéristique, telle que la couleur des fleurs, est héritée soit du parent mâle, soit du parent femelle. L'unité qui transmet cette caractéristique s'appelle un gène.


En 1953, l'Américain James Watson et l'Anglais Francis Crick ont démontré comment les gènes transmettent les caractéristiques. La clé est une molécule complexe appelée ADN, présente dans chaque cellule de chaque organisme vivant. L'ADN de chaque organisme est unique et contient le code de la manière dont cet individu particulier va croître et se développer.

Est-ce que l'ADN détermine le comportement d'un organisme ? Si tel est le cas, cela soulève d'autres questions relatives au déterminisme, au libre arbitre et à l'existence de la nature humaine. Les psychologues évolutionnistes affirment que la plupart des comportements sont déterminés par les gènes et l’hérédité, les psychologues cognitifs soulignent le rôle important de l'apprentissage, les sociologues et les anthropologues insistent sur le rôle de la société et la culture dans la détermination du devenir des individus.

 

Il n’existe aucune réponse valable à ces questions, mais le consensus scientifique occidental accepte l'héritage génétique et l'environnement, donc la nature et la culture façonnent notre nature.

Lire la suite
0
  870 lectures
  0 commentaires
870 lectures
0 commentaires

Philosophe de la science : épistémologie

epistemologie

 

 

 

L’établissement de la philosophie des sciences (épistémologie) au XIXe siècle à négligé la vision historique de la science; dans la seconde moitié du XXe siècle, la conscience historique de la philosophie des sciences s'est développée grâce aux travaux de «Karl Popper» et «Gaston Bachelard» et d'autres, qui ont enrichi la compréhension et l’analyse du phénomène scientifique.
La première question dans la recherche historique de la science est : Quelle est la nature du progrès scientifique ?


Les réponses des philosophes des sciences (peuvent être divisées en quatre :
1. Le progrès scientifique ne s'explique pas parce que les événements qui s'y déroulent n'y suivent pas le même chemin.
2. Le progrès scientifique suit une ligne ininterrompue, cumulative et continue avec les connaissances scientifiques antérieures.
3. La science fonctionne dans une certaine mesure en ligne cumulative, puis émerge comme une rupture ou une révolution pour ouvrir une voie différente.
4. Le progrès scientifique procède sous la forme de ruptures avec le passé, la science parcourt un chemin complètement différent des connaissances scientifiques antérieures, et cela peut être appelé une rupture épistémologique.

 

La pensée de Bachelard

Gaston Bachelard est né le 27 juin 1884 à Bar- sur-Aube, en Champagne.
Comme d'autres philosophes de la science durant la première moitié du vingtième siècle, Bachelard a réfléchi aux bouleversements provoqués par l'introduction de la théorie de la relativité et de la mécanique quantique.

 

- Nouveau rationalisme

L'originalité de la pensée de Bachelard découle de sa conception particulière du rationalisme. Le point de vue standard, pourrait-on dire, est que le rationalisme est un effort pour décrire la nature de la réalité ou pour trouver des critères permettant d'établir des vérités à son sujet, grâce au pouvoir de la raison. Selon Bachelard, la force du rationalisme réside dans sa capacité à transcender la réalité telle qu'elle se présente ; le rationalisme est une quête ouverte qui crée de nouvelles réalités.

 

Bachelard  citation tout est construit

 

Selon lui, la pensée scientifique est le rationalisme à l'œuvre ; les nouvelles inventions modifient et multiplient le terrain matériel et épistémologique sur lequel opèrent les scientifiques ;

"Il n'y a guère de pensée plus philosophiquement variée que la pensée scientifique" (Rationalisme appliqué', 1949).

 

- Les mathématiques : indispensable langage

Suivant la tradition de la philosophie des sciences françaises (Poincaré, Meyerson), les analyses de Bachelard s'inscrivent dans un contexte historique. Il utilise comme exemple le passage de la mécanique classique à la théorie de la relativité puis à la physique quantique pour expliquer son point de vue (Le Nouvel esprit scientifique, 1934). La clé de son argumentation réside dans le rôle spécifique qu'il assigne aux mathématiques dans les nouveaux développements scientifiques.

La physique quantique étant basée sur des constructions mathématiques produit également une réalité nouvelle, tangible et jusqu'alors inconnue, qui n'est pas seulement le domaine des physiciens, mais qui est également entrée dans la vie quotidienne. Ces développements démontrent la capacité des mathématiques,

"Le pouvoir des mathématiques est de créer la réalité" (Le Nouvel esprit scientifique, 1934).

 

- Nouvelle science : nouvelle épistémologie

Les opinions auxquelles il est parvenu, étaient différentes de celles de ses contemporains. Selon lui, la nouvelle science exigeait une nouvelle épistémologie, non cartésienne, une épistémologie qui s'adapte aux discontinuités (ruptures) dans le développement de la science.

Les scientifiques ne traitent pas avec des ensembles de faits donnés insérés dans la "nature" qui sont progressivement découverts et compris. Au contraire,
"Nous quittons la nature pour entrer dans une fabrique de phénomènes" (L'Activité' rationaliste de la physique contemporaine, 1951).

Pour un scientifique, les faits sont des constructions, ils commencent par une organisation des objets de la pensée, et progressent vers une "phénoménotechnique" collective qui crée des effets, fabriquant de nouvelles matières comme les isotopes artificiels, par exemple.

 

- la science n’est pas une explication du réel limité


Dans son évolution, la science se détache de plus en plus du monde tel qu'il est communément compris. La théorie de la relativité et la physique quantique se sont développées indépendamment d'une telle compréhension et finissent par contredire, violer notre compréhension.

Selon Bachelard, la marque de la raison qui gagne son autonomie, est sa capacité de se libérer du monde limité que nous apercevons. La science n'est plus une accumulation de "connaissances objectives", mais se développe à travers des ruptures, des corrections d'erreurs, qui sont le plus souvent induites par des habitudes, qui ont leurs racines dans les connaissances communes.

 

Bachelard  citation philosophie

 

Pour que la science progresse, elle doit se séparer du savoir commun. L'esprit scientifique doit subir une opération de purification. Il est nécessaire de se soumettre à un processus qui, à l'instar de la psychanalyse, découvre et éradique toutes les connaissances scientifiques. Quand la séparation entre les deux types de connaissances sera complète,

Les "intérêts de la vie sont remplacés par les intérêts de l'esprit" (La Formation de l'esprit scientifique, 1938).

 

Gaston Bachelard : la rupture épistémologique

Gaston Bachelard estime que l'histoire des sciences ne peut être considérée comme une transition de problèmes plus simples vers des problèmes plus complexes, et qu'il n'est pas possible de rechercher des origines historiques pour les théories et les concepts scientifiques.
En mathématiques, on appelle géométrie non euclidienne une théorie géométrique ayant recours à tous les axiomes et postulats posés par Euclide dans les Éléments, sauf le postulat des parallèles. En d’autres termes, c’est la géométrie sans parallélisme.

Bachelard souligne que ces constructions n'ont rien à voir avec " la réalité", elles commencent comme hypothèses mathématiques. Si des événements devaient se produire dans les espaces suggérés par les nouvelles géométries, ils violeraient les lois newtoniennes. Tel est en effet le monde tel que le conçoit la relativité d'Einstein, qui ne peut être compris dans le cadre de ces lois.
La physique d'Einstein ne trouve pas ses racines dans la physique de Newton, la physique de Newton ne trouve pas ses racines dans la physique de Galilée, chacune d'elles procède de différentes perceptions du monde et des approches différentes : « Les sciences naturelles nous conduisent vers de nouveaux domaines avec de nouvelles méthodes.
Bachelard dénonçait la vision du savoir scientifique comme un prolongement historique du savoir et comparait les anciennes lampes basées sur la combustion à l'ampoule d'Edison en disant : « L'ancienne technologie est une technologie de combustion et la nouvelle technologie est une non combustion".
Si technologie est une extension de la connaissance, Bachelard considère que le savoir ne peut pas se développer sans sortir de son expérience première. Il place le concept de première expérience parmi les obstacles épistémologiques qui empêchent le transfert des connaissances vers des connaissances scientifiques.


Quant aux autres obstacles, ce sont selon lui:
- la connaissance générale ou la tendance à généraliser,
- l'obstacle verbal,
- l'obstacle de la connaissance unifiée (comme rendre tous les acquis à principe unique),
- l'empêchement biologique,
- et l'obstacle intrinsèque.
La rupture épistémologique selon Bachelard s'oppose à l'obstacle épistémologique. La transformation s'opère par le conflit avec l'ancien, c’est le conflit de la chimie lavoisienne, la mécanique non newtonienne, et la géométrie non euclidienne, Selon lui "L'histoire de la science est l'histoire des erreurs scientifiques."
Bachelard estime que pour suivre le rythme du développement scientifique, il faut abandonner l'adhésion à une méthode, car chaque méthode doit être prouvée correcte et tout doit être clarifié.


Thomas Kuhn

Bachelard a mis en avant l'idée que la science ne s'occupe pas de la "nature", mais qu'elle crée son propre sujet dans un contexte collectif. Il a anticipé certains aspects des philosophes des sciences anglo-saxons, orientés vers l'histoire comme Kuhn, Feyerabend.
Thomas Samuel Kuhn, né le 18 juillet 1922 à Cincinnati, dans l'Ohio et mort le 17 juin 1996 à Cambridge, dans le Massachusetts, est un philosophe des sciences et historien des sciences, américain.
Kuhn estime que l'une des difficultés auxquelles sont confrontés les historiens est la distinction entre les connaissances scientifiques et ce qui a précédé, ou ce que nous pouvons appeler les mythes non scientifiques, comme la comparaison entre la science de Newton et la science d'Aristote, si les connaissances dépassées sont considérées comme des mythes, cela signifie que les mythes peuvent être produits par les mêmes méthodes et qu'ils ont été respectés pour les mêmes raisons.

 

kuhn citation paradigm

Selon Kuhn, Il n'est donc pas possible de différencier historiquement ce qui est une pratique scientifique ou non scientifique, et il n'est pas possible de les comparer.
Kuhn considère l'histoire des sciences comme l'histoire de l'art, de la politique et de la religion ; une histoire de changements, et de ruptures, et pas une histoire de progrès ou de retard. Les changements qui se produisent sous la forme d'une révolution contre un ancien paradigme scientifique vers un nouveau paradigme. Kuhn définit le terme paradigme par "l'ensemble de lois, de techniques et d'outils associés à une théorie scientifique, qui les guident, et par lesquels les chercheurs pratiquent leur travail, s'avèrent se transformer en science ordinaire. »
Si une erreur survient, elle est renvoyée soit à l'exécuteur, soit à l'outil, ou une solution est trouvée sous le même paradigme. Si l'échec persiste, c'est la période de crise qui finit par inventer un nouveau paradigme.
De nouveaux paradigmes commencent à apparaître pour résoudre le problème. A ce stade, il y a deux paradigmes concurrents jusqu'à ce que le nouveau paradigme se transforme en une science normale prouvée.
Kuhn prévient qu'il n'est pas nécessaire que le nouveau paradigme soit plus correct ou qu'il explique plus, mais qu'il peut être le produit de nouveaux problèmes qui nécessitent une explication qui n'était pas nécessaire dans l'ancien paradigme, et donne un exemple de la gravitation de Newton par rapport à la physique d'Aristote.

 

kuhn citation question


« La connaissance scientifique, comme le langage, dit Kuhn, est le bien commun profond d'un groupe ou de rien ; Pour le comprendre, nous aurons besoin de connaître les caractéristiques particulières des groupes qui existent. » C'est un indice important de la nécessité d'étudier la sociologie des sociétés savantes pour comprendre et évaluer le phénomène scientifique.
Kuhn refuse de considérer sa théorie du développement de la science comme une invitation au relativisme dans la connaissance scientifique ; Il voit que les membres de chaque communauté scientifique dans des environnements différents sont exposés à des problèmes différents, alors il compare sa théorie du développement de la science à la théorie de l'évolution biologique.

 

Feyerabend

Dans ses livres "La science dans une société libre », Feyerabend a défendu l'idée qu'il n'existe pas de règles méthodologiques immuables dont les scientifiques devraient se servir, et qui garantiraient la validité des. Selon lui, une "dose" d'anarchisme méthodologique ne pourrait être que profitable à la science.
Selon lui, la philosophie ne parviendra jamais à définir la science ni à distinguer entre le scientifique et le non scientifique, et que les prescriptions philosophiques doivent être ignorées par les scientifiques, s'ils visent le progrès en science.
Feyerabend attaque la compatibilité dans l'évaluation des théories scientifiques. Selon lui, une nouvelle théorie compatible avec une autre couvrant le même champ de recherche n'augmente pas sa validité.


Feyerabend rappelle qu'aucune théorie intéressante ne serait jamais en accord avec tous les faits. Il décrit la renormalisation en mécanique quantique : « Cette procédure consiste à rayer les résultats de certains calculs et à les remplacer par une description de ce qui est observé empiriquement. On admet ainsi, que la théorie est sujette à caution, en la formulant d'une manière qui implique qu'un nouveau principe a été découvert ».
La théorie de Copernic a été réfutée par le fait que les objets tombent verticalement sur terre. Il a fallu réinterpréter cette observation pour la rendre compatible avec la théorie de Copernic. Si Galilée a réussi à le faire, ce n'est qu'en se servant d'hypothèses et en procédant contre-inductivement. Les hypothèses ont de fait chez Feyerabend un rôle positif: elles permettent de rendre une théorie temporairement compatible avec les faits, en attendant que la théorie à défendre puisse être soutenue par d'autres théories.

 

Karl Popper

Karl Raimund Popper, né le 28 juillet 1902 à Vienne, en Autriche, et mort le 17 septembre 1994 à Londres, au Royaume-Uni, est un enseignant et philosophe des sciences du XXᵉ siècle. C'est un penseur anticonformiste qui, dans toutes ses œuvres, a invité à la réflexion, au dialogue et à la confrontation des idées.
Si Gaston Bachelard, khun et Feyeraband sont parmi les théoriciens les plus éminents de la rupture épistémologique. Tout cela soulève la question : Qu'est-ce que la science ?
Si les sciences, comme l'a dit Bachelard, « nous conduisent vers de nouveaux domaines avec de nouvelles méthodes », alors qu'est-ce qui distingue ce qu'on appelle la science ?
"Karl Popper", bien qu'il ne soit pas partisan d'une rupture épistémologique avec la science, ni partisan de l'accumulation quantitative, il voit que la science progresse cumulativement dans rejeter les erreurs les unes après les autres.

 

popper citation science hypothese


La vision de Popper peut représenter l'esprit de notre époque, une période de bouleversement scientifique ; Popper est mathématicien et physicien et une personne logique, il estime que la caractéristique logique des questions et des lois scientifiques est la possibilité de falsifier leurs énoncés et leur capacité à confronter des faits nouveaux. Les problèmes scientifiques sont des problèmes universels, pas des problèmes existentiels. Par exemple, tous les corbeaux sont noirs, il suffit à trouver un corbeau qui ne soit pas noir pour le réfuter.
Quant aux enjeux existentiels, ils sont comme « il y a un corbeau blanc ». Il décrit les enjeux existentiels comme non sujets au refus ou à l'expérimentation et les enjeux métaphysiques ; Mais la science évolue-t-elle ainsi ?

 

Conclusion

Gaston Bachelard est le fondateur du concept de rupture épistémologique, et il croit que l'histoire des sciences est fondée sur la rupture avec les anciens pour établir une voie nouvelle et différente.
Kuhn est d'accord avec lui, mais va plus; Bachelard explique le rôle des facteurs psychologiques dans la formation d'un nouvel esprit scientifique, Kuhn alerte sur le rôle des sociétés savantes dans le rejet ou l'acceptation des révolutions puis dans leur adhésion, et appelle à l'étude de la sociologie de la communauté scientifique. Feyeraband adopte le relativisme dans sa vision de la science et pense qu’il est impossible de décréter ce qui scientifique ou non scientifique .
Karl Popper considère la nature de la science, dont la forme diffère par une rupture épistémologique, pour trouver que la possibilité de falsification est le trait distinctif.

 

Références


Bhaskar, Roy, “Feyerabend and Bachelard: Two Philosophies of Science”, New Left Review, 94 (1975)
Chimisso, Cristina, Gaston Bachelard: Critic of Science and the Imagination, London: Routledge, 2001
Dagognet, Francois, Gaston Bachelard, sa vie, son oeuvre, avec un expose´ de sa philosophie, Paris: PUF, 1965
Lecourt, Dominique, Pour une critique de l’épistémologie (Bachelard, Canguilhem, Foucault), Paris: François Maspero, 1972
McAllester Jones, Mary, Gaston Bachelard, Subversive Humanist: Texts and Readings, Madison Wisconsin: University of Wisconsin Press, 1991
Therrien, Vincent, La Revolution de Gaston Bachelard, en critique littéraire, Paris: Klincksieck, 1970
Tiles, Mary, Bachelard: Science and Objectivity, Cambridge: Cambridge University Press, 1984

Lire la suite
1
  955 lectures
  0 commentaires
Mots-clés :
955 lectures
0 commentaires

Max Planck : révolutionnaire malgré lui de la physique quantique

Max_Planck_citation

Max Planck citation 

 

 

Le monde observable par les sens humains apparaît lisse, continu et bien défini.
En revanche, le monde quantique est discontinu, aléatoire et incertain. La physique quantique est le domaine qui décrit le comportement et l’activité à l’échelle des atomes.
Le physicien allemand Max Planck a proposé le concept de quanta d’énergie au début du 20e siècle. Sa découverte a jeté les bases de la théorie de la physique quantique et a révolutionné le domaine de la physique traditionnelle.

 

La physique à la fin du 19e siècle

À cette époque, les lois de la physique dite classique expliquent la majorité des phénomènes terrestres. Cette physique bâtie durant des millénaires par des générations de savants renommés, et selon des expériences de plus en plus sophistiquées, est confirmée par des concepts et des outils mathématiques parfaitement maîtrisés. Elle comporte trois grands courants qui expliquent l’ensemble des phénomènes perçus sur Terre et dans son environnement proche.
— Le premier concerne l’étude des corps en mouvement et celle des forces qui en sont à
l’origine.
— Le deuxième traite des phénomènes ondulatoires auxquels sont théoriquement assujettis l’électricité, le son, la lumière.
— Le troisième, initié par la machine à vapeur, implique tous les phénomènes physiques liés à la chaleur, d’où son nom de « thermodynamique » (chaleur en mouvement).


La physique classique s’appuie essentiellement sur deux piliers de raisonnement : d’une part la théorie de Newton de la gravitation (publiée 1687), qui a permis de calculer les différentes trajectoires des planètes les plus proches de la Terre ; d’autre part celle de James Clerk Maxwell (publiée en 1865) sur l’électromagnétisme, unifiant le magnétisme et l’électricité.


En 1900, cette physique semble tellement solide qu’aucun scientifique ne songe à la remettre en cause. La communauté scientifique déplore même qu’il n’y ait plus de théories à découvrir : tout nouveau phénomène est parfaitement expliqué par la physique classique, sûre d’elle et de son déterminisme.

Pourtant, des faits étranges apparaissent peu à peu. Les savants s’aperçoivent que la trajectoire de la planète Mercure n’est pas tout à fait conforme à la loi de Newton et que, sur Terre, il se passe des choses très étranges ; ainsi, la vitesse de la lumière, que tout le monde croyait instantanée, semble être limitée.

Encore plus extraordinaire, certaines expériences démontrent que l’on ne peut pas la dépasser, aussi n’aime-t-elle pas être additionnée à une autre vitesse.

Si, dans un TGV qui roule à la vitesse de la lumière (C), vous vous déplacez dans le sens de
la marche à une vitesse V, votre vitesse réelle ne sera jamais égale à (v+c), mais restera toujours égale à C.
Certains indices montrent que la lumière se propage non pas d’une façon continue, comme une onde, mais discontinue, par petits paquets.

Par ailleurs, les savants découvrent, grâce à des outils d’observation plus modernes, des phénomènes inexplicables impliquant de petites particules microscopiques, non perceptibles par nos sens, se déplaçant à une très grande vitesse sur des distances très petites. Si les lois de la physique classique expliquent les phénomènes du monde macroscopique où interagissent des corps dotés d’une masse conséquente, elles sont incapables d’expliquer certains phénomènes de l’infiniment petit (phénomènes photoélectriques, électromagnétiques)

 

 

Planck choisit la thermodynamique

Max Karl Ernst Ludwig Planck est né de Johann Julius Wilhelm von Planck et d’Emma Patzig le 23 avril 1858 à Kiel, en Allemagne. Johann avait déjà deux filles de son premier mariage, Max était son quatrième enfant de son second mariage.
Max a rejoint l’école primaire à Kiel, puis à Munich en 1867, lorsque son père accepta un poste de professeur de droit à l’université de l’université de Munich.
Max était un pianiste talentueux, il allait choisir une carrière dans la musique lorsqu’un musicien professionnel lui dit qu’il n’était pas assez doué. Il a gardé deux passions pour les loisirs : jouer du piano et escalader les montagnes.

 

La physique est finie

Planck est né dans la société conservatrice de la Prusse du 19e siècle, et à sa manière formelle et disciplinée. Il est resté toute sa vue attaché aux traditions prussiennes.
Sa foi en la physique, sa force et son intégrité intellectuelle, nous dit Einstein, sont nées d’un « état émotionnel » plus proche de celui d’un homme religieux ou d’un homme amoureux.
Dans une de ces ironies qui semblent faire partie d’un roman banal, Planck a été conseillé en 1875, alors qu’il avait 17 ans, de ne pas faire carrière dans la physique, en particulier la physique théorique, parce que les travaux significatifs étaient désormais finis. Il obtient son diplôme en 1874 et s’inscrit à l’université de Munich à l’automne pour commencer des études en mathématiques, mais il est plus intéressé par la physique.

 

Il se rend à l’université de Berlin pour passer deux trimestres en 1877 et en 1878. Planck va suivi son propre chemin, et a finalement étudié sous la direction de deux des plus célèbres physiciens allemands de l’époque, Hermann Helmholtz et Gustav Kirchhoff. Ces grands scientifiques ne sont pas très inspirants dans l’amphithéâtre : les cours d’Helmholtz sont mal préparés et ceux de Kirchhoff sont « secs » sur le sujet de la thermodynamique, mais Planck trouve ce qu’il cherche, « quelque chose d’absolu ».

Max a étudié la thermodynamique, science qui traite des relations physiques entre la chaleur et l’énergie.
Deux grandes lois naturelles régissent les transformations énergétiques de toute matière. La loi de la thermodynamique stipule que l’énergie est conservée ; l’énergie peut être transférée et transformée, mais elle ne peut ni être créée ni être détruite.

La deuxième loi de la thermodynamique stipule que les transferts ou les transformations d’énergie augmentent l’entropie. L’entropie est une mesure du désordre (trouble)du système qui reçoit la chaleur ou l’énergie.


La thermodynamique statique a signalé que plus l’entropie du système est élevée, moins ses éléments sont ordonnés, liés entre eux, capables de produire des effets mécaniques.
Par exemple, si vous mettez un glaçon dans un bol de soupe chaude, la chaleur de la soupe va passer au glaçon. L’énergie est transférée des molécules de la soupe chaude aux molécules d’eau du glaçon. Les molécules d’eau commencent à se déplacer davantage et le glaçon fond. L’énergie serait encore conservée si la chaleur était transférée du glaçon à la soupe, mais un glaçon ne resterait jamais congelé lorsqu’il est placé dans un bol de soupe chaude, car cela violerait la deuxième loi de la thermodynamique.


Max a été attiré par la généralité de ces principes et a choisi d’écrire sa thèse de doctorat sur la seconde loi de la thermodynamique. Le premier livre de Planck était une extension de ces études. Publié en 1897, Vorlesungen über Thermodynamik (Traité de la thermodynamique) comprenait des études des principes thermodynamiques et des concepts de pression osmotique, du point d’ébullition et du point de congélation.


Après avoir obtenu son doctorat à l’université de Munich en 1879, Planck y est resté en tant que maître de conférences de 1880 à 1885. Cependant, le salaire ne lui permettait pas de fonder sa propre famille et lorsqu’on lui proposa un poste de professeur associé de physique théorique à l’université de Kiel, il accepta.


Disposant de revenus suffisants pour fonder une famille, il se maria avec son amour de jeunesse, Mlle Marie Merck. Ils ont eu quatre enfants ensemble. A l’automne 1888, le professeur Kirchhoff meurt, l’université de Berlin invite Planck à lui succéder.
Nommé professeur adjoint et premier directeur du nouvel institut de physique théorique en novembre 1888, il est promu professeur titulaire en 1892. Planck reste à Berlin jusqu’à sa retraite en 1926.

 

Max Planck citation2 

 

Le professeur Planck


Avec son complet sombre, sa chemise blanche empesée et son nœud papillon noir, Planck évoquait le fonctionnaire prussien modèle de la fin du XIXe siècle, n’eût été « le regard pénétrant sous le dôme immense de sa tête chauve. Il se montrait d’une extrême prudence avant de s’engager sur des questions scientifiques ou sur quelque autre sujet que ce soit. Planck n’était pas homme à changer d’avis facilement.

De son propre aveu, il était d’un naturel pacifique et évitait toutes les aventures. Il admit qu’il manquait de réactivité face à la stimulation intellectuelle.
Planck, ardent défenseur de la physique classique, savant très conservateur, est totalement hermétique à la notion d’atome. C’est dire que pour lui, à cette époque, toute idée scientifique nouvelle revêt un caractère sacrilège.


Il lui fallut des années pour réconcilier des idées nouvelles avec son conservatisme, or ce fut Planck qui, à l’âge de quarante-deux ans, déclencha sans le vouloir la révolution quantique en 1900 quand il découvrit l’équation donnant la répartition du rayonnement émis par un corps noir.

 

 

Le four du boulanger qui explose selon Kirchhoff

Planck a pu entrer au panthéon de l’histoire de la recherche scientifique en démontrant que les échanges entre la matière et l’énergie qui en est issue se déroulent non pas de façon homogène et continue, mais de façon discontinue par petits paquets (ou quanta).

Dans les années 1860, la marche vers la découverte des quanta de lumière (ou photons) est ouverte, à son insu, par le physicien allemand Gustav Robert Kirchhoff (1824-1887).
Un soir d’hiver, devant sa cheminée, il s’interroge sur le fait que les braises émettent des lumières de couleur différente selon leur température. Pourtant c’est un phénomène bien connu des potiers, des verriers, des forgerons et des boulangers qui, depuis l’Antiquité, vérifient la température de leur four grâce à sa couleur : 750 °C pour le rouge vif, 1000 °C pour le jaune, 1200 °C pour le blanc.

 

Tous les objets, s’ils sont suffisamment chauds, émettent un mélange de chaleur et de lumière dont l’intensité et la couleur changent avec la température. Le bout d’un tisonnier en fer qu’on a laissé dans le feu commence à briller faiblement d’un éclat rouge terne ; quand sa
température augmente, il passe au rouge cerise, puis au jaune orangé vif et enfin au blanc bleuté. Une fois retiré du feu, le tisonnier se refroidit en redescendant la gamme de ces couleurs jusqu’à ce qu’il ne soit plus assez chaud pour émettre la moindre lumière visible. Même à ce stade, il émet encore un rayonnement thermique invisible. Au bout d’un certain temps,
ce dernier cesse lui aussi lorsque le tisonnier, en continuant de se refroidir, devient finalement assez tiède pour qu’on puisse le toucher.

Pour comprendre ce phénomène, Kirchhoff imagine le concept du “corps noir”. Celui-ci ressemble à un four idéal ayant la forme d’une boîte fermée absorbant la totalité du rayonnement qu’elle reçoit (d’où le terme “corps noir). En le chauffant progressivement, Kirchhoff peut analyser les fréquences du rayonnement électromagnétique, visible ou pas, qui sort d’un petit trou percé dans l’une des parois.

 

kirchhoff le corps noir

 

Au début du XIXe siècle, ce rayonnement se résumait à la lumière visible.
Peu à peu, les physiciens découvrent d’autres rayonnements de même nature, mais non perceptibles à l’œil humain (l’ultraviolet, l’infrarouge) puis à la fin de ce même siècle, la plupart des autres rayonnements (micro-ondes, ondes radio, rayons X et gamma). À la même époque, en 1864, Maxwell démontre qu’un rayonnement électromagnétique est composé d’une onde électrique et d’une onde magnétique se propageant à la vitesse de la lumière.

L’expérience de Kirchhoff confirme que les températures sont toujours liées aux mêmes rayonnements électromagnétiques (donc aux mêmes couleurs quand ils sont visibles), ce qui reste vrai, quelles que soient la matière brûlée (verre, charbon, bois...), la consistance des parois (brique, fer...) et la forme du corps noir.
Il en déduit que l’intensité du rayonnement est liée à la fréquence de ce dernier et à la température du four.

Il ne reste plus qu’à trouver la formule mathématique. C’est alors que les choses se gâtent : ni Kirchhoff ni aucun chercheur de l’époque n’y parviennent.

 

 

La catastrophe ultraviolette

Pendant son séjour à Berlin, Planck a commencé à analyser les corps noirs, objets théoriques qui absorbent le rayonnement électromagnétique. Les charbons noirs dans un barbecue deviennent rouge orange, la couleur change avec la température.


Planck a étudié la relation entre l’énergie électromagnétique émise par des corps noirs, et les températures pour conclure que ces phénomènes dépendent de la température uniquement. A des températures basses, l’intensité du rayonnement émis diminue. Les rayons rouges possèdent de plus grandes longueurs d’onde ; lorsqu’un objet est initialement chauffé, il devient rouge.


Au fur et à mesure que le corps se réchauffe, la couleur passe à l’orange ou au jaune et finalement au bleu.
Ainsi, lorsque le corps noir absorbe de plus en plus de chaleur, le pic d’intensité du rayonnement qu’il émet se déplace à travers le spectre électromagnétique vers des longueurs d’onde de plus en plus courtes, c’est-à-dire des fréquences de plus en plus élevées. La région des hautes fréquences du spectre correspond aux ondes courtes de la lumière ultraviolette. Les physiciens ont appelé cette énigme la catastrophe ultraviolette. Les formules mathématiques prédisent que l’intensité du rayonnement électromagnétique émis par le “corps noir”, au lieu de décroître, devient infinie lorsque les fréquences se situent au niveau de l’ultraviolet. Le boulanger qui regarde son four aurait les yeux brûlés, la cheminée risque d’exploser.

Max Planck citation3

 

 

Planck invente le quanta d’énergie


Les lois de la thermodynamique sont prises en défaut ? Aucune formule mathématique n’arrive, pour une température donnée, à reconstituer totalement l’ensemble de la courbe obtenue par l’analyse empirique de tout le spectre des fréquences du rayonnement électromagnétique (et plus particulièrement de la lumière : de l’infrarouge à l’ultraviolet) sortant par le trou du corps noir.


Planck s’intéresse à cette anomalie. Peu avant 1900, il se met à rechercher la formule qui doit corroborer toutes les observations de Kirchhoff, et notamment être indépendante de toute contingence matérielle du corps noir (volume, forme, matière brûlée...). En tâtonnant, il trouve finalement une formule mathématique qui permet de calculer, pour une température déterminée, l’énergie totale E dégagée par un rayonnement électromagnétique. A présent, il lui faut étayer par une théorie scientifique adéquate, cette formule découverte empiriquement. Bien qu’il soit un expert des lois de la thermodynamique, il n’arrive pas à élaborer de théorie convaincante.


Un génial physicien et mathématicien autrichien Ludwig Boltzmann (1844-1906) va le tirer de ce mauvais pas.

 

En effet, à la fin du XIX siècle, lui vient l’idée étonnante d’expliquer le comportement général d’un gaz enfermé dans une enceinte en tentant d’étudier celui de chacune des molécules le constituant. Il s’aperçoit que cela est impossible : il existe des milliards de molécules dans un simple centimètre cube de gaz. Il fait donc appel aux probabilités en prenant en considération la valeur moyenne de multiples paramètres attachés à une molécule (sa vitesse, la longueur et la direction de sa trajectoire, le nombre de collisions par seconde avec d’autres molécules ou contre les parois du récipient, le nombre de fois où il n’y a  aucune collision...) à partir desquels il peut expliquer le comportement d’un gaz.


Grâce à cette démarche innovante, Boltzmann réussit, en partant d’une étude effectuée au niveau microscopique (chaque molécule de gaz), à déterminer au niveau macroscopique les propriétés générales d’un gaz (pression, température, chaleur) et surtout à définir leurs valeurs de façon certaine.

Pour Planck, il s’agit d’un blasphème, une approche moléculaire et probabiliste !!
Quoi d’autre pour profaner encore les lois classiques de la thermodynamique.

Ludwig Boltzmann a interprété la deuxième loi de la thermodynamique comme une “loi de probabilité”. Si la probabilité relative ou le désordre de l’état d’un système est W, il conclut que l’entropie S du système dans cet état, est proportionnelle à la valeur de l’entropie.
Planck avait consacré des années à l’étude de l’entropie et de la seconde loi de la thermodynamique, et une relation fondamentale entre l’entropie et l’énergie a été cruciale dans la dérivation de la loi de la thermodynamique.


Les conclusions de Boltzmann semblaient fantastiques pour Planck, mais en 1900 il était de plus en plus désespéré, dans sa recherche d’un moyen acceptable pour calculer l’entropie du corps noir. Il avait pris plusieurs fois de mauvaises directions, fait une erreur fondamentale d’interprétation et épuisé son répertoire théorique.

Aucun des chemins théoriques qu’il avait connus jusqu’alors ne menait où il était certain de devoir arriver un jour.

Pour Planck, c’était un “acte de désespoir”, comme il l’a écrit plus tard à un collègue. « Par nature, je suis enclin à la paix et je rejette toute aventure douteuse », écrit-il, « mais à ce moment-là, j’avais lutté sans succès pendant six ans (depuis 1894) avec ce problème de l’équilibre entre le rayonnement et la matière et je savais que ce problème était d’une importance fondamentale pour la physique ; je connaissais également la formule qui exprime la distribution de l’énergie dans les spectres normaux (sa loi empirique du rayonnement). Il fallait trouver une interprétation théorique à n’importe quel prix, aussi élevé soit-il. »
La procédure de comptage utilisée par Planck pour calculer le désordre W dans l’équation a été empruntée à une autre technique théorique de Boltzmann. Il considérait — au moins à titre temporaire — que l’énergie totale des résonateurs était constituée de petits « éléments » indivisibles.


Son argumentation n’aboutirait pas à moins qu’il ne suppose que l’énergie des éléments était proportionnelle à la fréquence des ondes. Planck pouvait dériver sa loi de radiation et utiliser les données du corps noir pour calculer des valeurs numériques précises en joutant une constante théorique h.


La meilleure preuve de l’intelligence et de l’intégrité de Planck est qu’il a réussi contre lui-même, contre sa foi dans la physique classique.


Voulant démontrer le bien-fondé de sa formule, il teste la démarche probabiliste de Boltzmann. Tout comme lui, Planck applique sur les ondes ce que Boltzmann applique sur les Gaz. Il divise l’énergie E du rayonnement électromagnétique issu du corps noir en de très nombreuses quantités n très petites. Chacune d’elles étant dotée d’une quantité d’énergie e.
Il aboutit alors à la formule e = hf (i)
où f (i) représente les différentes fréquences du rayonnement correspondant, en partie, aux différentes couleurs composant la lumière visible et h est un facteur de proportionnalité dont la valeur, infiniment petite, est exprimée en joules/seconde : 6,55x 10-34 (très proche de la valeur connue de nos jours : 6,62 x 10 -34)

Cette constante sera appelée « constante h de Planck » et deviendra rapidement la clé de voûte de la physique quantique.


Planck vient donc de démontrer que les échanges d’énergie entre la matière incandescente (par exemple du bois qui brûle) et le rayonnement sous forme de chaleur (l’énergie) qui s’en échappe se font par petites quantités d’énergie, qu’il appela au début « quantité élémentaire d’action », qui seront baptisées « quanta d’énergie ».

Non seulement la formule était simple et précise, utile pour vérifier et corréler les données spectrales, et était, dans l’esprit de Planck, quelque chose de plus que cela. Ce n’était pas seulement une formule de radiation, c’était la formule de radiation, la loi finale faisant autorité, la loi régissant le rayonnement du corps noir. Et en tant que telle, elle pouvait être utilisée comme base d’une théorie et même, comme il s’est avéré, une théorie révolutionnaire. Sans hésitation, Planck s’est lancé à la poursuite de cette théorie.

Quand vous insérez une bûche dans la cheminée, les autres bûches qui brûlent déjà dégagent une énergie qui fait vibrer les atomes de la nouvelle bûche suivant une certaine fréquence. Cela permet à la matière (le bois qui brûle) de restituer une certaine quantité d’énergie sous la forme d’un rayonnement électromagnétique quantifié (c’est-à-dire discontinu) dont, on l’a vu, seule une très petite partie est visible.

 

energie quantique



A l’époque, il considérait les quanta simplement comme un dispositif mathématique pour compléter les calculs et obtenir les résultats que les expériences avaient montrés. Mais le concept quantique s’est avéré être une découverte révolutionnaire en soi. Non seulement les oscillations électromagnétiques dans le corps noir, ou n’importe quel corps sont quantifiées, comme Planck l’a proposé, mais Albert Einstein montre plus tard qu’un corps absorbe et émet aussi des ondes électromagnétiques en quanta d’énergie qui obéissent à cette règle.

Finalement cette idée conduit à la fondation d’une nouvelle branche de la physique, appelée la physique quantique, et à sa réalisation en tant que mécanique quantique. Ce nouveau concept a résolu le problème de la catastrophe des ultraviolets. Les corps noirs pouvaient facilement contenir (et émettre) des ondes rouges de basse fréquence puisque seule une petite quantité d’énergie est nécessaire pour former un quantum de basse fréquence.

Quand la température augmente, des quanta de plus haute énergie peuvent être créés comme les ultraviolets (ondes courtes), mais il sera difficile d’obtenir suffisamment d’énergie.

Le concept des quanta était radical, car il allait à l’encontre du thème séculaire de la continuité. L’énergie avait toujours été supposée exister transmise comme une onde selon les lois classiques de la thermodynamique affirmant que cette restitution d’énergie doit s’effectuer de façon continue.

Malgré la grande perplexité de Planck, tous ses calculs confirment que son résultat était juste. Il le démontre à Berlin, le 14 décembre 1900, devant ses pairs troublés de la Société allemande de physique.

Planck a initialement proposé sa solution au problème du rayonnement du corps noir lors du séminaire de Berlin en octobre 1900, mais n’a pas présenté de justification théorique qu’en décembre. L’article qui en résulte a été publié dans les Annalen der Physik est l’un des plus articles les plus importants de la physique du siècle Il a admis plus tard qu’il avait trouvé la formule correcte par chance. Un compte-rendu plus complet de ses idées a été publié dans son livre de 1906, Theorie der Wärmestrahlung (Théorie du rayonnement thermique).

 

 

Max Planck citation4

 

L’extraordinaire découverte de Planck

Planck vient donc malgré lui de découvrir la constante universelle h (certes très petite, mais non nulle, qu’il appela h par dérision pour rappeler la première lettre de Hilfe !, « au secours » en allemand).


Planck fut totalement effondré par sa découverte révolutionnaire, qu’il qualifia même d’« acte de désespoir » ! De fait, il s’est senti devenir un hérétique scientifique : il venait de démontrer la réalité d’un phénomène physique (le transfert d’énergie ne se fait pas de façon continue, sous forme d’onde, mais discontinue, par quanta, et la quantité d’énergie transportée par ces derniers ne peut absolument pas dépasser un certain seuil) par des arguments qu’il a toujours rejetés comme contraires à ses plus profondes convictions, et il a toujours conseillé ses étudiants de ne pas les admettre. Il ne pensait pas aboutir à cette conclusion mettant en échec les lois classiques de la thermodynamique, qu’il avait passé sa vie à enseigner et à approfondir.
Indirectement, il cautionnait aussi l’idée que la matière, à son niveau le plus intime, est constituée d’atomes, ce qu’il avait toujours combattu avec fougue.


Durant une grande partie de sa vie, il considérera avoir sciemment utilisé un artifice mathématique auquel il ne croyait pas, uniquement pour valider sa formule, qu’il savait exacte. Cela tenait pour lui plus de la supercherie scientifique que d’un véritable travail de chercheur.

Une décennie après la découverte de l’action quantique par Planck, l’application de cette découverte a conduit à résoudre de nombreux paradoxes entre la théorie de la physique classique et la physique expérimentale.

Einstein va étendre les idées de Planck à la dualité onde-particule, proposant que la lumière émise soit sous la forme de quanta individuels d’énergie, appelés photons. Plus tard, le physicien danois Niels Bohr a développé les liens entre la physique quantique et l’atome.

En 1918, Planck a été récompensé par le prix Nobel de physique pour sa découverte.

 

La vie personnelle de Max Planck

Planck était un père de famille dévoué, un conférencier compétent, un musicien talentueux, un alpiniste infatigable, un administrateur formidable, un mentor par ses jeunes collègues, et une source d’inspiration pour tous. Einstein, qui, par sa personnalité et ses antécédents, semblait être presque un anti-Planck énumère pour Max Born les plaisirs de son séjour à Berlin, concluant par : « Mais en premier, être près de Planck est une joie. »


Planck était le plus heureux des hommes en compagnie de sa famille. Comme c’est merveilleux de mettre tout le reste de côté, et de vivre sein de la famille, écrivit — il. « Sa seconde épouse, Marga, remarque : “Il ne montrait toutes ses qualités humaines qu’en famille.” Avec sa première épouse, Marie, qui décède en 1909, il eut deux fils, Karl et Erwin, et des filles jumelles, Emma et Grete.


Lise Meitner, une jeune femme talentueuse, déterminée et timide qui se rend à Berlin en 1907 pour faire carrière dans la physique, objectif quasi impossible pour une femme à l’époque, s’est liée d’amitié avec Planck, qui l’a accueillie au sein de sa famille.

Dans un souvenir de Planck, elle écrit : “Planck aimait la compagnie joyeuse, sa maison était un centre de rassemblements sociaux. Les étudiants les plus avancés et les assistants en physique étaient régulièrement invités dans la Wangenheimstrasse. Si les invitations tombaient pendant le semestre d’été, on jouait au chat dans le jardin, un jeu auquel Planck participait avec une joie enfantine et une grande agilité. Il était presque impossible de ne pas être attrapé par le professeur”.

Karl, le fils aîné, meurt de blessures à Verdun lors de la Première Guerre mondiale.
En 1917, Grete meurt peu de temps après un accouchement. Le bébé survit. Emma aide à s’occuper de l’enfant nouveau-né, et épouse son beau-frère veuf, mais elle meurt elle aussi en couches.


Planck est dévasté par ces pertes. Après la mort des jumelles, il écrit dans une lettre à Hendrik Lorentz :

Maintenant je pleure mes deux enfants chèrement aimés dans un chagrin amer et je me sens dépouillé et appauvri. Parfois, je doute de la valeur de la vie elle-même.


Mais il avait d’immenses ressources. Il s’évadait dans son travail, non seulement dans les études solitaires de la physique théorique, mais aussi dans la vie universitaire.
Pendant des décennies, Planck a influencé l’Académie de Berlin, et la Société allemande de physique, gardienne de la principale revue de physique, Annalen der Physik. En 1930, trois ans après sa “retraite”, Planck est élu à la présidence de la Société Kaiser-Wilhelm et à la tête de ses instituts de recherche.


Il était connu comme la voie de la recherche scientifique allemande. En même temps, il restait actif dans la Société de physique, et donnait des conférences à l’université.
D’une manière ou d’une autre, Planck trouve le temps de se divertir, mais rien de frivole. Il est un excellent pianiste et préfère les romantiques, Schubert, Schumann, et Brahms, à la musique intellectuelle de Bach.


Planck accompagnait parfois le célèbre violoniste Joseph Joachim, et une fois ils ont joué en trio : Joseph Joachim, Einstein et Planck.
Planck a été témoin des deux guerres mondiales. Il a vu l’apogée de la recherche scientifique allemande en physique qu’il avait aidé à construire, détruite par les politiques nazies raciales et antisémites. Il fut le témoin de la fuite des cerveaux européens chassés par le régime nazi, vers les USA qui allait offrir aux américains, les fruits d’une longue tradition scientifique de la physique.


En février 1944, sa maison est bombardée, détruite avec sa bibliothèque, sa correspondance, et ses journaux intimes. Un an plus tard, le dernier fils de Planck issu de son premier mariage, Erwin, est exécuté en tant que conspirateur dans un complot contre Hitler.
“Il était une partie précieuse de mon être”. Planck a écrit à une nièce et un neveu. “Il était mon rayon de soleil, ma fierté, mon espoir. Aucun mot ne peut décrire ce que j’ai perdu avec lui.”

Tard dans sa vie, Planck a écrit : “La seule chose que nous pouvons revendiquer pour nous avec une assurance absolue, le plus grand bien qu’aucun pouvoir au monde ne peut nous prendre c’est l’intégrité de l’âme.”


Des années après la mort de Planck à l’âge de quatre-vingt-neuf ans, son collègue et ancien étudiant James Franck se souvint d’avoir observé sa lutte désespérée “pour éviter la théorie des quanta, et s’il ne pourrait pas au moins, réduire son influence dans toute la mesure du possible”. Pour Franck, il était clair que Planck “était un révolutionnaire malgré lui” qui “était finalement arrivé à la conclusion : ‘Ça ne sert à rien. Nous allons être obligés de vivre avec la théorie des quanta. Et, croyez-moi, elle se répandra.”.

 

 

 

Références

Gamow, George. The Great Physicists from Galileo to Einstein. mineola, n.Y. : Dover, 1961.
Planck, max. The Philosophy of Physics. new York : norton, 1936.
———. The Theory of Heat Radiation. mineola, n.Y. : Dover, 1959.
———. Treatise on Thermodynamics. mineola, n.Y. : Dover, 1990.
segrè, emilio. From X-Rays to Quarks : Modern Physicists and Their Discoveries. San Francisco : W. h. Freeman, 1980.
Etienne Klein : Il était sept fois la révolution : Albert Einstein et les autres. Flammarion, 2005.
Manjit Kumar : Le grand roman de la physique quantique, Einstein, Bohr… et le débat sur la nature de la réalité, éditions Jean-Claude Lattès, 2011,

Lire la suite
1
  3556 lectures
  0 commentaires
Mots-clés :
3556 lectures
0 commentaires

Zénon raisonne par l’absurde

 

Zenon

 

 

 

« Zénon a sur le mouvement quatre raisonnements, qui ne laissent que d'embarrasser ceux qui tentent de les réfuter » écrivait Aristote il y a approximativement vingt-cinq siècles.
(La Physique VI:9, 239b10).

 

 

Zénon et les paradoxes


Quelques siècles avant Jésus-Christ, des philosophes grecs comme Héraclite, Parménide ou Zénon d'Elée s'interrogeaient déjà sur la nature du temps, de l'espace et du mouvement.

L’auteur présocratique Zénon d’Élée (c. -490 – c. -4301) est l’introducteur en philosophie de ce que l’on peut appeler « l’horizon infini des opérations ».
Zénon est connu pour deux choses :
1. Un livre d’arguments contre la pluralité, entreprenant de prouver que l’hypothèse de la pluralité oblige à affirmer ensemble des paradoxes, et dont Platon porte témoignage dans le Parménide (LM D4)

2. Un groupe de 4 arguments contre le mouvement, qui sont paraphrasés et réfutés avec soin et génie dans la Physique d’Aristote (LM D14-16, 18 ; BK A25).

Chez son maître Parménide (c. -515 – c. -440), on trouve la première utilisation philosophique rigoureuse du raisonnement par l’absurde ; mais Zénon utilise le raisonnement par l‘absurde systématiquement, non seulement dans la philosophie, mais aussi dans les mathématiques.
Pourrions-nous compter jusqu’à l’infini ? Comment raisonner en face d’une série d’événements qui ne prend jamais fin ?

Il applique ce raisonnement par l’absurde pour étudier la possibilité d’itérer sans fin des opérations.

Partant de l’hypothèse que la matière comme le temps constitue une grandeur continue, que toute grandeur continue se divise en d’autres grandeurs continues, hypothèse partagée par la géométrie grecque, il a produit un certain nombre d’arguments visant à prouver qu’il est impossible qu’il y ait du mouvement.

Les arguments de Zénon ont un sens bien déterminé, précisément. Il s’agit de
de bons arguments, concluant qui prennent la forme de preuves par l’absurde, et qui réfutent par l’absurde un avis contraire.

Il formule des paradoxes portant sur le mouvement, en particulier le paradoxe d’Achille » et le paradoxe de la Dichotomie : division en deux moitiés égales.

Ils nous enseignent que pour qu’un mouvement s’accomplisse, il faut que s’achève une série d’étapes théoriquement inachevables. Le mouvement est donc prouvé impossible.

La forme de ces paradoxes est bien connue, par exemple, pour qu’un objet accomplisse un mouvement, il doit parcourir la moitié d‘une distance, puis la moitié de la distance restante, puis la moitié de ce qui reste, etc. Ainsi, un objet mobile ne peut jamais arriver à sa destination, car il lui reste toujours une distance restante à parcourir.

 

Paradoxe d’Achille et la tortue

Dans le livre II de la Physique, Aristote rapporte ainsi l'explication donnée par Zénon :
« Le plus lent à la course ne sera jamais rattrapé par le plus rapide, car celui qui poursuit doit toujours commencer par atteindre le point d'où est parti de sorte que le plus lent a toujours quelque avance.»

Le paradoxe d’Achille est célèbre. Dans ce paradoxe formulé par Zénon d’ Elée, il est dit qu’un jour le héros grec Achille a disputé une course à pied avec une tortue. Comme Achille était réputé être un coureur très rapide, beau joueur, il accorde gracieusement à la tortue une avance de cent mètres.
Zénon énonce que le rapide Achille n’a jamais pu rattraper la tortue, comme le cite Aristote.

Achille ne saurait rattraper une tortue à la course, si la tortue a de l’avance. Car supposons qu’elle se trouve au début de la course au point P. Achille ne saurait la rattraper sans d’abord parvenir jusqu’au point P. Mais le temps qu’Achille y parvienne, la tortue aura continué d’avancer.
Achille ne peut donc pas rattraper la tortue.
Le temps qu’Achille parcoure les 100 mètres ; la torture parcourt elle 50 m
Achille parcourt les 50 m restant, mais la tortue parcourt 25 m.
Achille parcourt les 25 m restant, mais la tortue parcourt 12.5 m
Etc

 

Zenon paradoxe

 

Plus concrètement, le temps qu’Achille comble son retard de cent mètres, la tortue aura parcouru, disons 10 mètres. Achille doit, pour rattraper la tortue, parcourir ce nouveau mètre, mais une fois ce mètre atteint, la tortue aura encore une fois pris un peu d’avance, et ainsi de suite. Ainsi, Achille aux pieds rapides n’aura jamais pu rattraper la tortue. Le raisonnement de Zénon paraît impeccable et irréfutable; pourtant, nous savons tous que c’est Achille qui a gagné la fameuse course !

Selon la philosophie de Parménide, la réalité est une et immuable, sans changement, et tout changement ou mouvement ne sont que des illusions de nos sens.
En tant que disciple, Zénon a écrit un livre plein de paradoxes qui défendent la philosophie de Parménide. Ce livre a toutefois disparu, tout ce que l’on connait de ces arguments à l’encontre du mouvement nous est reporté par Aristote (IVe siècle avant J.-C.) dans le Livre VI de La Physique.

Dans cet ouvrage, Aristote dévoile ses propres arguments dans le but d’expliquer pourquoi « Zénon fait un faux raisonnement » et en quoi « constitue l'erreur de raisonnement de Zénon». Il ne présente pas les arguments de Zénon contre le mouvement comme étant des « paradoxes ». Et ce point de vue d’Aristote fut largement accepté jusqu’à la fin du XIXe.

Entre temps, des grands philosophes comme Descartes ont tenté de résoudre le paradoxe.
Au 19e siècle, on présente les arguments de Zénon en tant que « paradoxes », on valide la contradiction et on cherche de vraies solutions. Ces paradoxes continuent à être le sujet de plusieurs livres et thèses. Durant ces dernières décennies, ils ont été régulièrement le sujet de discussion dans des revues ou ouvrages académiques.

 

Le paradoxe de la flèche

Si toute chose, disait-il, doit toujours être en mouvement ou en repos, et si elle est au repos quand elle est dans un espace égal à elle-même, tout corps qui se déplace étant à chaque instant dans un espace égal à sa longueur, la flèche qui nous semble voler, est immobile.

Disons-le autrement : nous imaginons une flèche en vol. À chaque instant, la flèche se trouve à une position précise. Si l’instant est trop court, alors la flèche n’a pas le temps de se déplacer et reste au repos pendant cet instant. Maintenant, pendant les instants suivants, elle va rester immobile pour la même raison. La flèche est toujours immobile et ne peut se déplacer : le mouvement est impossible.
Ce paradoxe a connu un regain de popularité avec la physique quantique, qui montre une incompatibilité entre la détermination du mouvement et la détermination de la position des objets qu’elle étudie.

Selon Aristote :
Mais Zénon a fait un raisonnement faux : « (a) Si toute chose, dit-il, doit toujours être soit en mouvement, soit en repos quand elle est dans un espace égal à elle- même, et (b) si tout corps qui se déplace est toujours pendant chaque instant dans un espace égal (c) il s'ensuit que la flèche qui vole est immobile. » (d), Mais c'est là une erreur, attendu que le
temps n'est pas un composé d'instants, c'est-à-dire d'indivisibles. »

[Aristote, La Physique (fragments VI:9, 239b5 et 239b30); traduit par Barthélémy Saint-Hilaire (1862) : Tome 2, Livre VI: Chapitre XIV].

L’argument d’Aristote repose sur un concept du temps comme un élément indivisible.

 

 

Le paradoxe de la pierre lancée sur un arbre

Le premier paradoxe de Zénon, et peut-être bien le plus connu, concerne l’impossibilité qu’une pierre lancée contre un arbre puisse atteindre cet arbre. Il est exposé et commenté dans La Physique d’Aristote. Zénon se tient à huit mètres d’un arbre, tenant une pierre. Il lance sa pierre dans la direction de l’arbre. Avant que la pierre ne puisse atteindre l’arbre, il doit traverser la moitié des huit mètres qui le séparent de l’arrivée, en un temps non nul. Une fois ce trajet effectué, elle doit parcourir la moitié du trajet restant, et ceci se fait encore une fois en un temps non nul. Et ainsi de suite : la pierre doit, au fil de sa progression, parcourir la moitié du trajet restant en un temps non nul, Zénon en conclut que la pierre ne pourra frapper l’arbre qu’au bout d’un temps infini, c’est-à-dire jamais.

 

Zénon dans le monde antique

Ces problèmes, dans l’Antiquité, ont entraîné deux réponses : la réponse atomiste et la réponse « potentialiste ».

La réponse atomiste était celle de Leucippe (c. -460 – -370), Démocrite (c. -460 – -370), Épicure (-341 – -270), et Diodore Cronos (c. -340 – -284). Cette réponse atomiste consiste à nier l’horizon infini de l’opération. Les atomistes affirment, que la grandeur totale est composée de plus petites grandeurs indivisibles (des « atomes », des choses qui ne peuvent être coupées), et donc, Zénon ne peut diviser les distances à l’infini. Il existe donc une dernière étape après laquelle Achille a rattrapé la tortue, et la pierre a touché l’arbre.
La réponse potentialiste développée chez Aristote (-384 – -322), consiste à admettre la possibilité d’une division possible à l’infini. On pourrait toujours diviser un continu sans trouver fin à cette division, mais nous ne saurions le diviser toujours qu’un nombre déterminé de fois.
La course d’Achille est une et non divisée, bien qu’elle soit divisible, ce qui signifie qu’on peut trouver en elle un nombre arbitraire, mais toujours déterminé en acte de divisions.

Il y en a eu bien sûr des philosophes comme Diogène de Sinope, qui se sont levés et ont dépassé les tortues pour réfuter l’argument.

Ces réponses ne sont pas satisfaisantes.

La réponse atomiste est de refuser les conditions de départ du problème. Si la réponse atomiste et la méthode atomiste sont la bonne réponse et la bonne méthode, devrons-nous penser alors qu’Aristote, Galilée, Descartes, Newton, et les inventeurs de l’Algèbre au moyen âge n’ont rien compris en cherchant à analyser ce paradoxe ?

La réponse atomiste abdique d’emblée, et abandonne la bataille et se montre indifférente à la question du mouvement, et du temps.

La réponse aristotélicienne est originale, et efficace, mais difficile à prouver, et demeure un point de vue philosophique. Cette réponse est tombée en désuétude bien sûr.

 

Zénon et les solutions de notre époque

Bien sûr, Zénon pouvait vérifier par lui-même qu’une pierre peut frapper un arbre, ou qu’une flèche se déplace. Il serait naïf de croire qu’il contestait que ce soit possible.
Si on en croit Aristote, Zénon nie fondamentalement le mouvement. Il ne nie pas son apparence, puisqu’on peut tous le constater par nous-mêmes, mais sa réalité.
La question devient : pourquoi, alors que je vous prouve par la logique que le mouvement n’est pas possible, on peut malgré tout l’expérimenter ?

On peut voir, dans ces paradoxes, un doute sur la façon de manipuler l’infini, et le divisible. Dans le cas du paradoxe d’Achille, c’est l’infiniment petit qui est en cause... Pensée également partagée par Démocrite, l’inventeur de la notion d’atome.
Depuis que les paradoxes de Zénon furent énoncés, beaucoup de solutions ont été proposées, mais aucune n’a réellement réussi à résoudre tous les aspects paradoxaux des arguments de Zénon : soit la solution proposée résout un (ou plusieurs) argument(s), mais en laisse toujours (au moins) un de côté, soit la solution proposée mène vers d’autres paradoxes.

En 1913, le philosophe britannique Bertrand Russel écrit :
« Dans ce monde capricieux, rien n'est plus capricieux que la gloire posthume. Une des victimes les plus notables du manque de jugement de la postérité a été Zénon d’Élée. Ayant conçu quatre arguments, tous immensément subtils et profonds, la crasse des philosophes qui ont suivi
n’a guère jugé qu'il ne valait pas mieux qu'un ingénieux jongleur, et que ses arguments était plus qu'une série de sophismes. »

Après deux mille ans de réfutation ininterrompue, ces sophismes furent rétablis, et placés au fondement d'une renaissance mathématique, par un professeur allemand qui ne pensait pas à Zénon. Weierstrass, en bannissant les infinitésimaux, a finalement montré que nous vivons dans un monde immuable, et que la flèche, à chaque instant de son vol, est véritablement au repos. La seule erreur que fit probablement Zénon est de conclure (si vraiment il en a conclu ainsi) que, puisqu'il n'y avait aucun changement, il fallait que le monde fût dans le même état d'un instant à un autre. Cette conséquence n'est pas du tout valide, et c'est en ce point que le professeur allemand est en progrès sur le Grec ingénieux. »

Dans son étude des paradoxes de Zénon, Bertrand Russell supposait que le temps est u ne succession non pas d'instants de durée nulle, mais de petits intervalles de temps indivisibles, des "atomes" de temps.

Les paradoxes qui portent le nom de Zénon se basent sur une notion mathématique que notre philosophe ne pouvait connaître : celle des séries convergentes.
En mathématiques, la notion de série permet de généraliser la notion de somme finie.

En mathématique moderne, le paradoxe est résolu en utilisant le fait qu’une série infinie de nombres strictement positifs peut converger vers un résultat fini.
Ce paradoxe fonctionne en découpant un événement d’une durée finie (Achille rattrape la tortue) en une infinité d’événements de plus en plus brefs (Achille fait 99 % de la distance manquante).


Ensuite, l’erreur mathématique introduite dans le paradoxe consiste à affirmer que la somme de cette infinité d’événements de plus en plus brefs tend vers l’infini, c’est-à-dire qu’Achille n’arrive jamais à rattraper la tortue.

Admettons que la première étape a pris 10 secondes. Alors, la suivante a pris 0,1 seconde, puis l’étape suivante a pris 0,001 seconde, etc.
On obtient la série suivante : 10 + 0,1 + 0,001 + 0,00001 = 10,10101 secondes. Ce paradoxe montre donc simplement qu’Achille ne peut pas rejoindre la tortue en moins de 10,100 secondes, et non pas qu’il ne peut jamais rejoindre la tortue.
Ce paradoxe peut être résolu en appliquant le principe de série convergente.

La physique quantique va elle aussi dans ce sens en admettant l’existence d’une unité de temps et d’une unité de taille toutes deux indivisible. Les effets quantiques imposent, dans la théorie des cordes une taille minimale de l'ordre de 10-34 mètres. Ce quantum irréductible de longueur est une nouvelle constante de la nature, aux côtés de la vitesse de la lumière et de la constante de Planck (le seuil d'énergie minimum que l'on puisse mesurer sur une particule). Le Temps de Planck = 10-43 secondes. C'est la plus petite mesure de temps à laquelle nous puissions avoir accès, au-delà de cette limite, les lois physiques cessent d'être valides.
Selon ces approches, Zénon ne peut pas découper à l’infini.

La science a bien avancé depuis Zénon, mais ces paradoxes demeurent, car nous n'avons toujours pas de réponse à la question cruciale : le temps est-il discontinu ou continu?

 

 

Références

Dumont, Jean-Paul (éd.), Les écoles présocratiques, trad. par Daniel Delattre, Jean- Paul Dumont et Jean-Louis Poirier, folio/essais, Gallimard, 1991.

Aristote, Catégories. Sur L’interprétation, Organon I-II, trad. du grec, annot. et introd. par Michel Crubellier, Catherine Dalimier et Pierre Pellegrin, GF Flammarion,2007.

Brochard, Victor, Études de philosophie ancienne et de philosophie moderne, éd. établie et introd. par Victor Delbos, Félix Alcan, Paris 1912.
— « Les arguments de Zénon d’Élée contre le mouvement », Compte rendu de l’Académie des sciences morales, 29 (1888), p. 555-568.

McKirahan, Richard, « La dichotomie de Zénon chez Aristote », in Qu’est-ce que la philosophie présocratique ?, What is Presocratic Philosophy ?, sous la dir. d’André Laks et Claire Louguet, trad. de l’anglais par Claire Louguet, Presses Universitaires du Septentrion, Lille 2002, p. 465-496.

Cajori, Florian, « The History of Zeno’s Arguments on Motion. Phases in the Development of the Theory of Limits », The American Mathematical Monthly, 22 (1915),p. 1-6, 38-47, 77-82, 109-15, 143-49, 179-86, 215-20, 253-58, 292-97.

Badiou, Alain, L’immanence des vérités, L’Être et l’événement. 3, Fayard, 2018.

Lire la suite
1
  2251 lectures
  0 commentaires
Mots-clés :
2251 lectures
0 commentaires

Histoire médicale de la procréation humaine

Grossesse peinture Art

 

 

 

Depuis l'Antiquité, reproduction et fertilité ne sont pas des questions philosophiques ou médicales, mais des questions de survie. Dans les sociétés antiques, la grossesse représentait l'espoir de peupler la citée, de survivre collectivement à la famine, aux guerres et aux épidémies.

 

La reproduction dans le monde antique

L’importance de la reproduction humaine dans le monde antique a favorisé un intérêt particulier pour la sexualité procréatrice.
Le désir d’avoir plus d’enfants favorisait l’activité hétérosexuelle.
Généralement, six à sept enfants par couple étaient le témoin de la bonne fertilité, c’était un nombre raisonnable d’enfants pour assurer les travaux de la terre et la transmission des biens plus tard.


Les femmes les plus attirantes étaient les femmes les plus fertiles.

La sexualité féminine était orientée essentiellement vers la procréation. Le plaisir féminin était encouragé et valorisé quand il participait à l’amélioration de la fertilité. Le sexe masculin et la matrice féminine étaient les deux parties essentielles de la conception selon les idées répandues dans la société égyptienne. L’utérus était mal connu, la fertilité était une question de religion, de culture, avant d’être une question médicale.


Les Grecs pensaient que l’orgasme féminin était important pour aider la femme à tomber enceinte. Et ainsi on invitait les hommes à aider les femmes atteindre l’orgasme.
L’activité sexuelle dans le couple était donc conseillée pour faire des enfants.
Cette vision de la sexualité — procréation dévalorisait la sexualité récréative avec l’épouse. Le sperme étant envisagé comme un liquide précieux, la fellation était considérée taboue dans la sexualité conjugale. Cette interdiction ne signifiait pas que la fellation était rare. D’autres formes de sexualité récréative existaient en dehors de la famille avec les garçons adolescents, avec les prostituées, et avec les femmes esclaves.

Concernant la semence féminine, Aristote et d’autres pythagoriciens pensaient que la grossesse était le résultat direct de la fertilité du sperme. Selon l’approche d’Aristote, l’embryon est déjà présent dans le sperme, la femme n’est que la matrice. Le père est la personne qui plante sa graine.


Selon Hippocrate, les deux parents produisent du matériel génétique, les pères produisent le sperme, les femmes produisent des sécrétions dans leur utérus qui peuvent parfois couler à l’extérieur de l’utérus. Ces sécrétions sont, selon Hippocrate, plus faible que le sperme masculin. Ces sécrétions masculines et féminines composent l’embryon.

Herophilos ou Hérophile (320 -250 av JC) confirmait la présence de testicules féminins (les ovaires) et de canaux spermatiques permettant à la femme de produire une graine féminine. Hérophile explique ainsi la ressemblance entre la mère et l’enfant. Selon lui, l’utérus est responsable de l’alimentation de la graine. Hérophile comme Hippocrate pensaient que le sang menstruel retenu dans l’utérus pendant la grossesse est responsable de l’alimentation et de la maturation de l’embryon.


Hippocrate et Aristote pensaient que le meilleur moment pour concevoir un enfant est de répandre son sperme à la fin de la menstruation. Aristote pensait que la menstruation empêchait la fertilité. Cela explique l’interdiction de l’acte sexuel pendant la menstruation.
Il pensait que l’embryon était déjà présent dans le sperme masculin. Dans ce sens, le sexe de l’enfant est établi dans les testicules. Autrement dit, le père est responsable définitivement du sexe de l’enfant.


Hippocrate expliquait que chaque parent produit une graine forte ou faible, et que le sexe de l’enfant est déterminé par la force de cette graine. Si les deux parents produisent des quantités égales de graines fortes, un garçon va naître. Si les deux parents produisent beaucoup de graines faibles, l’enfant sera une fille.


La durée des jours fertiles variait selon les auteurs. Selon Hippocrate, trois jours. Selon Aristote : sept jours. La conception selon les médecins de la Grèce antique consistait à déposer une graine dans l’utérus. Ils pensaient que l’utérus demeurait ouvert pour recevoir les graines jusqu’à l’apparition de l’embryon.
Selon Hippocrate, le sang menstruel fournit une indication importante sur la santé générale de la femme. Dès l’arrêt de la menstruation, c’est le moment approprié pour faire un enfant. La graine se développe dans l’utérus, le sang menstruel va être contenu dans l’utérus pour nourrir et faire grandir l’embryon.
Aristote pensait que le sang menstruel diminue à partir du moment où le sperme a réussi à former un fœtus.


Fidèle à l’héritage de l’Égypte antique, Hippocrate considérait que le désir sexuel est indispensable à la fertilité féminine et à la conception. Ainsi, il encourageait les couples à rechercher le désir sexuel, masculin et féminin, pour améliorer la fertilité dans le couple.
Aristote encourageait aussi le plaisir sexuel dans le couple pour les mêmes raisons, en soulignant également la possibilité de conception chez la femme sans plaisir sexuel.

Sopranos d’Éphèse (100 — 138 ap J-C) a étudié les cas de femmes enceintes après un viol. Selon lui, cette grossesse n’a rien à voir avec le désir sexuel, car il existe deux sortes de désir sexuel : le désir pour avoir des rapports sexuels, et le désir pendant les rapports sexuels.

Chez les Romains, on retrouve les mêmes notions sur la reproduction : la théorie de double semence. Galien pensait que l’activité sexuelle immodérée peut nuire à la vitalité masculine en raison de la consommation du sperme. Le sperme était considéré comme un liquide précieux, et facteur de procréation.


Comme dans la société grecque, la société romaine considérait la famille comme la cellule essentielle à la cité, facteur d’ordre social et de prospérité. La sexualité féminine était considérée comme une sexualité tournée essentiellement vers la procréation.
Les Romains connaissaient bien l’anatomie des organes génitaux féminins externes, mais ignoraient leurs fonctions. On retrouve le terme vulve, petites lèvres, et grandes lèvres dans les manuels d’anatomie et de médecine. Sous l’ère impériale, la vulve signifiait des organes de reproduction chez la femme. L’utérus était synonyme de matrice.

Comme les autres civilisations antiques, la physiologie de la conception était méconnue. La théorie la plus répandue était celle de double semence. Démocrite, un médecin romain célèbre déclarait que le sperme dérivait du corps entier et en particulier des zones solides comme l’os, muscles et tendons.
En dépit des avancées spectaculaires de la médecine arabe pendant le Moyen Âge, la théorie de double semence sera maintenue. On interprétait le texte sacré selon cette théorie, la grossesse est le contact entre les fluides de la femme et les fluides de l’homme.

 

 

Siècles d’évolution

Il a fallu attendre le XVIIIe siècle pour améliorer nos connaissances sur la reproduction humaine. C’est une avancée globale de la pensée médicale, qui sépare la médecine de la philosophie, et de la religion. La médecine en Europe va devenir une médecine scientifique fondée sur la preuve et sur l’expérimentation.


Dès le XVIIIe siècle, Malpighi décrivait le corps jaune, le follicule de De Graaf et montrait l’évolution de l’aspect de l’ovaire chez le lapin, enfin Lambert van Velthuysen émettait l’hypothèse de l’existence d’un « ferment » provenant des « testicules féminins ».

Au milieu du XIXe, Pouchet donnait des arguments en faveur d’un phénomène d’ovulation spontanée chez la plupart des mammifères et montrait l’évolution de la cytologie cervico-vaginale avec le cycle. Il avait remarqué que la muqueuse qui tapisse le vagin change régulièrement de couleur selon un cycle bien précis, identique au cycle menstruel. Les sécrétions vaginales semblent suivre, dans leurs changements, le même cycle.

À la fin du XIXe siècle, le corps médical en Europe est convaincu que le cycle menstruel chez la femme a un lien déterminant avec la fertilité et la reproduction. Les recherches se concentrent sur l’événement clé de ce processus.

 

 

20 e siècle


Autour de 1930, de nombreuses études ont prouvé que la menstruation n’est pas identique à l’ovulation, et que le moment de l’ovulation ne coïncide pas avec la menstruation.
Les médecins savaient depuis longtemps que l’ablation des ovaires entraîne une stérilité, mais également une atrophie de l’utérus et une diminution des fonctions sexuelles. En 1900, Knauer établit pour la première fois la nature hormonale du contrôle ovarien sur le système reproductif de la femme, en constatant que la transplantation d’ovaires peut prévenir les symptômes du déficit ovarien. Halban montre qu’un développement sexuel normal est assuré même en cas de transplantation des glandes chez des animaux immatures.
Beard émet l’hypothèse que le corps jaune est nécessaire pour le maintien de la grossesse, tandis que Fraenkel montre que la destruction du corps jaune de la lapine gestante entraîne un avortement.
Corner et Allen en 1929 établirent formellement la fonction hormonale du corps jaune en montrant que l’avortement dû à l’ablation du corps jaune de la lapine gestante pouvait être prévenu par l’injection d’extraits de progestérone.

En 1925, le développement des techniques de dosage biologique a permis de quantifier le taux des hormones. On a décrit pour la première fois la fluctuation des hormones féminines, hausse du taux de progestérone dans les urines et dans le sang au cours du cycle, et durant la grossesse.
En 1960, Jensen et ses collaborateurs suggèrent la présence de récepteurs intracellulaires d’œstrogène dans les tissus cibles. Il s’agissait de la première démonstration de l’existence de récepteurs au sein de la superfamille des hormones stéroïdes. Ces récepteurs expliquent pourquoi les cellules de l’utérus ou du vagin sont sensibles aux hormones sous-traitées par les ovaires, alors que d’autres tissus ne sont pas sensibles.


En 1932, Léonard met en évidence la sécrétion d’une substance par la glande hypophyse qui influence le cycle. Il a nommé cette substance l’hormone lutéinisante (LH). Quelques années plus tard, Benoit jette les fondements de la neuroendocrinologie en montrant le lien entre stimulation optique et réflexe éjaculateur chez le canard mâle. En 1940, Geoffroy Harris met en évidence chez le lièvre l’existence d’une hormone responsable de l’ovulation. Cette hormone sera nommée luteinizing hormone-releasing Hormone. (LHrh)


De nombreuses évolutions technologiques vont permettre un approfondissement progressif de ces données. Par exemple la technique de dosage sanguin en radio-immunologie au début des années 70 a permis un dosage précis des hormones qui interviennent dans le cycle hormonal, et dans l’ovulation. Le développement de l’imagerie médicale a permis une bonne compréhension de l’anatomie de l’hypophyse, de l’ovaire, et de l’utérus.
Les études microscopiques réalisées par l’anatomie pathologique ont permis d’identifier les cellules responsables de l’ovulation, le fonctionnement exact de la muqueuse qui tapisse l’utérus (endomètre) et le fonctionnement des cellules sensibles aux œstrogènes.
C’est à partir des années 70 que nous pouvons trouver le premier schéma scientifique exact et cohérent du cycle hormonal chez la femme, de l’ovulation, et de la fertilité.

 

Références 
Tasca.C, Rapetti.M, et al : Women And Hysteria In The History Of Mental Health, Clin Pract Epidemiol Ment Health. 2012 ; 8 : 110-119.
Monget P, Hembert S, Binart N, Gougeon A, Panthier JJ. La physiologie ovarienne : ce que nous disent les souris. Méd/Sci 1999 ; 15 : 141-147
Penso G. Roman medicine. 3 rd ed. Noceto : Essebiemme ; 2002.
Simpson JL, Rajkovic A. Ovarian differentiation and gonadal failure. Am J Med Genet 1999 ; 89 : 186-200
Layman LC. Genetics of human hypogonadotropic hypogonadism. Am J Med Genet 1999 ; 89 : 240-248

Lire la suite
1
  1469 lectures
  0 commentaires
1469 lectures
0 commentaires

Ocytocine : Quand la chimie gouverne nos amours

couple ocytocine

 

 

 

Si Cupidon avait étudié les neurosciences, il aurait envoyé ses flèches vers le cerveau, plutôt que vers le coeur. Depuis plusieurs années, les recherches scientifiques confirment le rôle important de l'ocytocine dans le sentiment amoureux.

Ocytocine, hormone de l'amour, du sexe, et de l'attachement

L'ocytocine est une hormone se présentant à l'état pur comme une poudre blanche soluble dans l'eau. Cette hormone est élaborée au niveau des neurones présents dans la glande hypophyse. Stockée dans la partie postérieure de l'hypophyse, elle est libérée en réponse à des stimulations neurologiques ou hormonales. La plupart de ces stimulations ne sont pas encore connues. On ne sait que le réflexe déclenchée par la pression ou la succion du mamelon libère cette hormone qui va contracter les muscles du mamelon, et les muscles qui entourent les glandes mammaires pour éjecter le lait maternel.

L'ocytocine est libérée au moment de l'accouchement, pour stimuler d'une façon sélective les fibres musculaires de l'utérus et les contracter. Le rôle de l'ocytocine pendant l'accouchement est indispensable pour déclencher l'accouchement et pour arrêter l'hémorragie après la délivrance.

venus enodormie cupidon poussin

L'ocytocine : La chimie de l'amour

Les couples qui restent ensemble ont tendance à avoir des taux corrélés d'ocytocine, cette hormone est l'un des produits chimiques qui augmentent chez les gens amoureux. C'est l'hormone des câlins.

Les couples ont tendance à avoir des taux similaires d'ocytocine, pour donner à leurs partenaires ce dont ils ont besoin. Les hommes ont tendance à faire plus de câlins, plus de caresses, plus de mots doux, les femmes ont tendance à plus séduire, plus à accepter et à demander du sexe.

L'ocytocine active le sentiment de confiance et d'attirance entre les personnes dès sa libération dans le cerveau, c'est l'hormone de l'attirance romantique par définition. L'ocytocine agit différemment de la flèche de Cupidon, elle incite à être attiré, puis à tomber amoureux en prenant en compte un ensemble de facteurs émotionnels.

Dans une étude récente publiée par l'université de Bonn, une première rencontre entre des hommes et une jolie femme a été organisée. Après administration par pulvérisation dans le nez (pulvérisation intra nasale) d'ocytocine, les hommes qui étaient en couple ou en relation stable ont maintenu une distance physique plus importante avec la jolie femme que les hommes qui étaient célibataires. Ces hommes en relation monogame ou en couple, ont déclaré que cette femme jolie est attirante, mais ils ont pensé à leur couple, et à leurs partenaires. Ces résultats suggèrent que l'ocytocine joue un rôle dans le maintien des relations, pour préserver les partenaires de l'attirance des autres. Cette hormone participe à moduler les relations, à améliorer les relations avec les personnes familières, et augmenter l'agressivité vis-à-vis des personnes non familières ou étrangères.

sommeil couple reveil

Ocytocine et l'orgasme

L'ocytocine est une hormone de type neuropeptide, produite dans l'hypothalamus, qui exerce une influence sur la réponse sexuelle, sur la sensualité, l'érotisme interpersonnelle et l'attirance émotionnelle.

La fonction biologique de l'ocytocine est de faciliter la sécrétion du lait chez les femmes pendant l'allaitement. (J. Wilson, 2003). L'ocytocine favorise l'attachement de la mère à son enfant. Dans de nombreuses études, on suggère que l'ocytocine joue un rôle identique pendant l'excitation et la réponse sexuelle en favorisant l'attachement de la femme à ses partenaires sexuels. (Young, 2009).

L'hormone est sécrétée pendant les caresses, pendant les gestes préliminaires, et pendant l'acte sexuel. On a démontré que le taux d'ocytocine augmente dans le sang au fur et à mesure de la progression de l'activité sexuelle. Cette hormone augmente la sensibilité au toucher et la réceptivité sensuelle, et le comportement affectueux. Chez l'homme, le taux d'ocytocine augmente également pendant la réponse sexuelle pour atteindre son apogée pendant l'orgasme.

L'ocytocine est utilisée en médecine pour déclencher les contractions utérines pendant l'accouchement. Cette hormone joue le même rôle pendant l'orgasme féminin en déclenchant des contractions utérines plus ou moins intenses selon l'intensité de la réponse orgasmique.

Après l'orgasme, le taux de l'ocytocine dans le sang diminue progressivement. Cette diminution favorise l'élan d'affection et d'attachement qui apparaît après l'orgasme. Cette diminution est plus lente chez les femmes que chez les hommes, la testostérone neutralise rapidement l'ocytocine. Cela peut expliquer l'étonnement de certaines femmes du comportement masculin qui redevient rapidement neutre après l'orgasme.

La présence d'un taux élevé d'ocytocine dans le sang coïncide avec l'apparition d'un sentiment amoureux, affectueux ou érotique. Dans d'autres cas, l'ocytocine joue un rôle dans l'attachement social aux autres, et la promotion des sentiments affectueux. (Donaldson 2008). Chez les enfants autistes, souffrant d'une capacité réduite d'attachement, on note des taux bas d'ocytocine dans le sang.

Certains auteurs pensent que l'ocytocine en favorisant l'apparition des contractions musculaires de l'utérus, et des muscles circulaires du vagin améliore la qualité de la réponse sexuelle féminine. Le vagin s'adapte mieux au pénis, pour préserver l'érection, et faciliter l'éjaculation. D'autre part ces contractions musculaires utérines et vaginales augmentent la rétention du sperme et la fertilité de la femme.


L'ocytocine influence l'attirance sexuelle, l'acceptation du partenaire sexuel, l'acceptation et la bienveillance vis à vis de l'enfant. Ce fait peut expliquer l'attirance féminine vers un partenaire sexuel capable d'aider la femme à avoir une sexualité satisfaisante, et atteindre l'orgasme.

ocxtocine

Ocytocine et la vie du couple

Les études confirment que l'ocytocine nous rend plus sympathique avec les autres, plus ouvert, plus favorable et plus confiant. Ces constatations ont conduit certains chercheurs à s'interroger sur une éventuelle utilisation de l'ocytocine dans la thérapie de couple.
En étudiant le rôle de l'ocytocine dans l'attachement de la mère à son enfant, les chercheurs ont pensé que l'augmentation du taux d'ocytocine peut aider les personnes seules ou célibataires à tomber amoureux, et à trouver plus facilement un partenaire sexuel ou un partenaire de vie. Les résultats confirment la théorie selon un article publié dans le journal Psycho neuroendocrinology, le nombre de célibataires qui a trouvé un partenaire pendant une période précise a été doublé.
Dans la même étude, un taux élevé d'ocytocine permet aux couples de rester ensemble plus de six mois. Ces couples parlent plus, écoutent plus, se caressent plus, et font plus l'amour que les autres. Chez ces couples, les expériences jugées positives sont identiques pour les hommes que pour les femmes, les deux partenaires commencent à apprécier les mêmes choses, les mêmes projets.

Dans une autre étude, des chercheurs de l'université de Zurich ont administré par pulvérisation intra-nasale de l'ocytocine, avant de demander aux deux partenaires de parler de leurs problèmes conjugaux. Les chercheurs ont constaté que les hommes et les femmes ayant reçu l'ocytocine ont une nette amélioration de leur communication, affrontent leurs problèmes avec plus de bienveillance, ils ont un taux moins élevé de stress et d'agressivité. Les femmes traitées par ocytocine ont moins de stress. Avec l'ocytocine, la gestion du conflit est apparue plus simple, avec plus de bienveillance et moins de violence.
La recherche montre que les hommes ont tendance à se retirer pendant les conflits favorisant ainsi la rupture de la relation. Après administration d'ocytocine, les hommes ont écouté un peu plus leurs partenaires, ont communiqué un peu plus pour régler les conflits.
Le problème : personne ne peut affirmer que l'ocytocine est responsable directement de ces comportements. En d'autres termes, les chercheurs ne savent pas si l'hormone engendre le comportement ou si le comportement va créer l'hormone.

Une autre étude publiée en 2014 souligne la présence de récepteurs génétiques de l'ocytocine. Les chercheurs suédois ont constaté que les jumeaux réagissent différemment à l'administration de l'ocytocine. Les chercheurs pensent que le nombre des récepteurs de l'ocytocine dans le cerveau varie une personne à une autre.
L'ocytocine aide les personnes autistes à améliorer leur capacité à reconnaître les émotions. Chez les personnes autistes, le nombre des récepteurs à l'ocytocine est inférieur à la normale.


Une équipe australienne a publié ses résultats, concluant que l'ocytocine peut aider les gens dans la thérapie de couple en facilitant la communication empathique. Les personnes traitées par l'ocytocine manifestent plus que les autres des émotions positives. Ils se souviennent des visages heureux, des images optimistes, des événements confiants.


Dans cette étude australienne, ils ont invité des couples à discuter un sujet conflictuel. Après administration de l'ocytocine, les couples ont montré plus de bienveillance, ont discuté avec moins d'hostilité, ils ont résolu leur différend plus rapidement que les couples sans administration d'ocytocine.

La leçon de l'ocytocine

L'utilisation de l'ocytocine est encore expérimentale, en raison des problèmes scientifiques, et éthiques. Dans certains cas, l'ocytocine suscite des réactions violentes vis-à-vis des personnes étrangères et non familières. Il n'existe pas pour le moment une dose recommandée d'ocytocine pour un traitement. Faut-il traiter les gens pour les rendre amoureux et empathiques ?

Cependant, les études nous révèlent une bonne leçon : si l'ocytocine suscite en nous un comportement affectueux, recevoir un comportement affectueux libère également de l'ocytocine. En d'autres termes, l'empathie entraîne l'empathie, la gentillesse invite à la gentillesse, le comportement affectueux engendre une réponse affectueuse.



Lire la suite
1
  6428 lectures
  0 commentaires
6428 lectures
0 commentaires

Pluton : Difficile naissance d’une vérité scientifique

pluton--surface

pluton  surface

Surface de Pluton

 

 

C’est officiel depuis 2006. Pluton n’est pas une planète. Comme l’a décrété en août 2006 l’assemblée générale de l’Union astronomique internationale, Pluton est désormais un astéroïde.


Au début, l’Union astronomique internationale ne semblait pas avoir de mauvaises pensées pour Pluton. Le 16 août, les sept membres du comité de définition des planètes ont publié un projet de résolution sur la définition des planètes, qui stipule que les objets ronds en orbite autour du soleil sont des planètes. Pluton étant un objet rond en orbite autour du soleil, il était donc une planète. Le problème de cette définition est de donner le même titre à Pluton qu’à Jupiter 250 000 fois plus grand.

 

Cette définition aurait ouvert la porte à l’octroi du statut de planète à au moins trois objets qui avaient, jusqu’à récemment, été considérés comme des non-planètes.
Les astronomes reviennent de leur délibération avec un autre avis. Selon la définition finale, une planète doit être ronde et, aussi dominer la masse de sa zone orbitale.

 

En d’autres termes, une planète ne doit avoir aucun concurrent dans sa zone d’influence. Pluton est encombrée par des milliers d’autres corps glacés dans le système solaire externe, dont certains sont plus gros qu’elle. L’union astronomique internationale a choisi de l’appeler, une planète naine.

 

pluton

 

Longue histoire de Pluton dans notre système solaire

Le terme « planète » n’avait pas été défini précisément depuis la Grèce antique. Le mot désignait un corps « errant » et faisait référence aux sept objets célestes qui se déplaçaient sur un fond d’étoiles. Il s’agit de Mercure, Vénus, Mars, Jupiter, Saturne, le soleil et la lune. Pour les anciens, ces voyageurs célestes ont eu grande influence sur la culture classique, sur les noms des dieux, sur le calendrier et sur la vie culturelle et artistique.


En 1543, Nicolaus Copernic a subitement compliqué les choses en décrivant un nouvel univers héliocentrique. Selon lui, la terre ne reste pas stationnaire au milieu de l’univers, elle se déplace autour du soleil, tout comme les autres corps. À partir de Copernic, le terme planète n’a plus de signification précise. Les astronomes conviennent tacitement de qualifier de planète tout ce qui tourne autour du soleil, et de préserver le terme lune pour tout objet qui tourne autour d’une planète.


Peu après Copernic, on apprend que des comètes gravitent autour du Soleil, et ne sont pas des phénomènes atmosphériques comme pensaient les anciens. Les comètes sont des objets glacés, lancés sur des orbites allongées, qui rejettent une longue queue de gaz en s’approchant du soleil. La question est posée : les comètes sont-elles des planètes ? Est-ce que les morceaux de roche qui gravitent autour du Soleil dans la région située entre Mars et Jupiter sont également des planètes ?

 

Ceres

Cérès


Cérès, le premier de ces objets, a été aperçu par Giuseppi Piazzi en 1801. Tout le monde l’a appelé une planète. Mais avec la découverte de dizaines d’autres, il est devenu évident que cette nouvelle communauté d’objets méritait sa propre classification. Les astronomes les ont appelés astéroïdes et en ont maintenant catalogué des dizaines de milliers.

Plus tard, on découvre que les planètes traditionnelles ne sont pas une famille homogène. Mercure, Vénus, la Terre et Mars forment une famille de planètes relativement petites et rocheuses, Jupiter Saturne Uranus et Neptune sont des planètes de grande taille, gazeuses et ayant de nombreuses lunes munies d’anneaux.


En 1992, David C. Jewitt, de l’université d’Hawaï, et Jane Luu, ont commencé à détecter des objets gelés aux limites du système solaire, au-delà de Neptune. Ils ont découvert une nouvelle bande d’objets semblable à la ceinture d’astéroïdes découverte deux siècles auparavant.


Connue sous le nom de ceinture de Kuiper, en l’honneur de l’astronome américain d’origine néerlandaise Gerard Kuiper, qui en a prédit leur existence, cette région du système solaire contient Pluton, l’un de ses plus grands membres. Pluton est nommé planète depuis sa découverte en 1930. Tous les objets de la ceinture de Kuiper devraient être appelés, aussi planètes ?

 

pluton planete naine

Pluton


Sans définition consensuelle du mot planète, ces questions ont provoqué des années de débats scientifiques. L’univers contenait autrefois sept planètes depuis la découverte d’Uranus en 1781. Ce chiffre passe à 11 après la découverte de quatre planètes entre Mars et Jupiter. Ce chiffre est tombé à sept après avoir classé ces quatre dernières planètes en astéroïdes. Après la découverte de Neptune, en 1846, le système solaire contient 8 planètes.
Après Neptune, découverte de Pluton dans le système solaire.


L’astronome Clyde Tombaugh avait trouvé Pluton grâce à une recherche acharnée d’une planète présente au-delà de Neptune. Tout le monde a d’abord supposé qu’il avait trouvé quelque chose de grand. Les mesures précises ont montré que l’objet est plus petit que ce que l’on pensait au départ, plus petit que la lune de la Terre.


Pendant une semaine, nous eûmes 12 planètes. En prenant le critère d’un corps rond tournant autour du Soleil, Cérès, le seul astéroïde gravitationnellement rond a été gratifié du titre de planète, de même que Charon la lune de Pluton et le corps 2003-UB313, appelée Xena (personnage de la princesse guerrière vêtue de cuir d’une série télévisée.)


Le nombre et les noms des planètes font partie des connaissances scolaires de base. Pour certains élèves, il y a neuf planètes, pour d’autres il y a huit planètes. Dans les classes, on passe de longs moments à mémoriser les noms des planètes, et leur distance par rapport à la terre et au soleil.

 

La vengeance de Pluton


Nous ne serons pas la pour assister à l’avance de la planète naine. Pluton peut être une planète naine, mais elle est considérée comme habitable. Dans quelques millions d’années, Pluton pourrait bien se réchauffer à mesure que le Soleil grossit, pour atteindre une température idéale de 27°. Dans ce cas, la terre sera une planète morte, d’une température élevée incompatible avec la vie. Europe et Titan atteindront une température de 400° à 500°.
Selon ce scénario, la planète naine Pluton deviendra la seule planète habitable dans le système solaire.

 

 

La naissance d’une vérité scientifique


L’histoire du nombre des planètes nous démontre la difficulté à établir une vérité scientifique, cette vérité dépend des définitions et des points de vue.
Si on change de définition, les lunes glacées comme Europe de Jupiter et Encelade de Saturne sont probablement les meilleurs endroits extraterrestres pour trouver de l’eau liquide, ingrédient crucial pour la biologie.
Si on s’intéresse aux systèmes des anneaux, nous trouvons un autre nombre de planètes, de même si on s’intéresse aux champs magnétiques, à la taille, à la masse, à la composition ou à la proximité du Soleil.

 

Jupiters chauds

Jupiters chauds

La découverte des planètes autour d’autres étoiles a mis au jour de nouvelles catégories comme les « Jupiters chauds », ces mondes gazeux géants chauffés à une température proche de l’incandescence par leur étonnante proximité avec leur soleil.


Cette redéfinition du terme planète a entraîné de nombreux commentaires, certains chercheurs pensent qu’il s’agit d’une définition cohérente qui replace Pluton dans la ceinture de Kuiper, d’autres chercheurs pensent qu’il s’agit d’une modification inutile, sans application pratique.
En 2019, la polémique continue. Le directeur de la NASA Jim Bridenstine déclare être convaincu que Pluton est bien une planète, à l’encontre des définitions officielles.


Il n’existe pas de vérité scientifique d’emblée. La vérité scientifique est une progression lente, hésitante, toujours contestée, critiquée et améliorée. Il est difficile de conjuguer la lenteur et la contradiction de la naissance d’une vérité scientifique avec notre époque harcelée par l’immédiateté, et par le refus des nuances.


En septembre 2002, on découvre qu’Uranus, loin de la Terre dans la région la plus sombre du système solaire, n’est pas seul. Il est accompagné d’une suite de 27 lunes. Ces lunes sont difficiles à étudier, mais les astronomes ont fait une découverte accidentelle en observant Uranus.

Selon les images infrarouges des cinq lunes principales d’Uranus, leur composition est plus proche de celle des planètes naines comme Pluton, objets compacts et rocheux avec une croûte glacée. Pluton sera-t-elle un jour considérée comme la lune d’une autre planète ?

L’avenir nous l’apprendra.

Lire la suite
0
  5288 lectures
  0 commentaires
Mots-clés :
5288 lectures
0 commentaires

Deepfake : vidéos truquées par l’intelligence artificielle

deepfake

deepfake

 

 

 

Un Deepfake est une vidéo produite ou modifiée, grâce à l’intelligence artificielle. Le terme désigne le contenu ainsi généré, et les technologies utilisées à cet effet.

Le mot Deepfake est une contraction entre Deep learning (apprentissage en profondeur et » Fake, « faux profond ». Il s’agit de contenus fallacieux, rendus parfaitement crédibles grâce à l’intelligence artificielle qui met en compétition deux algorithmes.

À partir d’images fournies en amont, le premier algorithme cherche à créer de fausses imitations aussi crédibles que possible. Le second algorithme cherche à détecter les faux le plus efficacement possible. Le premier continue à produire de fausses vidéos jusqu’à ce que le second ne puisse plus déceler la supercherie. Il en résulte, au final, des « fakes » suffisamment réalistes pour tromper même les humains.

Plus les données fournies à l’algorithme au début du processus sont nombreuses, plus celui-ci sera capable d’apprendre à créer des faux facilement. C’est la raison pour laquelle les anciens présidents américains et les stars d’Hollywood sont souvent utilisés pour créer des Deepfakes : de nombreuses vidéos d’archives sont en libre accès et peuvent être utilisées pour nourrir les modèles.

 

Pourquoi les deepfakes ?

Les humains ont une tendance à ne croire qu’en leurs propres yeux et oreilles. Lorsque l’illusion est trop belle, il est facile d’être victime d’une supercherie.

Depuis l’antiquité, les humains ont appris à croire ce que leurs sens identifient comme réalité. Au début de la photographie, certains ont eu peur de ce doublement. D’autres discutaient l’âme de la personne imprimée sur papier. Quelques années plus tard, le trucage des photos devient répandu, surtout dans les régimes totalitaires pour modifier ou embellir le réel.

Pendant la première projection cinématographique, l’illusion était si proche de la réalité que les spectateurs ont fui la salle de peur d’être écrasés par le train projeté sur le l’écran.

À l’ère numérique, les yeux et les oreilles ne suffisent plus pour détecter le réel. Le pourcentage de photos retouchées sur internet peut surprendre, de même dans les médias imprimés. La quantité de contrefaçons en ligne continue d’augmenter, la qualité aussi.

Le terme « deepfake » apparaît pour la première fois en 2017 pour décrire les vidéos et les images qui mettent en œuvre des algorithmes d’apprentissage pour créer des vidéos et des images qui semblent réelles.

Le phénomène Deepfakes a commencé en 2017, sur Reddit, lorsqu’un utilisateur s’est amusé à intégrer les visages de célébrités dans des films X. De son côté, la chaîne YouTube Deepfakes s’amuse à modifier des bandes-annonces de films grâce à l’IA.

Plus récemment, une vidéo diffusée sur Instagram montre Mark Zuckerberg, le créateur de Facebook, révéler » toute la vérité » sur son réseau social et sur son intention de contrôler l’humanité.

Un Deepfake hyperréaliste de Nixon rendant hommage à Neil Armstrong tombé au combat est apparu dans un film de 2019, In Event of Moon Disaster. Ce discours du président Nixon n’a jamais existé, tout comme le décès de Neil Armstrong au combat bien sûr.

D’autres dirigeants mondiaux actuels et anciens, tels que John F. Kennedy, Barack Obama et Vladimir Poutine ont fait l’objet de vidéos truquées. Bien que la montée des « deepfakes » ces dernières années ait fait l’objet de discussions dans les médias populaires, la littérature de recherche universitaire sur le sujet reste relativement rare.

Cependant, les chercheurs expriment leur inquiétude au sujet de ces images et vidéos trafiqués, car ils présentent un risque de sécurité, de plus en plus grand dans les années à venir. Un rapport prédit que les images truquées constitueront la menace la plus grave pour la sécurité au cours des 15 prochaines années, parmi toutes les autres technologies utilisant l’IA.

 

deepfake visage

Les risques liés aux Deepfakes ?

Grâce à l’IA, n’importe qui peut créer un Deepfake, même sans compétences techniques particulières en téléchargeant un simple logiciel, et produire un contenu pouvant servir ses intérêts en manipulant l’opinion des spectateurs.

Après les Fake News et leur impact sur les réseaux sociaux, la propagation des Deepfakes sur le web représente une nouvelle menace liée aux technologies.

Cette innovation pourrait être utilisée à des fins de propagande politique ou de criminalité.

Après les hommes politiques, et les personnes médiatisées, les femmes sont le sujet de la majorité des vidéos pornographiques truquées. Les actrices américaines et britanniques, ainsi que les musiciens sont un sujet commun de ces vidéos.

À court terme, ces vidéos truquées peuvent servir à semer la panique en utilisant une fausse vidéo d’alerte à la bombe ou faux sexe tape pour ruiner le couple ou la carrière, ou pour discréditer un candidat électoral, ou à créer une vague de panique économique ou sanitaire.

À long terme, la prolifération de ces vidéos trucages finit par convaincre les utilisateurs et les spectateurs de ne plus faire confiance.

 

Lutter contre les deepfakes

La première réponse est juridique. Dans certains états, comme la Californie, il est illégal de créer ou de distribuer les « deepfakes » pendant les 60 jours avant une élection. Dans d’autres états, la riposte est appliquée selon la nature des deepfakes et selon ses conséquences.

Pour lutter contre les deepfakes, Google vient de publier un vaste ensemble de données constituées de vidéos Deepfake pour apporter du soutien aux chercheurs qui développent des outils de détection contre ces contenus truqués. Les chercheurs pourront utiliser cet ensemble de données pour perfectionner des outils de détection automatisés reposant sur l’IA.

Récemment, Facebook a annoncé les résultats d’un concours où des experts ont construit de nouveaux algorithmes pour détecter les deepfakes. Le gagnant a pu détecter 82 % des médias altérés par l’IA. Dans l’état actuel, la majorité des vidéos truquées sont basées sur l’échange de visages, avec plusieurs degrés de sophistications en changeant la parole, le mouvement des lèvres, ou en jouant avec le gestuel.

 

Deepfake et porno

En 2019, la société Sensity a publié un rapport sur l’état des deepfakes sous le nom de Deeptrace, ils ont détecté 14 678 vidéos en ligne altérées par l’IA. Parmi celles-ci, 96 % étaient utilisées dans des contenus pornographiques.

Malgré la large couverture médiatique des « deepfakes » politiques, les deepfakes pornographiques sont le contenu le plus répandu sur le web. Le rapport de Sensity pour 2019 a révélé que 100 % des contrefaçons pornographiques détectées contenaient des femmes.

Après les hommes politiques, les célébrités, et les stars de l’industrie du divertissement, les faux créateurs ciblent des individus, souvent des femmes, qui mènent une vie active en ligne.

 

 

Lire la suite
0
  2011 lectures
  0 commentaires
2011 lectures
0 commentaires

Coronavirus 2019 (COVID-19) : état de connaissance 21 mars 2020

Coronavirus-barriere

Coronavirus barriere

 

 

 

La gravité de la maladie


Le spectre des symptômes s’étend de léger à grave. La plupart des infections ne sont pas graves.
Dans un rapport chinois sur 44 500 cas, les symptômes suivants étaient présents :
- Une pneumonie légère (pas de pneumonie ou une pneumonie légère) dans 81 % des cas.
- Maladie grave (avec dyspnée, hypoxie ou atteinte pulmonaire > 50 % à l'imagerie dans les 24 à 48 heures) : 14 % des cas.
- Maladies graves (d'insuffisance respiratoire, choc ou de troubles (dysfonctinnement de plusieurs organes) : 5 %.
- Taux global de mortalité : 2,3 % ; aucun décès n'a été signalé chez les personnes sans état critique.

Selon une mission d'enquête conjointe de l'Organisation mondiale de la santé (OMS) et de la Chine, la plupart des cas mortels sont survenus chez des patients d'âge avancé ou présentant des comorbidités médicales (notamment : maladies cardiovasculaires, diabète, maladies pulmonaires chroniques, hypertension et cancer).

 

 

 

Symptômes de COVID-19

Dans une étude décrivant 138 patients atteints de pneumonie COVID-19 à Wuhan, les caractéristiques cliniques les plus courantes au début de la maladie sont :
- Fièvre dans 99 % des cas
- Fatigue à 70 pour cent
- Toux sèche dans 59% des cas
- Anorexie dans 40 % des cas
- Myalgies dans 35 % des cas
- Dyspnée dans 31 % des cas
- Expectoration (Production de crachats) dans 27 % des cas.

 

 

 

Variations de mortalités et des atteintes graves

La proportion d'infections graves varie selon les lieux pour des raisons inconnues.
Les atteintes graves de COVID-19 représentent 12 % en Italie; le taux de létalité est de 5,8 % à la mi-mars. Le taux de mortalité, à la mi-mars, en Corée du Sud est de 0,9 %.
Cette variation peut être liée à des caractéristiques démographiques; en Italie, l'âge médian des patients infectés est de 64 ans, alors qu'en Corée, l'âge médian est de 40 ans.

 

 

 

L’infection et l’âge


Les personnes de tout âge peuvent être infectées par coronavirus, les adultes d'âge moyen et plus âgés sont les plus touchés.

Selon les études, l'âge médian se situe entre 49 et 56 ans. Dans les rapports chinois, 87 % des patients sont âgés de 30 à 79 ans. L'âge avancé est associé à une augmentation de la mortalité, avec un taux de létalité de 8 % chez les personnes âgées de 70 à 79 ans, et de 15 % à l’âge de 80 ans ou plus.

Au États-Unis, 2449 patients sont diagnostiqués avec le COVID-19 depuis début mars. L’âge semble plus jeune qu’en Chine et en Europe, 67 % des patients sont âgés de 45 ans. Comme en Chine, la mortalité est plus élevée chez les personnes âgées, 80 % des décès survenant chez les personnes âgées de 65 ans.

 

 

Soins

En cas de stratégie basée sur des tests, l’isolement du patient peut être arrêté en cas de :
- absence de fièvre sans médicaments, et
- amélioration des symptômes respiratoires, et
- Résultats négatifs d'un test COVID-19 à partir d'au moins deux échantillons consécutifs prélevés à 24 heures d'intervalle.

En cas de stratégie non fondée sur des tests, l’isolement du patient peut être arrêté en cas de :
- au moins sept jours après l'apparition des premiers symptômes, et
- au moins trois jours (72 heures) depuis la guérison des symptômes (absence de fièvre sans médicaments, et amélioration des symptômes respiratoires)

En cas de patients ayant un test positif mais sans symptôme, l’isolement du patient peut être arrêté lorsqu'au moins sept jours se sont écoulés depuis la date de leur premier test cOVID-19 positif.

 

 

 

Les essais thérapeutiques actuellement

1- Remdesivir
Plusieurs essais sont en cours pour évaluer l'efficacité du remdesivir dans les cas de COVID-19 modérés ou graves. Le Remdesivir est utilisé chez les premiers patients atteints de COVID-19 aux États-Unis. L'impact clinique du remdesivir sur la COVID-19 reste inconnu.

2- Chloroquine/hydroxychloroquine
La chloroquine et l'hydroxychloroquine inhibent toutes deux le SRAS-CoV-2 in vitro, l'hydroxychloroquine semble avoir une activité antivirale plus puissante. Un certain nombre d'essais cliniques sont en cours en Chine et en Europe pour évaluer l'utilisation de
chloroquine ou hydroxychloroquine pour COVID-19.

3- Lopinavir-ritonavir
Cet inhibiteur de protéase a été utilisé pour lutter contre l'infection par le VIH. L'utilisation de cet agent pour le traitement du COVID-19 est décrite dans certains cas. Il n'y a pas eu de différence dans le temps nécessaire à l'amélioration clinique ou à la mortalité à 28 jours dans une étude sur 199 patients ayant reçu du Lopinavir-ritonavir (400/100 mg) deux fois par jour pendant 14 jours.

4- Tocilizumab
Le tocilizumab, un inhibiteur de l'IL-6. L'agent est en cours d'évaluation dans un essai clinique.

 

Femmes enceintes et allaitantes


Il n'y a aucune preuve en laboratoire de la transmission du virus au nouveau-né. Des cas d'infection néonatale ont été documentés.

L'approche de la prévention, de l'évaluation, du diagnostic et du traitement des femmes enceintes suspectées de COVID-19 devrait être similaire à celle des personnes non enceintes.

L'accouchement par césarienne est pratiqué selon les indications obstétriques. L'American College of Obstetricians and Gynecologists précise que les enfants nés des mères dont la COVID-19 est confirmée, doivent être considérés comme des patients et doivent être isolés et évalués.

On ignore si le virus peut être transmis par le lait maternel. Le seul rapport de test n'a trouvé aucun virus dans le lait maternel de six patientes.
Ainsi, les mères symptomatiques doivent prendre des précautions pour éviter la transmission au nourrisson pendant l'allaitement. 
Pour réduire au minimum le contact direct, le nourrisson peut être nourri au lait maternel d'une autre personne saine jusqu'à ce que la mère soit rétablie.

 

Références

Bajema KL, Oster AM, McGovern OL, et al. Persons Evaluated for 2019 Novel
Coronavirus - United States, January 2020. MMWR Morb Mortal Wkly Rep 2020; 69:166.

Chen N, Zhou M, Dong X, et al. Epidemiological and clinical characteristics of 99 cases of 2019 novel coronavirus pneumonia in Wuhan, China: a descriptive study. Lancet 2020; 395:507.

Wang D, Hu B, Hu C, et al. Clinical Characteristics of 138 Hospitalized Patients With 2019 Novel Coronavirus-Infected Pneumonia in Wuhan, China. JAMA 2020.

Wu Z, McGoogan JM. Characteristics of and Important Lessons From the Coronavirus Disease 2019 (COVID-19) Outbreak in China: Summary of a Report of 72314 Cases From the Chinese Center for Disease Control and Prevention. JAMA 2020.

Zu F, Yu T, Du R, at al. Clinical course and risk factors for mortality of adult inpatients with COVID-19 in Wuhan, China: a retrospective cohort study. Lancet 2020.

KCDC. Updates on COVID-19 in Korea. March 14, 2020. https://www.cdc.go.kr/board/board.es?mid=a30402000000&bid=0030 (Accessed on March 14, 2020).

Liu W, Zhang Q, Chen J, et al. Detection of Covid-19 in Children in Early January 2020 in Wuhan, China. N Engl J Med 2020.

United States Centers for Disease Control and Prevention. Discontinuation of In-Home is olation for immunocompromised persons with COVID-19 (Interim Guidance). https://www.
cdc.gov/coronavirus/2019-ncov/hcp/ending-isolation.html (Accessed on March 18, 2020).

Wang M, Cao R, Zhang L, et al. Remdesivir and chloroquine effectively inhibit the recently emerged novel coronavirus (2019-nCoV) in vitro. Cell Res 2020; 30:269.84.

Holshue ML, DeBolt C, Lindquist S, et al. First Case of 2019 Novel Coronavirus in the United States. N Engl J Med 2020; 382:929.

Cortegiani A, Ingoglia G, Ippolito M, et al. A systematic review on the efficacy and safety of chloroquine for the treatment of COVID-19. J Crit Care 2020.

Lim J, Jeon S, Shin HY, et al. Case of the Index Patient Who Caused Tertiary Transmission of COVID-19 Infection in Korea: the Application of Lopinavir/Ritonavir for the Treatment of COVID-19 Infected Pneumonia Monitored by Quantitative RT-PCR. J Korean Med Sci 2020; 35:e79.

Wang X, Zhou Z, Zhang J, et al. A case of 2019 Novel Coronavirus in a pregnant woman with preterm delivery. Clin Infect Dis 2020.

European Societyof Hypertension. ESH Statement on COVID-19. https://www.eshonline.org/spotlights/esh-statement-on-covid-19/ (Accessed on March 18, 2020).

 

Lire la suite
0
  2238 lectures
  0 commentaires
Mots-clés :
2238 lectures
0 commentaires

Coronavirus 2019 (COVID-19) : état de connaissance 26 mars 2020

coronavirus-tests

coronavirus tests

 

 

 

Période de contagion

Les études confirment que la charge virale (nombre des virus dans l’organisme) est plus élevée au début de la maladie. Les taux d’ARN viral semblent être plus élevés peu après l’apparition des symptômes [1] ; la transmission peut être plus probable au stade précoce de l’infection.

La durée de l’excrétion virale est variable. Dans une étude portant sur 21 patients atteints d’une maladie légère (sans symptômes respiratoires), 90 % ont eu des tests négatifs sur des prélèvements naso-pharyngés 10 jours après l’apparition des symptômes ; ces Tests ont été positifs plus longtemps chez les patients atteints d’une maladie plus grave [2].

Dans une étude portant sur 137 patients, la durée médiane de l’excrétion de l’ARN viral à partir d’échantillons oropharyngés était de 20 jours (8 à 37 jours) [3].

Les taux de transmission chez un individu présentant une infection symptomatique varient. Selon un rapport conjoint OMS-Chine, le taux de contamination est de 1 à 5 % en Chine. Aux États-Unis, le taux d’attaque secondaire symptomatique était de 0,45 %. [4].

 

Essaies thérapeutiques actuellement

Chloroquine, hydroxychloroquine

La chloroquine et l’hydroxychloroquine inhibaient toutes deux le CoV-2 du SRAS in vitro, bien que l’hydroxychloroquine semble avoir une activité antivirale plus puissante [5].

L’utilisation de la chloroquine est incluse dans les directives de traitement de la Commission nationale chinoise de la santé et aurait été associée à une diminution de la progression de la maladie et de la durée des symptômes [6,7]. Cependant, les données détaillées primaires n’ont pas été publiées [8].

Dans une étude portant sur 36 patients atteints de COVID-19, l’utilisation de l’hydroxychloroquine (200 mg trois fois par jour pendant 10 jours) a été associée à un taux d’ARN indétectable du SRAS-CoV-2 sur des échantillons naso-pharyngés au jour 6 par rapport à l’absence d'un traitement (70 contre 12,5 %) [9]. Dans cette étude, l’utilisation de l’azithromycine en combinaison avec l’hydroxychloroquine a semblé présenter un avantage supplémentaire, mais il existe des questions sur la méthodologie concernant les groupes de contrôle de l’étude, la justification biologique de l’utilisation de l’azithromycine dans ce contexte n’est pas claire.

Malgré les données cliniques limitées, étant donné la sécurité relative de l’utilisation à court terme de l’hydroxychloroquine (avec ou sans azithromycine), et l’activité antivirale confirmée in vitro, certains cliniciens pensent qu’il est raisonnable d’utiliser l’un ou les deux agents chez les patients hospitalisés présentant une infection grave ou un risque d’infection grave.

La possibilité de toxicité du médicament (cardiaque : allongement de l’intervalle QTc témoin de trouble de rythmes cardiaques, toxicité rétinienne) drvrait être envisagée avant d’utiliser l’hydroxychloroquine.

Le dosage optimal est incertain ; divers schémas sont utilisés, notamment 400 mg deux fois par jour le premier jour puis quotidiennement pendant cinq jours, ou 400 mg deux fois par jour le premier jour puis 200 mg deux fois par jour pendant quatre jours, ou 600 mg deux fois par jour le premier jour, puis 400 mg par jour pendant quatre jours [10].

 

 

Dépistage

Le dépistage des patients pour les manifestations cliniques compatibles avec la COVID-19 (par exemple, fièvre, toux, dyspnée) avant l’entrée dans un établissement de santé peut aider à identifier ceux qui peuvent justifier des précautions supplémentaires.

Cela peut être fait par téléphone avant que le patient ne se présente dans un établissement. Il convient de conseiller à toute personne présentant ces manifestations de porter un masque facial. Des zones d’attente séparées pour les patients présentant des symptômes respiratoires doivent être désignées, si possible, à une distance d’au moins un mètre des zones d’attente habituelles.

Les patients symptomatiques doivent être interrogés sur leurs voyages récents ou sur leur exposition potentielle à COVID-19 au cours des 14 jours précédents afin de déterminer la nécessité d’autres évaluations pour COVID-19.

Dans les établissements de soins de longue durée, les centres américains recommandent de prendre des précautions comme éviter le contact et la protection contre les gouttelettes, en plus de la protection des yeux, pour tout patient souffrant d’une infection respiratoire non diagnostiquée [10]. Cela peut contribuer à réduire le risque de propagation des cas non suspects de COVID-19.

 

Désinfection de l’environnement

Pour aider à réduire la propagation du virus COVID-19, des procédures de contrôle des infections doivent également être mises en œuvre [11].

L’importance de la désinfection de l’environnement a été illustrée dans une étude menée à Singapour, dans laquelle de l’ARN viral a été détecté sur presque toutes les surfaces testées (poignées, interrupteurs, lit et escaliers, portes et fenêtres intérieures, cuvette de toilettes, lavabo) dans la chambre d’isolement d’un patient atteint d’une infection légère symptomatique COVID-19 [12].

Il est à noter que la détection d’ARN viral n’indique pas nécessairement la présence d’un virus infectieux.

On ignore combien de temps le CoV-2 du SRAS peut persister sur les surfaces [13] ; d’autres coronavirus ont été testés et peuvent survivre sur des surfaces jusqu’à six à neuf jours sans désinfection. Dans une étude évaluant la survie de virus séchés sur une surface plastique à température ambiante, un échantillon contenant le CoV-SAR (un virus étroitement apparenté au CoV-SAR-2) avait une infectiosité détectable à six jours, mais pas à neuf jours [13].

 

Transmission

Une lettre de recherche du 17 mars publiée dans le New England Journal of Medicine a rapporté des expériences dans lesquelles SARS-CoV-2 a été artificiellement aérosolisé (Dispersion de virus dans un gaz) en utilisant des appareils à tambour rotatif.

Les chercheurs ont pu démontrer que le virus aérosolisé artificiellement est resté viable et infectieux pendant trois heures, et qu’il est « plausible » que, si quelque chose provoque l’aérosolisation du virus en dehors du laboratoire, cela pourrait être un autre mode de transmission pour COVID-19.

Les chercheurs n’ont pas prétendu que la toux ou les éternuements provoquaient une aérosolisation du virus ni que le virus pouvait rester en suspension dans l’air pendant trois heures. Certains rapports des médias semblent avoir donné l’impression que le SARS-CoV-2 "flotte dans l’air". 

Cette étude a démontré que le SRAS-CoV-2 peut rester infectieux pendant des heures dans un aérosol (dans des conditions de laboratoire).

« Nous avons constaté que la stabilité du SARS-CoV-2 était similaire à celle du SARS-CoV-1 dans les circonstances expérimentales. Cela indique que les différences dans les caractéristiques épidémiologiques de ces virus proviennent d’autres facteurs, y compris des charges virales élevées dans les voies respiratoires supérieures et le potentiel pour les personnes infectées par le SRAS-CoV-2 de se débarrasser et de transmettre le virus tout en étant asymptomatique. »

Cette étude va dans le même sens des autres études, le COVID-19 ne se répand pas par voie aérienne.

À l’heure actuelle, il ne semble pas y avoir de preuve de transmission aéroportée.

La transmission de COVID-19 via des gouttelettes, ou indirectement par contact avec des surfaces contaminées doit rester au centre des efforts de lutte contre la contamination dans l'état actuel de connaissance.

 

RÉFÉRENCES

1— Zou L, Ruan F, Huang M, et al. SARS-CoV-2 Viral Load in Upper Respiratory Specimens of Infected Patients. N Engl J Med 2020.

2— Liu Y, Yan LM, Wan L, et al. Viral dynamics in mild and severe cases of COVID-19. Lancet Infect Dis 2020.

3— Zhou F, Yu T, Du R, et al. Clinical course and risk factors for mortality of adult inpatients with COVID-19 in Wuhan, China: a retrospective cohort study. Lancet 2020.

4— Kakimoto K, Kamiya H, Yamagishi T, et al. Initial Investigation of Transmission of COVID-19 Among Crew Members During Quarantine of a Cruise Ship - Yokohama, Japan, February 2020. MMWR Morb Mortal Wkly Rep 2020; 69:312.

5— Yao X, Ye F, Zhang M, et al. In Vitro Antiviral Activity and Projection of Optimized Dosing of Hydroxychloroquine for the Treatment of Severe Acute Respiratory Syndrome Coronavirus 2 (SARS-CoV-2). Clin Infect Dis 2020.

6— Gao J, Tian Z, Yang X. Breakthrough : Chloroquine phosphate has shown apparent efficacy in treatment of COVID-19 associated pneumonia in clinical studies. Biosci Trends 2020 ; 14:72.

7— Colson P, Rolain JM, Lagier JC, et al. Chloroquine and hydroxychloroquine as available weapons to fight COVID-19. Int J Antimicrob Agents 2020; : 105932.

8- Cortegiani A, Ingoglia G, Ippolito M, et al. A systematic review on the efficacy and safety of chloroquine for the treatment of COVID-19. J Crit Care 2020.

9- Gautret et al. (2020) Hydroxychloroquine and azithromycin as a treatment of COVID-19: resu lts of an open-label non-randomized clinical trial. International Journal of Antimicrobial Agent s – In Press 17 March 2020

10- CDC. Therapeutic options for patients with COVID-19. https://www.cdc.gov/coronavirus/2019-ncov/hcp/therapeutic-options.html (Accessed on March 22, 2020).

11- Kampf G, Todt D, Pfaender S, Steinmann E. Persistence of coronaviruses on inanimate surfaces and their inactivation with biocidal agents. J Hosp Infect 2020; 104:246.

12- Ong SWX, Tan YK, Chia PY, et al. Air, Surface Environmental, and Personal Protective Equipment Contamination by Severe Acute Respiratory Syndrome Coronavirus 2 (SARS- CoV-2) From a Symptomatic Patient. JAMA 2020.

13- Rabenau HF, Cinatl J, Morgenstern B, et al. Stability and inactivation of SARS coronavirus. Med Microbiol Immunol 2005; 194:1.

 

 

Lire la suite
0
  1939 lectures
  0 commentaires
Mots-clés :
1939 lectures
0 commentaires

Pourquoi le coronavirus est si dangereux ?

coronavirus-modelaisation-courbes

coronavirus modelaisation courbes

 

 

 

 

La question est légitime, pourquoi le Covid -19, avec un taux de mortalité de 1 à 2 % est capable de confiner les populations et bloquer la vie économie et sociale des pays prospères et bien organisés ?


Faut-il tout arrêter pour un virus dont la moralité demeure faible? S’agit-il d’une exagération, d’une réaction excessive, d’un prétexte pour manipulation?
Les médecins exagèrent-ils et complotent pour effrayer la population ?
Comment comprendre l’avertissement de l’Organisation mondiale de la santé (OMS),

 

« aucun système de santé au monde n’est capable de faire face aux conséquences de coronavirus ».

 

 

 

Danger du coronavirus : plus que la mortalité


Les études confirment que les médecins n’exagèrent pas. Les modèles et les chiffres ne mentent pas. Ce virus peut conduire à l’effondrement et à la désorganisation de nos systèmes de santé avec un risque intolérable pour les patients, non seulement ceux atteints par le coronavirus, mais pour tous les patients.

La propagation du virus Corona est rapide. La personne infectée transmet l’infection en moyenne à deux ou trois personnes. Une étude récente a montré qu’il peut rester trois heures dans l’air. Trois heures pendant lesquelles, ce virus est capable de provoquer de nouvelles infections.


Sa période d’incubation est longue, de quatre à cinq jours, pendant laquelle l’infection et la transmission de l’infection à une autre personne sont possibles. Le virus peut être plus contagieux au début de la maladie, car la charge virale est plus élevée.
Les données indiquent que 80 % des patients ne présentent aucun symptôme ou des symptômes minimes, 20 % ont besoin d’être hospitalisés, 5 % d’entre dans une phase critique et 1 à 2 % risquent de mourir

 

 

 

Comprendre la modélisation : noyade en vue


Le Coronavirus est capable de paralyser, de désorganiser n’importe quel système de santé en inondant les établissements de soins par une grande quantité de patients en peu de temps, sous forme des vagues de patients qui peuvent être sauvés à condition d’avoir les moyens et les personnes disponibles.
Selon les règles internationales, la capacité d’un système de santé se mesure par le nombre de lits pour 1000 habitants. Par exemple, en France comme en Allemagne, et l’Italie du Nord, on compte huit lits pour mille personnes.
Il s’agit d’un standard élevé. La moyenne en Amérique latine est de deux lits pour mille personnes. Dans d’autres pays, ce chiffre peut être inférieur.
Un autre critère est le nombre de lits de soins intensifs pour 100 000 habitants, des lits équipés pour les cas critiques comme les respirateurs artificiels (ventilation mécanique).
En France comme en Allemagne, on compte 29 à 30 lits de soins intensifs par 100 000 habitants, dans certains pays européens, on compte 4 lits.

60 à 70 % des lits sont occupée par des patients de chirurgies, de cancer, d’accidents de la circulation et de maladies chroniques. Les lits de soins intensifs disponibles dépassent rarement le 40 %.

Pour comprendre la modélisation qui inquiète les médecins, prenons un exemple.
Dans une ville de mille habitants, on compte huit lits, dont cinq occupés par des patients atteints de cancer, de diabète, ou d’autres maladies chroniques. Trois lits sont toujours disponibles.
Le premier jour, un patient infecté par le coronavirus arrive en ville. Vingt jours plus tard, le nombre dépassera 100 cas. 20 patients ont besoin d’être hospitalisés, seuls trois lits sont disponibles. 17 patients peuvent mourir sans hospitalisation. Plus de place pour les patients atteints de cancer et d’accidents, leur mortalité sera élevée aussi.
La pression sera forte sur les médecins et les soignants, ils seront épuisés, un pourcentage d’entre eux développera la maladie, et la situation s’aggravera.
Ces modèles démontrent que les décès par coronavirus ne se limitent pas aux décès par le virus, mais comprennent les décès de personnes atteintes d’autres maladies qui n’ont pas pu être soignés à l’hôpital, car il y a une pénurie de médecins et de services.
Notre exemple est une simplification des modèles présents sur cette épidémie. Les épidémiologistes comme les médecins craignent que le système de santé soit noyé et dépassé par un grand nombre de patients. Dans ces scénarios, bien de personnes mourront parce qu’il n’y aura pas assez de lits et de soins, ou de respirateurs artificiels disponibles.

 

 

Les solutions possibles


Deux solutions possibles : aplatir la courbe et augmenter le nombre des lits.
La solution est de prévenir les vagues des patients qui peuvent noyer les services de santé en prenant des mesures préventives : empêcher les rassemblements, la séparation sociale, fermeture des écoles et des universités, des lieux de culte, des centres commerciaux, annulation des fêtes, annulation des rassemblements de groupe, le travail à domicile et le confinement généralisé.
Les épidémiologistes appellent cette stratégie « aplatissement de la courbe », c’est-à-dire réduire l’augmentation spectaculaire du nombre de cas afin que le système de santé puisse les soigner.
En aplatissant la courbe, le système de santé peut prendre en charge les personnes de manière adéquate, évitant ainsi ce qui s’est passé en Italie, par exemple.
Le deuxième point : augmenter le nombre des lits disponibles.

Cette méthode explique le succès de la Chine. Aplatir la courbe par des procédures qui empêcher la circulation du virus et augmenter le nombre de lits en construisant des hôpitaux temporaires.

La méthode est efficace, la Chine ayant annoncé jeudi qu’elle n’avait enregistré aucune nouvelle source locale de virus au cours des dernières 24 heures.
Aujourd’hui, la France suit la même méthode : confinement, construction d’un premier hôpital temporaire dans le grand est, rendre les lits hospitaliers disponibles. Il en va de même pour l’Allemagne, où l’État de Berlin a annoncé son intention de créer un hôpital pour traiter les personnes infectées par le coronavirus.


Le problème de cette stratégie adoptée par la chine, la France, l’Italie, la Corée et d’autres pays est dans la durée de son efficacité.


Que se passe-t-il à fin des restrictions ? L’épidémie risque de resurgir ou l’immunité collective devient efficace ?
Personne n’a la réponse à cette question pour le moment, la chine sera le premier pays à affronter cette phase du problème.

 

 

Références
Kandel N, Chungong S, Omaar A , Xing J : Health security capacities in the context of COVID-19 outbreak: an analysis of International Health Regulations annual report data from 182 countries. Lancet. 2020 ; (online March 18.)
Ying Liu, Albert A Gayle, Annelies Wilder-Smith, Joacim Rocklöv. The reproductive number of COVID-19 is higher compared to SARS coronavirus. Journal of Travel Medicine, 2020
Joseph T Wu, Kathy Leung, Gabriel M Leung. Nowcasting and forecasting the potential domestic and international spread of the 2019-nCoV outbreak originating in Wuhan, China: a modelling study. The Lancet, Jan. 31, 2020

 

 

 

Lire la suite
0
  1924 lectures
  0 commentaires
Mots-clés :
1924 lectures
0 commentaires

Coronavirus 2019 (COVID-19) : état de connaissance 17 mars 2020

Coronavirus-microscope-electronique

 Coronavirus microscope electronique

 

 

 

 

Transmission


On pense que la propagation de personne à personne du coronavirus 2 du syndrome respiratoire aigu sévère (SRAS-CoV-2) se fait par l’intermédiaire de gouttelettes respiratoires, ce qui ressemble à la propagation de la grippe.

Dans le cas de la transmission par gouttelettes, le virus libéré dans les sécrétions respiratoires lorsqu’une personne infectée tousse, éternue ou parle peut infecter une autre personne s’il entre en contact direct avec les muqueuses ; l’infection peut se produire si une personne touche une surface infectée puis se touche les yeux, le nez ou la bouche.

Les gouttelettes ne se déplacent généralement pas à plus de 1 à 2 mètres. Étant donné l’incertitude actuelle concernant les mécanismes de transmission, des précautions sont recommandées de manière routinière dans les pays touchés.

Les taux d’ARN viral sont plus élevés peu après l’apparition des symptômes que durant la maladie ; cela soulève la possibilité que la transmission soit plus probable au stade précoce de l’infection, des données supplémentaires sont nécessaires pour confirmer cette hypothèse.

La transmission du SRAS-CoV-2 par des individus asymptomatiques (ou des individus en période d’incubation) a décrite. Cependant, on ne sait pas encore dans quelle mesure cela se produit

 

 

 

Virologie


Dans une analyse de 103 souches de SRAS-CoV-2 provenant de Chine, deux types différents de SRAS-CoV-2 ont été identifiés, désignés type L (représentant 70 % des souches) et type S (représentant 30 %). Le type L prédominait pendant les premiers jours de l’épidémie en Chine, mais représentait une proportion plus faible de souches en dehors de Wuhan qu’à Wuhan. Les implications cliniques de ces résultats sont incertaines.

 

 

 

Tranche d’âge


Les personnes de tout âge peuvent contracter une infection par le coronavirus 2 du syndrome respiratoire aigu sévère (SRAS-CoV-2), bien que les adultes d’âge moyen et les plus âgés soient les plus souvent touchés.

L’infection symptomatique chez les enfants semble être peu fréquente ; lorsqu’elle se produit, elle est généralement bénigne.

Des infections asymptomatiques chez les adultes ont également été décrites, mais leur fréquence est inconnue.

Lors d’une épidémie de COVID-19 sur un bateau de croisière où tous les passagers et le personnel ont été soumis à un dépistage du SRAS-CoV-2, environ 17 % de la population à bord s’est révélée positive ; la moitié des 619 cas confirmés de COVID-19 étaient asymptomatiques au moment du diagnostic.

 

 

 

Présentation clinique


La pneumonie semble être la manifestation grave la plus fréquente de l’infection. Il n’existe pas encore de caractéristiques cliniques spécifiques permettant de distinguer de manière fiable la COVID-19 des autres infections respiratoires virales.

Dans une étude, la fièvre a été signalée chez presque tous les patients, mais environ 20 % d’entre eux avaient une fièvre de très faible intensité 38 °C. Dans une autre étude la fièvre (définie comme une température axillaire supérieure à 37,5 °C)n’était présente que chez 44 pour cent des patients lors de leur admission.

Selon l’OMS, le temps de guérison semble être d’environ deux semaines pour les infections légères et de trois à six semaines pour les maladies graves .

 

 

 

Les soins à domicile


La gestion à domicile est appropriée pour les patients atteints d’une infection légère qui peuvent être isolés de manière adéquate dans un cadre ambulatoire. La prise en charge de ces patients doit se concentrer sur la prévention de la transmission à d’autres personnes et sur la surveillance de la détérioration clinique, ce qui devrait entraîner une hospitalisation.

Les patients doivent rester à la maison et essayer de se séparer des autres personnes et des animaux de la maison. Ils doivent porter un masque facial lorsqu’ils se trouvent dans la même pièce [ou le même véhicule] que les autres personnes et lorsqu’ils se présentent dans un établissement de soins.

 

 

 

Guérison et fin des précautions


La décision d’abandonner les précautions de lutte contre les infections pour les patients atteints de COVID-19 doit être prise au cas par cas en consultation avec les experts en prévention et en lutte contre les infections et les responsables de la santé publique.

Les facteurs à prendre en compte pour cette décision sont notamment la résolution des signes et symptômes cliniques et les résultats négatifs des tests PCR pour le coronavirus 2.

Des tests PCR positifs pour le SRAS-CoV-2 ont été signalés chez quatre patients COVID-19 confirmés en laboratoire après qu'ils une nette amélioration clinique et après deux tests négatifs consécutifs . La signification clinique de cette découverte est incertaine, on ignore si ces personnes ont continué à excréter le virus infectieux. L'immunité après guérison n'est pas encore comprise.

 

 

 

 

Virus sur les objets et les surface


On ignore combien de temps le SRAS-CoV-2 peut persister sur les surfaces ; d'autres coronavirus ont été testés et peuvent survivre sur des surfaces inanimées jusqu'à six à neuf jours sans désinfection. Dans une étude évaluant la survie de virus séchés sur une surface plastique à température ambiante, un échantillon contenant le CoV-SAR (un virus étroitement apparenté au CoV-SAR-2) avait une infectiosité détectable à six jours, mais pas à neuf jours. Divers désinfectants (dont l'éthanol à des concentrations comprises entre 62 et 71 % ont inactivé un certain nombre de coronavirus liés au CoV-2 du SRAS en une minute.

 

RÉFÉRENCES

Zou L, Ruan F, Huang M, et al. SARS-CoV-2 Viral Load in Upper Respiratory Specimens of Infected Patients. N Engl J Med 2020.

Wang W, Xu Y, Gao R, et al. Detection of SARS-CoV-2 in Different Types of Clinical Specimens. JAMA 2020.

Lu R, Zhao X, Li J, et al. Genomic characterisation and epidemiology of 2019 novel coronavirus: implications for virus origins and receptor binding. Lancet 2020; 395:565.

Li Q, Guan X, Wu P, et al. Early Transmission Dynamics in Wuhan, China, of Novel Coronavirus-Infected Pneumonia. N Engl J Med 2020.

Cai J, Xu J, Lin D, et al. A Case Series of children with 2019 novel coronavirus infection: clinical and epidemiological features. Clin Infect Dis 2020.

Japanese National Institute of Infectious Diseases. Field Briefing: Diamond Princess COV ID-19 Cases, 20 Feb Update. https://www.niid.go.jp/niid/en/2019-ncov-e/9417-covid-dp-fe-02.html (March 01, 2020).

 Patel A, Jernigan DB, 2019-nCoV CDC Response Team. Initial Public Health Response and Interim Clinical Guidance for the 2019 Novel Coronavirus Outbreak - United States,
December 31, 2019-February 4, 2020. MMWR Morb Mortal Wkly Rep 2020; 69:140.

 Young BE, Ong SWX, Kalimuddin S, et al. Epidemiologic Features and Clinical Course of Patients Infected With SARS-CoV-2 in Singapore. JAMA 2020.

Lire la suite
0
  2126 lectures
  0 commentaires
Mots-clés :
2126 lectures
0 commentaires

Coronavirus 2019 (COVID-19), état des connaissances

coronavirus2019

coronavirus2019

 

 

 

Covid -19 est une maladie infectieuse causée par le coronavirus récemment découvert.
Les coronavirus sont des agents pathogènes virus ARN qui peuvent affecter l’homme et l’animal. Certains coronavirus provoquent chez les humains des infections respiratoires allant du rhume à des maladies plus graves telles que le syndrome respiratoire du Moyen-Orient (transmis par les chameaux) et le syndrome respiratoire aigu sévère (SRAS) transmis par les chauves-souris.


Fin 2019, un nouveau coronavirus a été identifié comme l’agent pathogène des cas de pneumonie à Wuhan, une ville de la province chinoise d’Hubei.
Cette infection rapidement propagée se transforma en une épidémie dans toute la Chine, avec des cas sporadiques signalés dans le monde entier.


En février 2020, l’Organisation mondiale de la santé a désigné la maladie COVID-19, qui signifie maladie à coronavirus 2019. Le virus qui provoque le COVID-19 est appelé coronavirus 2 du syndrome respiratoire aigu sévère (SRAS-CoV-2).

 

 

L’état actuel de l’épidémie

Depuis les premiers cas de Wuhan, une ville du Hubei.  En Chine à la fin de 2019, plus de 80 000 cas de COVID-19 ont été signalés ; des cas confirmés après analyse, et des cas diagnostiqués cliniquement sans analyse.

L’Organisation mondiale de la santé (OMS) estime que l’épidémie en Chine a atteint son point culminant entre fin janvier et début février 2020. Le nombre de cas en Chine continue d’augmenter ; la majorité des rapports proviennent du Hubei et des provinces environnantes, mais de nombreux cas ont été signalés dans d’autres provinces Chinoises.

Un nombre croissant de cas a été signalé dans d’autres pays sur tous les continents, à l’exception de l’Antarctique. Le nombre de nouveaux cas en dehors de la Chine a dépassé celui de la Chine. Ces cas se sont d’abord produits parmi les voyageurs en Chine puis par ceux en contact avec les voyageurs. La transmission locale continue à provoquer des épidémies moins importantes dans certaines régions en dehors de la Chine : Corée du Sud, Italie, Iran et Japon. A ce jour, plusieurs centaines de cas sont confirmés et déclarés en France.

 

 

Transmission du coronavirus 2019 (COVID-19)

On pense que la propagation de personne à personne se fait par les gouttelettes respiratoires, comme la grippe. Compte tenu de l’incertitude actuelle, des précautions sont recommandées selon les pays et selon les risques possibles.

Une enquête épidémiologique menée à Wuhan a permis d’identifier une première association entre un marché de fruits de mer et le début de la maladie. Ce marché de fruits de mer vendait des lapins, des serpents et d’autres animaux vivants.

L’ARN viral était trouvé dans les échantillons respiratoires de patients exposés, mais sans symptômes. La transmission du virus COVID-19 à partir d’individus asymptomatiques (ou d’individus en période d’incubation) a été décrite.

L’ARN du virus COVID-19 a été détecté dans des échantillons de sang et de selles, mais on ne sait pas si ces échantillons contiennent un virus infectieux ou inactif.

 

 

Virologie du coronavirus 2019

Le séquençage du génome complet et ses analyses ont indiqué que le coronavirus COVID-19 est un bêtacoronavirus du même genre que le virus du syndrome respiratoire aigu sévère (SRAS), et de plusieurs coronavirus des chauve-souris. Ce virus possède un récepteur similaire à celui du coronavirus du SRAS. On ne sait pas si le virus utilise le même récepteur pour entrer dans les cellules.

Le virus à l’origine de la maladie de Covid -19 et celui du syndrome respiratoire aigu sévère (SRAS) ont un lien génétique, mais ils sont différents. Le SRAS est plus mortel, mais il est beaucoup moins contagieux que Covid -19. Le SRAS ne s’est propagé nulle part dans le monde depuis 2003.

Le virus du syndrome respiratoire du Moyen-Orient (MERS), un autre bêtacoronavirus, semble différent du COVID-19. Ce virus ressemble plutôt aux coronavirus des chauves-souris. Il est probable que les chauves-souris soient la source principale. On ignore si le virus COVID-19 est transmis directement par les chauves-souris ou par un autre mécanisme.

 

 

 

Possibilité de mutation coronavirus 2019

Il y a toujours la possibilité de mutation selon les expériences acquises tout au long de l’histoire de la lutte contre les virus. Ces mutations sont apparues dans plusieurs virus, dont les plus célèbres sont la grippe. Il est impossible de déterminer comment, quand et où la mutation se produit. L’OMS se concentre sur l’importance de la préparation, la capacité des infrastructures dans différents pays pour réagir rapidement et répondre à toute épidémie ou mutation virale.

 

 

Coronavirus 2019 et corps humain

Le virus se dirige vers les poumons, et affecte deux groupes spécifiques de cellules dans les poumons, les cellules caliciformes, et les cellules ciliées.

Les cellules caliciformes produisent le mucus qui forme une couche hydratante sur les voies respiratoires.

Les cellules ciliaires sont des cellules avec des cils qui luttent contre les germes et les virus.

Le virus Corona infecte ces deux groupes de cellules et commence à les détruire. C’est la pneumonie.

Le système immunitaire du corps essaie de répondre, ce qui peut entraîner une réaction inflammatoire et un œdème, et endommager les tissus sains du poumon.

 

 

Symptômes et aspects cliniques du Covid -19

Les symptômes les plus courants de la maladie du Covid -19 sont la fièvre, la fatigue et la toux sèche. Certains patients peuvent ressentir douleur et courbatures, congestion nasale, rhume, mal de gorge ou diarrhée. Ces symptômes sont généralement légers et progressifs. Certaines personnes sont infectées sans symptômes. La plupart des gens (environ 80 %) se remettent de la maladie sans avoir besoin d’un traitement spécial.

La gravité de la maladie s’intensifie chez une personne sur 6 qui développe une infection à Covid -19, souffre de difficultés respiratoires.

Le risque pour les personnes âgées et les personnes souffrant de problèmes médicaux tels que l’hypertension artérielle, les maladies cardiaques ou le diabète, est grave. Environ 2 % des personnes qui ont contracté la maladie sont décédées. Les personnes souffrant de fièvre, de toux et de difficultés respiratoires doivent consulter.

Période d’incubation : On pense que la période d’incubation du COVID-19 se situe dans les 14 jours suivant l’exposition, la plupart des cas survenant environ cinq jours après l’exposition.

L’apparition de la fièvre et des symptômes respiratoires survient trois à six jours après l’exposition. Dans une autre étude, la période d’incubation moyenne estimée est de cinq jours.

La pneumonie est la manifestation grave la plus fréquente de l’infection, caractérisée par fièvre, toux, dyspnée (difficulté de respirer) avec images d’infiltrats bilatéraux sur les examens radiologiques.


Dans un rapport du Centre chinois pour le contrôle et la prévention des maladies, 81 % des cas étaient bénins (pas de pneumonie ou pneumonie légère), 14 % étaient graves (dyspnée, hypoxie ou manque d’oxygène dans l’organisme, ou atteinte pulmonaire confirmée par la radio dans les 24 à 48 heures, et 5 % étaient critiques [insuffisance respiratoire, choc ou dysfonctionnement de plusieurs organes].

Le taux de mortalité est de 2,3 % ; aucun décès n’a été signalé parmi les cas non critiques. Selon une mission de l’OMS, le taux de mortalité variait de 2 à 4 % à Wuhan et 0,7 % dans le reste de la Chine. La plupart des cas mortels sont survenus chez des patients d’âge avancé ou souffrant d’autres maladies.

En plus des symptômes respiratoires, des symptômes gastro-intestinaux [nausées et diarrhées] ont été signalés.

Lors de l épidémie du COVID-19 sur un bateau de croisière où presque tous les passagers et le personnel ont été dépistés. 17 % ont été positifs au 20 février ; la moitié des 619 cas confirmés du COVID-19 étaient asymptomatiques au moment du diagnostic.

Les examens biologiques [analyse de sang] montrent un nombre variable de globules blancs : Leucopénie [baisse de cellules polynucléaires], de leucocytose [augmentation de cellules polynucléaires] et de lymphopénie [baisse de cellules lymphocytaires].

Selon l’OMS, le temps de guérison est de deux semaines pour les infections légères et de trois à six semaines pour les maladies graves.

Dans une étude décrivant 138 patients atteints de pneumonie COVID-19 à Wuhan, l’âge médian était de 56 ans, 99 % ont déclaré de la fièvre, 59 % ont eu une toux sèche et 35 % ont eu des myalgies [douleurs musculaires]. La dyspnée s’est développée dans 31 % des cas après une période de cinq jours de maladie.

Le syndrome de détresse respiratoire aiguë s’est développé dans 20 % des cas, et la ventilation mécanique était indispensable dans 12,3 % des cas.

Dans une étude portant sur 62 patients atteints du COVID-19 dans la province chinoise du Zhejiang, tous sauf un souffraient de pneumonie, deux seulement ont développé une dyspnée, et un seul a nécessité une ventilation mécanique.

 

 

Diagnostic du coronavirus 2019


L’approche de la prise en charge doit être axée sur la reconnaissance précoce des cas suspects, l’isolement immédiat et l’instauration de mesures de lutte contre l’infection.

Dans l’état actuel de l’épidémie, la possibilité de COVID-19 devrait être envisagée chez les patients présentant de la fièvre ou des symptômes des voies respiratoires et qui ont :
— résidé [durant les 14 derniers jours] ou voyagé dans des zones où la transmission a été signalée : Chine, Corée du Sud, Italie, Iran, Japon.

— eu récemment [durant les 14 derniers jours] un contact étroit avec un cas confirmé ou suspecté de COVID-19.

La possibilité de COVID-19 doit être envisagée en cas d’une maladie grave des voies respiratoires lorsqu’une autre étiologie [ou cause] ne peut être identifiée.

En cas de suspicion de COVID-19, des mesures de lutte contre l’infection doivent être mises en œuvre.

Dans l’état actuel, le diagnostic ne peut être confirmé par une analyse de sang, mais par une analyse des échantillons des voies respiratoires.
On conseille de prélever des échantillons pour tester le CoV-2 du SRAS dans les voies respiratoires supérieures [écouvillon naso-pharyngé et oropharyngé] et dans les voies respiratoires [crachats, aspiration ou lavage broncho-alvéolaire].
Des échantillons supplémentaires [selles, urine, etc.] peuvent être collectés. Le prélèvement d’échantillons respiratoires doit être effectué en prenant des précautions contre la contamination par l’air.

L’ARN du SRAS-CoV-2 est détecté par PCR [réaction en chaîne de la polymérase]. Un test positif confirme le diagnostic. Si le test initial est négatif, mais que la suspicion de COVID-19 persiste, l’OMS recommande de faire un deuxième échantillonnage et des tests sur plusieurs sites des voies respiratoires.

 

 

 

Traitement du coronavirus 2019


À ce jour, il n’existe ni vaccin ni médicament antiviral spécifique pour prévenir ou traiter la maladie du Covid -2019.

La prise en charge du COVID-19 consiste à assurer un contrôle de l’infection, et des soins symptomatiques pour lutter contre la fièvre, et le syndrome de détresse respiratoire aiguë.

L’OMS recommande de ne pas utiliser la cortisone et ses dérivées chez les patients atteints de pneumonie COVID-19, sauf en cas d’autres indications.

Plusieurs essais évaluent l’efficacité de certains médicaments comme le Remdesivir, ou l’inhibiteur de protéase combiné lopinavir-ritonavir, utilisé pour le traitement de l’infection par le VIH. L’efficacité est en cours d’évaluation.

Les soins à domicile sont appropriés pour les patients atteints d’une infection légère qui peuvent être isolés, de manière adéquate dans un cadre ambulatoire.

La prise en charge de ces patients devrait se concentrer sur la prévention de la transmission et sur la surveillance de l’état des patients.

 

 

 

Prévention du coronavirus 2019

 


Concernent les soignants :
Le contrôle de l’infection dans le corps soignant est essentiel. En Chine, on a estimé que dans certains groupes, 43 % des patients avaient contracté l’infection en milieu hospitalier.

Il faut conseiller aux soignants soupçonnés d’être infectés de porter un masque médical pour contenir leurs sécrétions respiratoires et de consulter.

L’OMS recommande des précautions standard, contre le contact, et contre les gouttelettes, avec protection des yeux ou du visage. Une précaution supplémentaire est justifiée en cas d’intervention risquée comme intubation trachéale, ventilation, trachéotomie, réanimation cardio-pulmonaire et bronchoscopie.

Si une chambre d’isolement [une chambre à pression négative] n’est pas accessible, le patient doit porter un masque et être placé dans une chambre privée dont la porte est fermée. Les patients, dont le COVID-19 est suspecté ou confirmé, et qui nécessite une hospitalisation, doivent être pris en charge dans un établissement équipé.

La décision d’abandonner les précautions de lutte contre les infections doit être prise en cas de disparition des symptômes cliniques et en cas de tests négatifs.

 

 

Prévention de la population
Les gens peuvent être infectés par la maladie du Covid -19 par d’autres personnes qui ont le virus. La maladie peut être transmise d’une personne à l’autre par de petites gouttelettes dispersées par le nez ou la bouche lorsque la personne atteinte de Covid -19, tousse. Ces gouttelettes tombent sur les objets et les surfaces entourant la personne. D’autres personnes peuvent développer la maladie du Covid -19 lorsqu’elles entrent en contact avec ces objets ou surfaces et touchent ensuite leurs yeux, leur nez ou leur bouche. Les gens peuvent également contracter la maladie du Covid -19 s’ils respirent des gouttelettes qui sortent de la personne atteinte de la maladie en toussant ou en expirant. Il est donc important de rester à l’écart du malade de plus d’un mètre.

Les études menées à ce jour indiquent que le virus se transmet principalement par contact avec des gouttelettes respiratoires plutôt que par voie aérienne.

Il est possible d’attraper la maladie du Covid -19 par une personne qui souffre d’une toux légère et qui ne se sent pas mal.

Le risque de transmission de cette maladie Covid -19 par les selles d’une personne infectée est limité. La propagation par cette voie n’est pas une caractéristique majeure de l’épidémie.

L’OMS conseille des mesures générales pour réduire la transmission de l’infection : le lavage des mains, l’hygiène respiratoire [couvrir sa toux], éviter tout contact étroit avec les autres, et éviter tout contact avec des animaux vivants ou morts.

Les personnes ne présentant pas de symptômes respiratoires, le port d’un masque médical n’est pas obligatoire, même si le COVID-19 est répandu dans la région ; le port d’un masque ne diminue pas l’importance des autres mesures.

Les personnes qui s’occupent de patients à domicile doivent porter un masque médical bien ajusté lorsqu’elles se trouvent dans la chambre du patient.

 

 

Mesures de santé publique mondiale
Le 30 janvier 2020, l’OMS a déclaré que l’épidémie de COVID-19 était une urgence de santé publique internationale.
l’OMS a indiqué trois priorités pour les pays : protéger les soignants, inciter à protéger les personnes âgées et les malades chroniques et aider les pays vulnérables.

L’OMS ne recommande pas de restrictions aux voyages internationaux, mais reconnaît que la restriction des déplacements peut être temporairement utile dans certains contextes.
L’OMS conseille aux voyageurs en provenance de zones où la transmission du virus COVID-19 est en cours de se soumettre à un contrôle médical en cas de fièvre, ou de toux.

En Allemagne, 114 voyageurs revenant de Wuhan ont été considérés comme asymptomatiques lors du contrôle d’entrée, mais deux d’entre eux ont été testés positifs au virus COVID-19 par PCR. Le rôle des patients asymptomatiques dans la transmission de l’infection à d’autres personnes, et l’intérêt des tests PCR sur les personnes asymptomatiques reste incertain.

 

 

Prévention individuelle du Covid -19


Lorsque vous visitez des marchés d’animaux vivants, évitez tout contact direct avec les animaux et les surfaces en contact avec les animaux.

Assurez-vous de suivre les bonnes pratiques de sécurité alimentaire en évitant les éléments crus ou suspects.

Lavez-vous régulièrement les mains régulièrement en les frottant avec un désinfectant à l’alcool ou en les lavant avec du savon.

Gardez une distance d’au moins un mètre entre vous et toute personne qui tousse ou éternue.

Évitez de toucher vos yeux, votre nez et votre bouche, après avoir touché des objets ou de surfaces pouvant être infestés.

Couvrir votre bouche et votre nez par votre coude plié ou par un mouchoir jetable.

Restez à la maison si vous vous sentez malade. Si vous avez de la fièvre, de la toux ou des difficultés respiratoires, suivez les instructions des autorités sanitaires.

On ne sait pas avec certitude combien de temps le virus reste vivant sur une surface, il semble être similaire à d’autres coronavirus. Des études indiquent que les virus Corona peuvent rester en vie sur les surfaces pendant quelques heures ou plusieurs jours. Cela peut varier en fonction du type de surface, de la température ou l’humidité.

Si vous pensez qu’une surface peut être contaminée, nettoyez-la avec un antiseptique. Lavez-vous les mains en les frottant avec un nettoyant à l’alcool ou en les lavant avec du savon et de l’eau, et évitez de vous toucher les yeux, la bouche ou le nez.

Le virus ne peut pas être transmis par les piqûres de moustiques.

Le froid et la neige ne peuvent pas tuer le nouveau coronavirus.

Les sèche-mains ne sont pas efficaces pour éliminer le virus Corona.

Dans certains cas, des patients guéris du Covid -19 l’ont contracté à nouveau après leur guérison.

Le virus Corona est plus virulent pour les hommes que pour les femmes.

 

 

 

Populations particulières
Un minimum d’informations est disponible concernant la maladie COVID-19 pendant la grossesse. Dans deux rapports, il n’y avait aucune preuve de la transmission du virus au nouveau-né. Dans d’autres études, deux cas d’infection néonatale ont été documentés.

L’approche de la prévention des femmes enceintes devrait être similaire aux autres personnes. Les nourrissons nés de mères dont le COVID-19 est confirmé doivent être considérés comme des patients sous investigation et doivent être isolés et évalués.

On ignore si le virus peut être transmis par le lait maternel. La transmission par gouttelettes pourrait se faire par contact étroit pendant l’allaitement. Une hygiène des mains et l’utilisation d’un masque pendant l’allaitement, ou l’utilisation de tire-lait pour une alimentation de lait maternel par biberon.

 

 

Références

World Health Organization. Director-General's remarks at the media briefing on 2019-nCoV on 11 February 2020.

World Health Organization. Novel Coronavirus (2019-nCoV) technical guidance. https://www.who.int/emergencies/diseases/novel-coronavirus-2019/technical-guidance, on February 14, 2020.

European Centre for Disease Prevention and Control. Novel coronavirus in China. https://www.ecdc.europa.eu/en/novel-coronavirus-china, January 23, 2020.

Hoehl S, Berger A, Kortenbusch M, et al. Evidence of SARS-CoV-2 Infection in Returning Travelers from Wuhan, China. N Engl J Med 2020.

Zou L, Ruan F, Huang M, et al. SARS-CoV-2 Viral Load in Upper Respiratory Specimens of Infected Patients. N Engl J Med 2020.

Rothe C, Schunk M, Sothmann P, et al. Transmission of 2019-nCoV Infection from an Asymptomatic Contact in Germany. N Engl J Med 2020.

Kupferschmidt K. Study claiming new coronavirus can be transmitted by people without symptoms was flawed. Science. February 3, 2020.

Yu P, Zhu J, Zhang Z, et al. A familial cluster of infection associated with the 2019 novel coronavirus indicating potential person-to-person transmission during the incubation period. J Infect Dis 2020.

Zhu N, Zhang D, Wang W, et al. A Novel Coronavirus from Patients with Pneumonia in China, 2019. N Engl J Med 2020; 382:727.

Lu R, Zhao X, Li J, et al. Genomic characterisation and epidemiology of 2019 novel coronavirus: implications for virus origins and receptor binding. Lancet 2020; 395:565.

Huang C, Wang Y, Li X, et al. Clinical features of patients infected with 2019 novel coronavirus in Wuhan, China. Lancet 2020; 395:497.

Chen N, Zhou M, Dong X, et al. Epidemiological and clinical characteristics of 99 cases of 2019 novel coronavirus pneumonia in Wuhan, China: a descriptive study. Lancet 2020; 395:507.

Wang D, Hu B, Hu C, et al. Clinical Characteristics of 138 Hospitalized Patients With 2019 Novel Coronavirus-Infected Pneumonia in Wuhan, China. JAMA 2020.

Wu Z, McGoogan JM. Characteristics of and Important Lessons From the Coronavirus Disease 2019 (COVID-19) Outbreak in China: Summary of a Report of 72 314 Cases, From the Chinese Center for Disease Control and Prevention. JAMA 2020.

Shi H, Han X, Jiang N, et al.. Radiological findings from 81 patients with COVID-19 pneumonia in Wuhan, China: a descriptive study. Lancet 2020.

Chang, Lin M, Wei L, et al. Epidemiologic and Clinical Characteristics of Novel Coronavirus Infections Involving 13 Patients Outside Wuhan, China. JAMA 2020.

Xie X, Zhong Z, Zhao W, et al. Chest CT for Typical 2019-nCoV Pneumonia: Relationship to Negative RT-PCR Testing. Radiology 2020; :200343.

Chen H, Guo J, Wang C, et al. Clinical characteristics and intrauterine vertical transmission potential of COVID-19 infection in nine pregnant women: a retrospective review of medical records. Lancet 2020.

Lire la suite
0
  3583 lectures
  0 commentaires
3583 lectures
0 commentaires

L'Anxiété : histoire d’une maladie

anxiete

 

 

 

 

 

Dans la société grecque classique, de nombreux mots ont été utilisés pour décrire des états émotionnels comme la manie, la mélancolie, hystérie, paranoïa. Chez les Grecs, il n'existe aucun mot pour décrire l'anxiété. Les Romains ont utilisé le terme anxietas pour désigner un état de peur. Ce mot avait une signification différente du mot angor, qui signifiait une crainte avec agitation.
En français, on utilisa des termes comme angoisse ou panique pour désigner ces états de peur

Pourquoi la définition de l'anxiété a été si difficile à établir ?


La définition actuelle de l'anxiété : il s'agit d’une inquiétude pathologique, une peur excessive isolée ou associée à d'autres maladies (dépression). L'anxiété est une souffrance mentale qui arrive par anticipation, peur anormale accompagnée généralement de manifestions physiques comme la transpiration, augmentation du rythme cardiaque, de la fréquence respiratoire, de douleurs musculaires et d'autres pour faire face à une menace.
L'anxiété est un pilier essentiel dans la psychiatrie moderne, la preuve de la capacité de la souffrance mentale à provoquer des symptômes réels comme l'augmentation du rythme cardiaque, l'insomnie, ou des maladies plus complexes comme l'hypocondrie où des douleurs réelles ont une origine psychologique comme par ex les douleurs de la somatisation.
Cela explique la difficulté de forger un tel concept, cela exige d'admettre le lien entre les émotions et le corps, entre la souffrance mentale et l'organisme. Il a fallu des siècles pour pouvoir faire le diagnostic par ex d'une jeune femme, qui consulte les services d'urgence pour des douleurs abdominales intenses, et dont le bilan clinique, biologique et radiologique ne révèle aucune anomalie. C'est un cas d'anxiété avec somatisation.

 

Anxiété : histoire ancienne et moderne

Le terme anxiété a été utilisé récemment. C'est un terme qui désigne à l'origine, un sentiment de pression sur le thorax ou sur l'abdomen (Littré et Robin 1858).
Berrios et Link (1995) ont précisé que les états anxieux sont présents dans de nombreux livres anciens, et comme "anatomies" de Burton (de la mélancolie) en 1621.
Les symptômes qui accompagnent l'anxiété étaient difficilement classables pour les médecins anciens car ces symptômes affectent plusieurs organes : difficulté à respirer, accélération du rythme cardiaque, douleur gastrique, vertige, etc.
La psychiatrie moderne identifie sans difficulté le lien entre l'anxiété et ces symptômes. Les médecins anciens n'arrivaient pas à trouver le lien entre la difficulté à respirer, les douleurs musculaires, et parfois les troubles de la personnalité. En 1621, Burton a suggéré qu'il existe un lien entre ces symptômes et une perturbation de l'esprit sans tracer un lien direct, sans mentionner le terme anxiété.


L'anxiété comme nous comprenons aujourd'hui, a été souvent associée au concept de mélancolie dans les périodes médiévales et pendant la renaissance. Le terme de mélancolie est utilisé aujourd'hui pour décrire des cas de patients ayant des troubles émotionnels légers.
La mélancolie au Moyen Âge représentait un grand chapitre des manuels de médecine et de psychiatrie, englobant un ensemble assez vaste de maladie et de symptômes. La passion, la maladie d'amour, était considérée comme une forme pathologique de mélancolie par exemple. La personne affectée par la passion était décrite comme fragile, agitée, ayant des troubles du sommeil avec manque d'appétit et perte d'envie de vivre.
Quand la personne affectée par la passion, la maladie d'amour, exhibe d'autres symptômes comme l'envie irrésistible de se laver les mains (désignée aujourd'hui comme troubles compulsifs), les médecins de la renaissance ne savaient plus s'il s'agissait d'une personne affectée par la passion, ou par la folie.


De même, les troubles liés à l'anxiété étaient inclassables, ou étaient étiquetés comme maladie à part, c'était le cas de la somatisation et de l'hypocondrie.
Au XVIIe siècle, d'autres termes ont été utilisés pour décrire l'anxiété, Younge (1638) a utilisé le terme de maladie mentale, (Flecknoe 1658) et Hunter et Macalpine (1963) ont préféré décrire la personne anxieuse comme une personne hésitante, sans volonté. En vérité, ils ont décrit ce que nous appelons aujourd'hui le comportement obsessionnel.

 

L'anxiété dans la littérature médicale

Les études sur l'anxiété n'ont jamais été le monopole de l'Occident. Par contre, les différences culturelles ont influencé la compréhension de l'anxiété à travers les sociétés, et son traitement. Cette influence culturelle continue à notre époque, même au sein du monde occidental : l'anxiété est vue différemment en Europe et aux États-Unis.


Le médecin arabe Avicenne (son nom arabe Ibn Sina d'Al-Husayn d'Ali 980-1037) a écrit au XIe siècle son encyclopédie médicale "les canons de la médecine". Dans ce fameux livre en trois tomes, les troubles mentaux sont traités, y compris la mélancolie et la manie.


Dans son étude, Hajal (1994) détaillait comment Avicenne était capable de diagnostiquer et de traiter les patients affectés par la dépression avec anxiété. Encore une fois, la passion amoureuse était considérée comme un cas pathologique nommé en arabe : ishk (passion). Avicenne a traité un jeune noble profondément amoureux d'une femme inaccessible. Il tombe malade d'une anxiété intense avec mélancolie. Avicenne décrit comment l'état mental de ce jeune patient influençait son corps, son rythme cardiaque, la fréquence de ces mouvements respiratoires. L'histoire se termine bien, les deux amoureux se marient, l'anxiété du jeune patient disparaissait progressivement. La description des symptômes ressemble plus ou moins à nos descriptions cliniques aujourd'hui de l'anxiété.


En Chine antique, l'accent était mis sur le lien supposé entre les émotions et les organes. La colère excessive était considérée nocive au foie, le bonheur excessif affecte le coeur, la crainte et l'anxiété étaient accusées d'altérer les fonctions rénales. La tristesse affectait les poumons.


Pour comparer, nous pouvons étudier la méthode chinoise de traitement de l'anxiété qui accompagne la passion amoureuse. On dénote déjà que les Chinois ont tracé un lien direct entre l'anxiété et la dépression. L'anxiété en Chine (yu-lü) s'écrit en associant deux caractères : le premier indique la peine, le deuxième indique l'anxiété. Il y avait plusieurs formes d'anxiété (lü-huan ) : ce qui signifie précautions contre une calamité (notion qui ressemble à l'anxiété par anticipation ) et blü-chi (pour prévoir).


Au Japon, l'anxiété ressemble dans ses définitions à l'anxiété en Chine. Le terme utilisé yu-ryo, signifiant impatience-pensée.


Les médecins chinois ont tenté, bien sûr sans succès, de traiter l'anxiété en traitant le rein, comme ils ont échoué à traiter la colère en traitant le foie.
Même de nos jours, la médecine chinoise traditionnelle utilise le terme générique neurasthénie. Ces mêmes patients qui consultent un médecin occidental sont diagnostiqués comme anxiété ou dépression.


Dans son étude, Zhang (1989) souligne la présence de variante importante de la neurasthénie en Chine contemporaine, celle appelée shenkui (littéralement : l'insuffisance de rein). Cette variante est censée être provoquée par une masturbation excessive accompagnée de lassitude et de faiblesse. Dans cette variante, l'anxiété est considérée comme à l'origine de cette maladie.


Une autre variété s'appelle toujours le neurasthenia du cerveau, provoqué par l'étude excessive accompagnée de vertige, insomnie et manque de concentration. Dans la description de cette variante, on découvre des symptômes d'anxiété accompagnés de symptômes somatiques qui ressemblent à l'anxiété classique des étudiants avant un examen.

En Corée, de nombreuses variantes d'anxiété ont été décrites, comme par exemple le hwa-byung. Dans cette variante (le terme signifie maladie du feu), la dépression s'accompagne de douleur de l'abdomen. Actuellement, avec l'occidentalisation de la Corée, le diagnostic et le traitement de l'anxiété suivent le schéma de la médecine occidentale.

 

L'anxiété au XVIIIe siècle

Le terme anxiété a été introduit dans la littérature médicale largement avant l'invention du terme psychiatrie par Johann Reil en 1808.
En Angleterre, Richard Blackmore (1653-1729), dans son traité sur les humeurs, a inventé le terme anxiété : « l'anxiété est une maladie, dont le traitement est l'apaisement et la tranquillité. » (Blackmore 1725).


Blackmore a souligné que les opiacés à doses modérées étaient utiles chez les patients affectés par l'hypocondrie, par l'hystérie, avec perte d'appétit.
Le premier manuel psychiatrique anglais a été écrit par William Battie (1703-1776). Son travail s'est concentré sur les troubles psychiatriques graves, cependant il a parfaitement distingué la folie de l'anxiété.


Sur le plan théorique, Battie pensait que l'anxiété devait être comprise en termes de corps plus que d'esprit, une sorte de sensations excessives.


James Vere (1700-1779) avait un point de vue différent, l'anxiété était pour lui un conflit entre l'ordre inférieur des instincts et l'ordre supérieur. Ce point de vue sera développé plus tard par Freud suggérant que l'anxiété peut être un conflit entre les désirs (libido), les besoins (le moi) et l'ordre moral (le surmoi).


Au XVIIe siècle, d'autres médecins vont tenter d'améliorer la définition et la conception de l'anxiété comme le neurologue écossais Robert Whytt (1714-1766) et John Bond en 1753.

En France, les états intenses d'anxiété ont été mentionnés dans le texte médical du médecin Sauvage de Boissier (1752), mais le terme anxiété ne figurait pas. À la place, il avait utilisé un autre terme : pantophobie pour décrire ce que nous appelons aujourd'hui le trouble d'anxiété généralisée.

 

L'anxiété au XIXe siècle

Encore une fois, l'état de passion amoureuse est l'exemple le plus populaire de l'anxiété, car cet état traduit l'influence de l'état mental sur le corps humain. Aujourd'hui, on appelle cela les symptômes d'une anxiété, ou la somatisation.


En 1774, Goethe publie les douleurs du jeune Werther, où il décrit l'état d'un jeune homme désespéré en raison de son amour pour une femme indisponible. Cet état de passion se termine par un suicide. Ce roman de Goethe a déclenché une vague de suicides en Europe. De nombreuses publications ont condamné Goethe.


Au début du 19ème siècle, les études sur l'anxiété étaient nombreuses :
De Spiess chrétien (1796) en Allemagne, John Haslam (1809) en Angleterre, , Karl Ideler (1841) à Berlin.
Le début du XIXe siècle coïncide avec l'entrée des États-Unis dans le concert des nations, sur le plan économique et scientifique.


Benjamin Cullen (1746-1813) publiait à Philadelphie ses ouvrages sur les maladies mentales, en citant pour la première fois que l'anxiété peut être raisonnable, comme la peur de la mort, et peu raisonnable comme la peur des insectes, des animaux ou de parler en public. Ainsi il a décrit ce que nous nommons aujourd'hui l'anxiété sociale, et les phobies.


Une année plus tard, Landre-Beauvais (1813) en France a préféré signer l'utilisation du terme très français de l'angoisse pour décrire l'anxiété en le définissant comme : « un certain malaise, une agitation excessive qui pourrait accompagner les maladies psychologiques ou les expressions somatiques. »


Durant la première moitié de XIXe siècle, l'école médicale allemande a dépassé l'empirisme français et anglais, pour décrire l'anxiété, et ces symptômes cardio-vasculaires, pulmonaires, musculaires d'une façon simple et scientifique, se débarrassant de la vague de romantisme et de l'influence des sciences humaines comme la philosophie ou la littérature ; ce sont les travaux d'Otto Domrich, et de Friedrich Beneke (1798-1854), Baron Ernst von Feuchtersleben (1806-1849).


Il est important de reconnaître également la contribution du français Jean-Etienne Esquirol (1772-1840). Dans sa description de l'anxiété en 1838, et sa description des symptômes surtout la description du trouble obsessionnel.


Durant la deuxième moitié du XIXe siècle, on peut dire qu'il existe une réelle description de l'anxiété, comme entité, comme maladie bien distincte. Mais les Français ont continué à refuser le consensus, à parler d'angoisse, et de phobies.


En Allemagne, Wilhelm Griesinger (1817-1868) a décrit l'anxiété comme une neuropathologie, c'est-à-dire une lésion affectant le système nerveux, et non pas comme une maladie d'origine émotionnelle. Ce fut le début de la psychiatrie moderne.


Une théorie semblable a été embrassée par Heinrich Wilhelm Neumann (1814-1884), un contemporain de Griesinger. Neumann (1859) a considéré la maladie mentale comme un processus dynamique où la personne peut parfois perdre sa capacité de se maîtrise pour laisser apparaître l'anxiété.


En vérité, la théorie de Neumann va préparer la théorie freudienne de l'anxiété publiée en 1923 ceci 50 ans plus tard.

En France, Benoît de Morelle (1809-1873), à qui nous devons le concept de démence précoce (Morelle 1860) pensait que les émotions qui provoquent l'anxiété peuvent mener à des changements pathologiques dans le système nerveux autonome. Par cette théorie, il voulait expliquer les symptômes de l'accélération cardiaque ou de la fréquence respiratoire. Les données scientifiques modernes lui donnent raison.


Parmi les psychiatres de l'hôpital Bicêtre à Paris, Grand de la Saulle (1878) a publié plusieurs études sur les phobies, il préférait parler de craintes. Il a donné également de bonnes descriptions des troubles maniaques que nous préférons nommer aujourd'hui trouble obsédant compulsif.


Il décrivit le cas d'une femme, hantée par l'idée qu'une personne puisse lancer sur elle une pierre d'une fenêtre, pendant qu'elle traverse la rue. Cette patiente avait une idée très précise de ce qu'il l'attendait : un homme ou une femme lance sur elle une pierre, elle sera tuée, il y aurait du sang sur le trottoir. Grand de la Saulle décrivit d'autres cas comme celui d'un patient de 30 ans hanté par les couleurs et les nombres, passant son temps à faire des calculs, et se demandant pourquoi les mariés portent des vêtements blancs, pourquoi il y a 44 livres sur le bureau du médecin, pourquoi il y a sept boutons au gilet du médecin etc.
Grand de la Saulle considérait l'anxiété comme une névrose, c'est-à-dire comme une exagération de conscience.


Dagonet (1876), professeur de psychiatrie à l'École de Médecine de Strasbourg a décrit plusieurs formes d'anxiété et a détaillé l'hypochondrie et ses symptômes :
Le patient est impatient, inquiet, préoccupé, exprime de nombreuses craintes au sujet de sa santé. Il inspecte régulièrement son corps, observe scrupuleusement toutes les règles d'hygiène, désire toujours consulter, discuter son cas avec les médecins.


Dagonet a discuté également la dépression impatiente, un terme désuet, synonyme de panphobie morale (humeur anguished en anglais, Gemütsbeklemmung en Allemand ou angoisse existentielle en français).

Au XIXe siècle, le concept de neurasthénie était si populaire que beaucoup de praticiens de santé mentale ont préféré le garder, en refusant le terme anxiété.


Sigmund Freud (1856-1939) s'est opposé à ces tendances en distinguant les symptômes de l'anxiété de ceux de la neurasthénie en insistant sur le fait que la neurasthénie peut être d'origine organique comme par ex une lésion intracrânienne.


Freud a continué à décrire l'anxiété comme une entité à part, comme un concept. Dans la description de Freud, l'anxiété comportait plusieurs variétés : irritabilité générale, espérance impatiente, anxiété rudimentaire, anxiété avec effroi, vertige, et phobies.
Nous pouvons remarquer que la description de l'anxiété de Freud englobe un ensemble de symptômes de maladies liées à l'anxiété et aux phobies.

 

L'anxiété au XXe siècle

La tendance était forte, pendant les premières années du 20ème siècle, de supposer que les facteurs étiologiques principaux de l'anxiété étaient héréditaires ou biologiques.

Maurice De Fleury (1897) a divisé les émotions en deux groupes : « Doute, humilité, paresse, peur, tristesse et pitié : témoin d'un épuisement cérébral, et fierté, sottise, colère, égoïsme, courage, héroïsme, et cruauté sont les manifestations de l'exaltation de l'esprit »


La contribution de Freud a changé radicalement le concept de l'anxiété. Le Freud a introduit le concept de la Libido, cette énergie qui s'accumule progressivement dans le système nerveux, provoquant l'anxiété. Cette approche de Freud était influencée par les idées répandues à la fin de XIXe siècle. 20 ans plus tard, Freud modifiera radicalement sa conception de l'anxiété, elle devient le témoin d'une menace à l'équilibre et au bien-être de la personne. Il a défini, à sa façon plusieurs formes d'anxiété, réalisant l'exploit de faire une approche freudienne à part entière de l'anxiété.


Dans les années 1890, Freud a amélioré plusieurs fois ses concepts et ses théories concernant l'anxiété. Au début, Freud pensait que l'anxiété était un moyen de soulager l'énergie de la libido. Au début de sa carrière, il pensait l'anxiété comme un symptôme de conflit essentiellement sexuel, lié à la libido. Curieusement, ces idées continuent à être présentes dans la culture ambiante, popularisé par le cinéma et par la littérature.
Selon Freud, l'anxiété est la traduction symptomatique d'une pulsion sexuelle inacceptable pour la personne (moi, ou ego) ou pour les codes moraux (surmoi, ou superego).
Curieusement, Galien, le grand médecin grec pensait presque la même chose au IIe siècle, en liant l'anxiété à des pulsions sexuelles bloquées.


20 ans plus tard, Freud revoit ses concepts en abandonnant le lien entre anxiété et libido. En 1936, il ajoute à ses théories le concept de transfert. L'anxiété serait selon lui la traduction de pensées désagréables, et la non-expression de ces pensées. Ainsi, l'anxiété devient une anxiété normale en cas de réponse à la menace identifiée, l'anxiété devient névrotique en cas de réponse à une menace non identifiée. Quand le patient réagit à un danger identifié comme par ex une maladie, il exprime selon Freud une anxiété normale. Quand le patient réagit par l'anxiété à une menace qu'il n'arrive pas lui-même à identifier, il s'agit d'une anxiété névrotique qui peut être le fruit d'un conflit entre des pensées désagréables, impulsions libidineuses, et les codes moraux du patient et de la société. Dans ce cas, le patient subit la punition de son surmoi, par un sentiment de culpabilité. (Kalat et Shiota, 2007).


La distinction entre la peur et l'anxiété a été initiée par le philosophe Kierkegaard [1813- 1855]), et améliorée par Karl Jaspers en 1913.


Ce que nous appelons la phobie sociale, ou la phobie d'évitement, c'est-à-dire le cas d'une personne qui évite quelque chose de bien précis, a été décrite depuis Hippocrate.

Par contre il a fallu attendre le début du XXe siècle pour distinguer la timidité, de la phobie sociale. Paul Hartenberg (1901) a défini la timidité, en distinguant d'une façon scientifique satisfaisante cette timidité de la phobie sociale, et de la phobie d'évitement. Hartenberg pensait que les troubles psychologiques favorisant la phobie sociale étaient essentiellement héréditaires.


L'école française apportera au XXe siècle une importante contribution en quittant l'empirisme, et en adoptant les méthodes scientifiques.
Pierre longévital Janet (1859-1947) est le fondateur de la psychiatrie dynamique. Janet, était moins intéressé par les méthodes expérimentales ou par les statistiques en préférant la clinique et les symptômes.

Dans sa pratique, Janet aidait ses patients à exprimer les idées fixes qui provoquent leur détresse psychologique. Les sentiments pour Janet étaient secondaires, simple expression comportementale d'une détresse psychologique.


Dans son livre, Janet (1926) a décrit « la tension psychologique est la tendance d'une personne à utiliser son énergie à un niveau plus ou moins élevé que la moyenne. »
Selon Janet, le « dynamisme » d'une personne dépend de la qualité et quantité de cette énergie plutôt que des conflits internes et de leurs forces respectives. Ainsi Janet propose un modèle différent pour comprendre l'anxiété, de celui du modèle freudien.


Dans son livre (1926), le grand Janet a discuté longuement le cas de « Madeleine, » une femme seule de 40 ans.
Madeleine représente un cas d'Anxiété sévère avec des épisodes de dépression. Madeleine était physiquement handicapée, elle avait eu une enfance difficile, avec des expériences douloureuses pendant l'enfance. Janet ne cherche pas à mettre l'anxiété de Madeleine sur le compte de sa libido, ou de sa sexualité, il abandonne définitivement l'approche psychanalytique en considérant l'anxiété de Madeleine comme le résultat de ses propres difficultés et ses propres expériences.


À son tour, Janet a influencé Jean de Retard (1907-1987), qui a accompli des travaux d'une importance majeure sur les corrélations entre la neurochimie et l'anxiété, entre la dépression et la neurochimie. Ces travaux ont largement contribué à développer les anxiolytiques et les antidépresseurs par Deniker en 1952.


Un autre psychologue français Ribot (1896-1911) a largement contribué à la description des troubles de l'anxiété généralisée, nommée en France pantophobie.


Le théoricien principal du traitement comportemental de l'anxiété a été Burrhus Frederick Skinner (1904-1990). En reprenant les conclusions de Janet, il considère l'anxiété comme la manifestation d'une réponse conditionnée à une situation crainte. Cela l'amène à proposer un traitement comportemental de l'anxiété ou comment lutter contrer cette réponse conditionnée.


L'anglais Wilfred Bion (1897-1979) a mentionné que l'enfant en bas âge souffre dès sa naissance de peurs, et d'anxiété. Ces anxiétés peuvent être réactivées pendant la vie adulte. Il reprend ainsi les théories de Mélanie Klein (1882-1960), qui a spéculé sur le fait que les dépressifs et les anxieux ont été des enfants anxieux et dépressifs.


La théorie de Mélanie Klein sur l'apparition de l'anxiété et la dépression pendant l'enfance a été populaire, puis abandonnée progressivement par manque de preuves.


Dans l'état actuel, l'origine de l'anxiété est méconnue. Par contre, il existe, au moins dans le monde occidental, un consensus sur les critères de diagnostic, sur les symptômes, et sur les modalités thérapeutiques relatives à l'anxiété.

 

References
American Psychiatric Association: Diagnostic and Statistical Manual of Mental Disorders, Fourth Edition, Text Revision. Washington, DC, American Psychiatric Association, 2000
Angst J: History and epidemiology of panic. Eur Psychiatry 10:57–59, 1995
Battie W: A Treatise on Madness. London, J Whiston and B White, 1758
Beard GM: A Practical Treatise on Nervous Exhaustion (Neurasthenia). New York, W Wood, 1880
Beard GM, Rockwell AD: A Practical Treatise on the Medical and Surgical Uses of Electricity. New York, W Wood, 1875
Beauchesne EPC: De l'influence des affections de l'âme dans les maladies nerveuses des femmes. Paris, Mequignon, 1781
Benedikt M: Über Platzschwindel. Allgemeine Wiener Medizinische Zeitung 15:488–490, 1870
Beneke FE: Lehrbuch der pragmatischen Psychologie, oder der Seelenlehre in der Anwendung auf das Leben. Berlin, Germany, ES Mittler and Sons, 1853
Berrios G, Link C: Anxiety disorders, in A History of Clinical Psychiatry. Edited by Berrios G, Porter R. New York, New York University Press, 1995, pp 545–562
Bion W: Second Thoughts: Selected Papers on Psychoanalysis. London, Marsfield Reprints, 1967
Blackmore R: A Treatise of the Spleen and Vapours; or Hypochondriacal and Hysterical Affections. London, Pemberton, 1725
Boissier de Sauvages F: Pathologica methodica. Amsterdam, De Tournes, 1752
Bond J: An Essay on the Incubus, or Nightmare. London, Wilson and Durham, 1753
Brissaud E: De l'anxiété paroxystique. Sémaine Medicale 9:410–411, 1890
Burton R [as "Democritus Junior"]: Anatomy of Melancholy. Oxford, England, Lichfield and Short, 1621
Busch FN, Milrod BL, Singer MB: Theory and technique in psychodynamic treatment of panic disorder. J Psychother Pract Res 8:234–242, 1999
Cloninger CR: A unified biosocial theory of personality andits role in the development of anxiety states. Psychiatr Dev 3:167–226, 1986
Cullen W: First Lines on the Practice of Physic. Brookfield, MA, E Merriam, 1807
Dagonet H: Nouveau traité elementaire et pratique des maladies mentales. Paris, J-B Baillière et Fils, 1876
Dagonet H: Traité des maladies mentales. Paris, J-B Baillière et Fils, 1894
De Fleury M: Introduction a la médicine de l'esprit. Paris, Felix Alcan, 1897
Delay J, Deniker P: Trent-huit cas de psychoses traitées par la cure prolongée et continue de 4560RP, in Le Congres des Aliénistes et Neurologues de Langue Français: Contes Rendu du Congres. Paris, Masson, 1952, pp 497–502
Esquirol E: Des maladies mentales considerées sous les rapports médical, hygienique et médico-legal. Paris, J-B Baillière, 1838
Flecknoe R: Enigmaticall Characters, all taken to the life from severall persons, humours, and dispositions. London, 1658
Freud S: On the grounds for detaching a particular syndrome from neurasthenia under the description "anxiety neurosis" (1895), in Standard Edition of the Complete Psychological Works of Sigmund Freud, Vol 3. Edited by Strachey
J. London, Hogarth, 1962, pp 90–117 Freud S: The ego and the id (1923), in Standard Edition of the Complete Psychological Works of Sigmund Freud, Vol 19.Edited by Strachey J. London, Hogarth, 1961, pp 12–66
Georget EJ: De la folie: considérations sur cette maladie. Paris, Crevot, 1820
Goethe JW: Die Leiden des jungen Werthers. Leipzig,J Kiermeier-Debre, 1774
Griesinger W: Die Pathologie und Therapie psychischen Krankheiten für Aerzte und Studirende. Braunschweig,
Germany, F Wreden, 1861
Hajal F: Diagnosis and treatment of lovesickness: an Islamic medieval case study. Hosp Community Psychiatry 45:647– 650, 1994
Hartenberg P: Les timides et la timidité. Paris, Alcan, 1901
Haslam J: Observations on Madness. London, J Callow, 1809
Hecker E: Über larvirte und abortive Angstzustaende bei
Neurasthenie. Zentralblatt für Nervenheilkunde 16:565– 572, 1893
Hunter R, Macalpine I: Three Hundred Years of Psychiatry: 1535–1860. London, Oxford University Press, 1963
Ideler KW: Biographien Geisteskranken. Berlin, EH Schroeder, 1841
Janet P: De l'angoisse à l'exstase. Paris, Alcan, 1926
Jaspers K: Allgemeine Psychopathologie. Berlin, Springer- Verlag, 1913
Klein M: Love, Guilt and Reparation and Other Works: 1921–1945. New York, Delta, 1975
Landre-Beauvais AJ: Sémiotique ou traité des signes des maladies. Paris, Brosson, 1813
Le Grand du Saulle H: La folie du doute, avec délire du toucher. Paris, V Adrien Delahaye, 1875
Le Grand du Saulle H: Étude clinique sur la peur des espaces (agoraphobie, des allemandes). Paris, VAdrien Delahaye, 1878
LePois C: Selectiorum observatorium. Pont-a-Mousson, France, Carolus Mercator, 1618
Leroux P: Vertige, in Dictionnaire encyclopédique des sciences médicales. Edited by Dechambre A, Lereboullet L. Paris, Masson, 1889, pp 146–188
Littre E, Robin C: Dictionnaire de médicine. Paris, Baillière, 1858
Moore C: A Full Inquiry Into the Subject of Suicide. London, FJ and C Rivington, 1790
Morel B: Traité des maladies mentales. Paris, Masson, 1860
Morrison A: Outlines of Lectures on Mental Diseases. London, Longman, Rees, Orme, Brown and Green, and S Highley, 1826
Neumann H: Lehrbuch der Psychiatrie. Erlangen, F. Enke,1859
Pichot P: History of the treatment of anxiety, in Handbook of Anxiety, Vol 4: The Treatment of Anxiety. Edited by Noyes R Jr, Roth M, Burrows GD. Amsterdam, Elsevier, 1990, pp 3–25
Pinel P: Traité médico-philosophique sur l'aliénation mentale et la manie. Paris, Richard, Caille and Ravier, 1801
Prichard JC: A Treatise on Insanity and Other Disorders Affecting the Mind. London, Sherwood, Gilbert and Piper, 1835
Reil J: Über den Begriff der Medizin und ihre Verzweigungen, besonders in Beziehung auf die Berichtgung der Topik in der Psychiaterie. In Beyträge zür Beförderung einer Kurmethode auf psychischem Wege. Halle, Curtsche Buchhandlung, 1808
Ribot T: The Psychology of Emotions. London, Walter Scott, 1896
Ribot T: The Psychology of Emotions, 2nd Edition. London, Walter Scott, 1911
Rush B: Medical Inquiries and Observations Upon the Diseases of the Mind. Philadelphia, PA, Kimber and Richardson, 1812
Skinner BF: The Behavior of Organisms: An Experimental Analysis. New York, Appleton-Century, 1938
Spiess CH: Biographien der Wahnsinnigen. Leipzig, 1796
Stone MH: Healing the Mind: A History of Psychiatry From Antiquity to the Present. New York, WW Norton, 1997a
Stone MH: The history of obsessive-compulsive disorder from the early period to the turn of the twentieth century, in Essential Papers on Obsessive-Compulsive Disorder. Edited by Stein D, Stone MH. New York, New York University Press, 1997b, pp 19–29
Sullivan HS: The meaning of anxiety in psychiatry and life. Psychiatry 11:1–13, 1948
Thackrah CT: The Effects of Arts, Trades, and Professions, and of Civic States and Habits of Living, on Health and Longevity. London, Longman, 1831
Vere J: A Physical and Moral Inquiry Into the Causes of That Internal Restlessness and Disorder in Man, Which Has Been the Complaint of All Ages. London, White and Sewell, 1778
von Feuchtersleben E: Zur Diätetik der Seele. Vienna, Carl Armbruster, 1838
von Feuchtersleben E: Lehrbuch aertzlicher Seelenkunde. Vienna, Gerold, 1845
Westphal C: Die Agoraphobie: eine neuropatische Erscheinung. Archiv für Psychiatrie und Nervenkrankheiten
3:138–161, 1872
Whytt R: Observations on the Nature, Causes and Cure of Those Disorders Which Have Commonly Been Called
Nervous, Hypochondriac or Hysteric, to Which Are Prefixed Some Remarks on the Sympathy of the Nerves. Edinburgh, Becket and du Hondt, 1765
Younge R: The Drunkard's Character. London, Latham, 1638
Zhang M-Y: Neurasthenia. Cult Med Psychiatry 13:147– 161, 1989


Lire la suite
1
  1921 lectures
  0 commentaires
1921 lectures
0 commentaires

Anxiété: concept philosophique dans la santé mentale

Salvator-Rosa-La-Tentation-de-Saint-Antoine

Salvator Rosa La Tentation de Saint Antoine

Salvator Rosa, La Tentation de Saint Antoine, 1645, Palais Pitti, Florence, Italie

 

 

 

 

Le concept de l’anxiété est un exemple sur les liens étroit entre la philosophie et la santé mentale. Comme en physique où la philosophie a réfléchi sur des notions incontournables comme le temps, l’atome, ou la matière, en analysant la peur, les philosophes ont offert aux médecins un concept précieux et utile pour comprendre et soulager les patients.
Pour de nombreuses personnes, l'anxiété est un problème.


La principale enquête sur la santé mentale aux États-Unis indique que 18 % des adultes ont connu un trouble anxieux d'un type ou d'un autre au cours des 12 derniers mois. Au royaume uni, 37 % des adultes disent se sentir plus anxieux que par le passé, et déclarent que le monde est devenu plus effrayant au cours des dix dernières années.

 

 

La peur, éternel thème culturel et religieux

Personne ne traverse la vie sans éprouver de l'anxiété de temps en temps, avant de prendre l'avion, de faire un discours, avant un examen, ou avant un rendez vous. La vie sans anxiété n'existe pas, l'anxiété est normale et parfois essentielle.

Les sentiments de panique et de peur, les changements physiques qui les accompagnent: tremblements, palpitations et respiration rapide, sont régulièrement décrits dans les textes littéraires, religieux, philosophiques et médicaux à travers les siècles. Ces sensations étaient expliquées comme le produit de fautes morales ou religieuses, les symptômes d’un problème d’organe ou d’une maladie.

Les discours religieux, depuis l’Egypte antique à nos jours ont utilisé la peur comme moyen pour convaincre les fidèles, la peur des dieux, de leurs châtiments. Si la peur de l’enfer était censée persuader les croyants à suivre le chemin désigné par les religions, d’autres peurs ont surgi dans la société. Certaines peurs ne sont plus métaphysiques comme la peur de Dieu, n’appartiennent plus au domaine de la croyance comme la peur des enfers. Il s’agit de peurs avec des symptômes, et des manifestations cliniques.

Aux 18e et 19e siècles, les symptômes de ce que nous qualifierions aujourd'hui d'anxiété étaient considérés d'origine physique.
Le débat scientifique était concentré sur la question de savoir quel problème physique particulier était responsable.

Le grand psychiatre français du milieu du XIXe siècle, Bénédict Morel (1809-73) soutenait que les symptômes de l'anxiété étaient déclenchés par une maladie du système nerveux.

L'oto-rhino-laryngologiste hongrois Maurice Krishaber (1836-83) pensait que l'anxiété était provoquée par des irrégularités cardiovasculaires.

Moritz Benedikt (1835-1920), professeur de neurologie à l'université de Vienne, attribuait les vertiges ressentis lors des crises de panique à des problèmes d'oreille interne.

 

Freud : Première révolution conceptuelle


Un terme nouveau pour un concept nouveau
Le terme anxiété a été créé pour désigner un concept récent. Ce terme trouve ses racines dans le mot grec angh qui signifie "serrer fort", ou "étrangler". En français, nous utilisons le terme Angoisse dérivé de la même racine grecque comme synonyme du terme anxiété. C’est le cas aussi en allemand, italien et en espagnol. En France, comme dans d'autres pays Européens ; le terme anxiété est un terme à usage médical.

Le terme anxiété est devenu plus populaire à la fin du 19e siècle, en raison de son usage dans les articles scientifiques.
L'ascension fulgurante du terme "anxiété" a commencé dès 1895 dans un article révolutionnaire de Sigmund Freud (1856-1939) où il affirmait que l'anxiété devait être distinguée des autres formes de maladies nerveuses. Freud modifie les concepts de son époque. L’anxiété n’est plus une maladie organique mais une névrose.

La traduction de cet article novateur écrit en allemand a remplacé le terme Angst par "anxiété", car le terme Angst peut être traduit par plusieurs mots anglais comme fear, fright, alarm.
A partir de cet article, le terme anxiété devient un terme de santé mentale car il reflète la pensée de Freud et désigne une entité nouvelle.

 

 

Søren Kierkegaard

Si la contribution de Freud est essentielle à la synthèse de ce concept et de ce terme, d'autres influences ont joué un rôle.

Les travaux du philosophe danois Søren Kierkegaard(1813-55) forgent le concept d'angoisse, ou de peur angoissée. Selon Kierkegaard, cette angoisse se déclenche par la conscience de notre liberté d'agir et de notre responsabilité de nos actions.
Kierkegaard trace un lien entre anxiété et liberté. On est responsable de nos actes quand on est libre.

 

                                                Nietzsche       "L'angoisse est le vertige de la liberté."                                                 

 

Kierkegaard et sa réflexion sur l'angoisse, ont eu une influence importante sur d’autres philosophes, comme sur Jean-Paul Sartre (1905-80) et sur Martin Heidegger (1889-1976), bien que la conception de chacun d'entre eux soit éloignée de ce que les psychologues définiraient aujourd'hui comme l'anxiété.

 

 

 

Jean-Paul Sartre: angoisse de la liberté

Dans son important ouvrage, l'être et le néant, Sartre discute la question importante de la liberté.

 

                                    Nietzsche    "

Que doit être la liberté humaine si le néant doit venir par elle au monde?

"                                       

 

Sartre pense que la liberté n'est pas une faculté, ni une propriété de l'être humain. C'est l’être de l'homme qui est liberté :

"Il n'y a pas de différence entre l’être de l'homme et son « être-libre »".

Sartre rappelle une distinction de Kierkegaard entre deux émotions : la peur (vis-à-vis des autres êtres du monde) et l’angoisse (vis-à-vis de soi-même). Selon Sartre, la forme que prend la conscience de la liberté est l'angoisse.
"C’est dans l’angoisse que l’homme prend conscience de sa liberté".

L’angoisse apparaît rarement, bien que l’homme soit toujours libre, car pendant l'action, on s'interroge rarement sur sa liberté.

Cela génère de l’angoisse car s’il n’y a pas d’autre fondement des valeurs que la liberté, il n’y a pas de raison de choisir tel comportement plutôt que tel autre. Et si notre liberté détruisait les autres ?

 

Martin Heidegger analyse la peur


La peur, l’angoisse et l’effroi sont des mots importants dans la philosophie de Heidegger. La philosophie de Heidegger a inspiré une école psychanalytique, la Daseinanalyse qui continue à être le fondement de pratiques de certains psychanalystes.

La peur, selon Heidegger dans son ouvrage "Être et temps" est un affect qui apparait devant ce qui nous menace. Un objet est menaçant quand il nous fait peur. La peur vient en premier suivie de notre raisonnement qui vient en deuxième temps pour modérer notre peur ou pour la valider. Dépasser sa peur, exige de modifier notre rapport à l’objet menaçant.


En face d'un serpent, notre première réaction est la peur. Nous évitons, nous affrontons ou nous partons. Notre raisonnement arrive pour nous fournir d’autres éléments. En changeant notre relation avec le serpent, nous n'avons plus peur. Certains sont même capables de capturer ou d'élever les serpents. Notre jugement peut modérer, alléger ou vaincre nos peurs.

 

                                    Nietzsche    "

L'angoisse est la disposition fondamentale qui nous place face au néant

"                                       

 

Heidegger définit l'angoisse par le fait d'être exposé à soi-même sans objet menaçant. Le propre de l’angoisse est que la personne retrouve les mêmes émotions de peur mais sans un objet menaçant. C'est une peur sans objet, où la personne est seule face à elle même, sans la possibilité d'agir. Quand on dit à la personne angoissée, ce n'est rien, Heidegger nous rappelle que ce « rien » est le problème, comme si la personne était hantée par sa propre mort, par ce rien, par ce vide.
Le motif de l’angoisse réapparaît dans la réflexion de Heidegger lorsqu’il y est question d'exister, de vivre.

 

Darwin et le deuxième changement conceptuel


Les émotions font l'objet d'une étude fascinante par Darwin, L'expression des émotions chez l'homme et les animaux. Publié en 1872, ce livre est éclipsé par l’important ouvrage de Darwin : On the Origins of Species (1859).

Darwin considère les émotions comme des comportements expressifs : des changements physiologiques, des expressions faciales et des comportements automatiques, inconscients et largement innés. Ces actions et expressions aident la personne qui les ressent et envoient des signaux à son entourage.

Comme le titre du livre l'indique, Darwin ne considère pas les émotions comme un attribut humain et consacre un effort considérable à mettre en évidence les continuités entre l'expérience et l'expression des émotions chez les animaux et aussi bien que chez les humains.

Le travail de Darwin permet de dire que la peur est une émotion, que l’anxiété est une émotion, les deux jouent selon lui un rôle expressif et adaptatif.

 

La biologie de l’anxiété


En 1915, un professeur de physiologie à Harvard, Walter Cannon (1871-1945) invente la formule suivante "le combat ou la fuite" pour décrire la réaction typique d'un animal face au danger.

Les psychologues ont utilisé le même terme pour démontrer comment l'anxiété a pour but de nous alerter d'une menace potentielle et de nous préparer à réagir de manière appropriée, d'envoyer un signal aux autres pour qu'ils soient aussi sur leurs gardes.

La contribution de la biologie au concept de l’anxiété se fera progressivement à partir des découvertes scientifiques. La théorie des trois systèmes qui participent à l'anxiété devient populaire durant la deuxième moitié du 20e siècle.

L'anxiété déclenche une série de changements physiologiques conçus pour nous aider à nous concentrer sur la gestion de la menace. Ces changements sont associés au système nerveux autonome qui supervise la respiration, la régulation de la température et la pression sanguine. Le système nerveux autonome se compose de deux parties complémentaires : le système nerveux sympathique qui prépare le corps à répondre au danger, et le système nerveux parasympathique qui contrôle et contrebalance l'activité du premier.

Le système nerveux sympathique nous prépare au combat, à la réaction, augmente notre rythme cardiaque, permettant au sang d'atteindre nos muscles plus rapidement. Nos pupilles se dilatent, pour mieux voir, le système digestif est mis en veilleuse, ce qui entraîne une réduction de la production de salive, et l’apparition de sécheresse buccale que nous ressentons lorsque nous avons peur. L'expression faciale peut être le résultat de ces réactions nerveuses. Après la peur, le système parasympathique fait le chemin inverse pour revenir à la normale : ralentir le coeur, baisser la tension, relaxer les muscles.

 

L’anxiété devient un concept en psychologie

Pendant la première guerre mondiale, une épidémie de troubles psychologiques se produisit. Les obus, la mort, les destructions massives, ont engendré de graves problèmes psychologiques.

Le psychologue Peter Lang a formulé le modèle des "trois systèmes" de l'anxiété. Selon lui, l'anxiété se manifeste de trois façons :
1. Ce que nous disons et comment nous pensons : par exemple, s'inquiéter d'un problème, ou exprimer sa peur ou son inquiétude.
2. La façon dont nous nous comportons : éviter certaines situations, ou être constamment sur ses gardes pour éviter le problème.
3. Changements physiques : accélération du rythme cardiaque ou de la respiration, et expression du visage.

Selon cette approche, si nous voulons savoir si une personne est anxieuse, nous ne pouvons pas fonder notre jugement uniquement sur ce qu'elle nous dit de ce qu'elle ressent : elle peut dissimuler ses véritables émotions, voire ne pas en avoir conscience.

Les psychologues pensent majoritairement comme Darwin, que l'anxiété est une émotion, et comme Freud, qu’il s’agit d’un problème psychologique.

La peur est considérée comme l'une des cinq émotions de base, avec la tristesse, le bonheur, la colère et le dégoût.

Le problème est que le concept d'émotion est peu précis. Les émotions sont des phénomènes complexes, qui affectent nos pensées, notre corps et notre comportement. Les psychologues définissent les états émotionnels en fonction de leur durée. Une émotion peut durer de quelques secondes à plusieurs heures. Si elle dure plus longtemps, on parle d'humeur.

Selon la pensée psychologique moderne, les émotions sont des sentiments forts déclenchés par notre évaluation ou notre appréciation d'un événement ou d'une situation particulière. Cette évaluation, consciente ou inconsciente, détermine l'émotion que nous ressentons. Si nous percevons un succès, nous sommes heureux. Si nous pensons que nous sommes en danger, nous ressentons de la peur.

En intégrant les pensées dans l’origine de l’anxiété, les psychologues reconnaissent le rôle important de la philosophie occidentale. Cette partie métaphysique ou philosophique permet de trouver certaines réponses, et ouvrent de vastes champs de réflexion.
Sommes-nous angoissés par nos responsabilités d’être libres comme dit Sartre ? Par notre existence ou notre mort comme dit Heidegger? Sommes-nous plus anxieux que nos parents parce que nous sommes plus individualistes, parce que le monde devient plus anxiogène? Parce que les menaces sont plus nombreuses?

 

La médecine psychiatrique accueille l’anxiété

La médecine s’intéresse à l’anxiété car elle répond à la définition précise des troubles qui engendrent une douleur ou une altération de la qualité de vie de la personne.
La méthode scientifique chère aux médecins est appliquée.
L’anxiété devient le « trouble anxieux » en médecine. Le terme trouble signifie l’absence de lésion organique (le terme maladie est réservé pour les lésions des organes ou des systèmes).

En deuxième temps, les médecins vont élaborer une définition. Selon le DSM (Manuel diagnostique et statistique des troubles mentaux) l'anxiété est : « anticipation appréhensive d'un danger ou d'un malheur futur, accompagnée d'un sentiment de dysphorie (sentiment désagréable) ou d'une sensation somatique (corporelle) de tension. Le danger anticipé peut être interne ou externe. »

Dans un troisième temps, la définition précise la durée moyenne des symptômes et de leurs intensités pour évoquer le diagnostic de trouble anxieux.
Si l'anxiété est normale, comment savoir quand elle devient incontrôlable ?
À quel moment l'anxiété ordinaire et banale devient-elle un problème clinique qui nécessite une attention particulière ?


Un professionnel de la santé prendra en compte certains éléments :
- le patient devient anxieux de manière inappropriée,
- l'anxiété est fondée sur une perception irréaliste ou excessive du danger
- depuis combien de temps l'anxiété affecte la personne
- à quel point c'est pénible pour l'individu
- et dans quelle mesure l'anxiété perturbe sa vie quotidienne.

L’anxiété en médecine permet de traiter les patients par les médicaments disponibles ou par les techniques de psychothérapie, d’éviter les maladies liées à l’anxiété comme l’hypertension, les troubles respiratoires ou musculaires, de valider la souffrance des patients.

 

Conclusion


Ce voyage de l’anxiété, du religieux vers le médical témoigne de l’importante contribution de la philosophie, de la psychanalyse, de la psychologie et de la médecine pour forger une idée nouvelle, un concept précis.

Il est assez aisé de trouver d’autres exemples de la contribution de la philosophie occidentale à la science en général, et à la médecine.

Mais il reste bien du chemin à parcourir pour comprendre les émotions, les peurs, ce qui nous rend anxieux, et comment rendre le traitement plus efficace.

Lire la suite
1
  2248 lectures
  0 commentaires
2248 lectures
0 commentaires

Histoire d'un tableau : Pinel délivre les aliénés

 

Pinel delivtant les alienes

 

 

Pinel délivrant les aliénés à la Salpêtrière en 1795. Tableau de 1876, Paris. Hôpital de la Salpêtrière.
Tony Robert-Fleury, né le 1er septembre 1837 à Paris et mort le 8 décembre 1911 doit sa réputation à ses compositions historiques ainsi qu'à ses portraits et ses scènes de genre. Dans ce tableau, il remémore un événement majeur.   


A ses débuts, la Révolution française avait aggravé la situation de la médecine en France. Certains révolutionnaires cédaient à l'idéologie et voulaient détruire les hôpitaux, car " ils sont au cœur de la misère ". Les biens des hôpitaux furent confisqués, nationalisés et vendus. Le trésor public supprima toute aide. Les universités et les Écoles de Médecine fermées, les diplômes supprimés. La révolution appliquait l'utopie égalitaire de libre accès à tous les emplois, y compris la médecine.
Les corporations et les sociétés savantes ainsi que les académies furent dissoutes.

Cette situation dura quelques mois. Puis il fallut reconstruire, réorganiser la médecine et les hôpitaux, d'autant que l'armée manquait cruellement de médecins et de soignants.
Des mesures furent alors prises pour l'ouverture d'Écoles de Médecine à Paris, à Montpellier et à Strasbourg, en insistant sur l'importance d'un enseignement pratique, moderne, réalisé par des maîtres choisis pour leurs compétences.

La Révolution française a mis en place une médecine nouvelle, organisée entièrement par l'État. Les facultés de médecine étaient soumises à l'autorité de l'État et à ses décrets.
Ces facultés durent abandonner le latin pour le français, une première en Europe. D'autre part, l'État cherchera un certain équilibre pour financer des hôpitaux de bonne qualité, gérés par les municipalités.


Philippe Pinel devient premier medecin  

Philippe Pinel était issu d'une famille du sud-est, petit homme bégayant, docteur en médecine de la faculté de Toulouse.
Jusqu'à l'âge de 40 ans, il n'a joué aucun rôle important dans la médecine. À la révolution, pendant la terreur, il fut nommé premier médecin de l'hôpital Bicêtre. Il arriva à l'hôpital le 11 septembre 1793. Avant cette nomination, Pinel exerçait à Paris dans un cabinet privé, après avoir échoué au concours de la faculté, et été refusé parmi les médecins de la maison royale.

À Paris, il y avait deux départements de médecine mentale, la Salpêtrière pour les femmes, et Bicêtre pour les hommes. Les malades mentaux étaient maltraités, enchaînés, brutalisés, emprisonnés dans des hospices sans hygiène ni soins. Le traitement consistait à maîtriser ces patients par la force, à les asperger de douches froides pour les calmer. La santé mentale n'existait pas.        
Deux semaines après son arrivée, Pinel commença sa collaboration avec Jean-Baptiste Pussin pour réorganiser l'hospice de Bicêtre.

Pinel entama une classification des maladies mentales. Il insista sur l'importance de l'environnement social dans les maladies psychiatriques.
Deux ans plus tard en avril 1795, il quitte Bicêtre pour un poste de médecin-chef à la Salpêtrière.
Il continua à observer pour classer, pour créer des catégories, pour donner des descriptions précises des maladies mentales. Pour la première fois dans la médecine moderne, un médecin tente de préciser les symptômes des maladies mentales.
Il décrit la dépression maniaco-dépressive ou maladie bipolaire. Avant lui, les malades mentaux étaient des coupables à punir. Avec Pinel, ces malades sont des patients à traiter. Avant Pinel, on parlait de fous et d'aliénés, après Pinel, on parla de maladies mentales bien précises.


citation Pinel

Pinel casse les chaînes et ouvre les asiles  

Philippe Pinel est le fondateur de la psychiatrie, une science basée sur les observations des maladies et des symptômes.
Il commença sa révolution par la classification des maladies selon les analyses des données cliniques. Il souligna que certains malades étiquetés psychiatriques ou aliénés avaient en fait une lésion cérébrale (organique). Pinel décrit pour la première fois la manie, la mélancolie, la démence, l'idiotie.
En l'absence de lésions organiques, il pensait que la folie était guérissable, ou améliorable. Il croyait que la meilleure façon d'y parvenir était d'offrir aux patients un milieu de vie sans contrainte, respectant les droits des patients, leur liberté, et aux échanges avec les autres.
Pinel supprime les chaînes, les douches, les traitements inhumains et offre aux patients la liberté. Il était enfin convaincu qu'un patient déprimé ou bipolaire n'était ni fou ni dangereux. Ce fut un grand jour pour la médecine française, pour la psychiatrie et pour l'humanisme.  



La folie commença à disparaître du langage médical avec Philippe Pinel.

Lire la suite
1
  7536 lectures
  0 commentaires
Mots-clés :
7536 lectures
0 commentaires

Immunothérapie du cancer

 

cancer traitement

 

 

L'utilisation de l'immunologie dans le traitement du cancer a commencé au 19ème siècle. Le chirurgien William Coley a décrit comment l'injection de bactéries mortes dans la masse tumorale peut réduire la taille de la tumeur.

 

Le système immunitaire face au cancer

Dans le cas d'une infection, la bactérie représente un corps étranger, un antigène. Le système immunitaire après avoir identifié cet antigène va synthétiser des anticorps capables de neutraliser la bactérie. Dans d'autres circonstances comme l'infection tuberculeuse, le système immunitaire réagit par la création de cellules spécifiques capables de lutter contre l'intrusion.

Le système immunitaire est un ensemble d'organes, de cellules spéciales, et de substances qui aident à protéger l'organisme contre les infections et les maladies. Le système immunitaire conserve la trace de toutes les substances présentes dans le corps. Une nouvelle substance inconnue déclenche une alarme, et provoque le système immunitaire. En cas d'infection, les germes contiennent des substances comme les protéines que le système immunitaire considère comme " étrangers ". La réponse immunitaire peut détruire tout ce qui contient la substance étrangère, comme les germes ou les cellules cancéreuses.

 

immunologie cancer


Le système immunitaire a plus de difficulté à cibler les cellules cancéreuses, car le cancer se déclare dans des cellules normales qui se modifient et commencent à se développer sans contrôle. Le système immunitaire ne reconnaît pas toujours les cellules cancéreuses comme " étrangères ".
Parfois, le système immunitaire développe ses propres cancers comme dans le cas des lymphomes. Dans d'autres cas, le système immunitaire reconnaît les cellules cancéreuses, mais la réponse ne suffit pas à limiter le cancer.


Après la transformation d'une cellule bénigne en cellules tumorales, l'organisme réagit pour en utilisant de nombreux éléments cellulaires :
- Les lymphocytes T8 : ces cellules sont présentes dans les tissus. Après l'identification des antigènes présents à la surface de la cellule tumorale, les cellules T se multiplient et sécrètent des substances chimiques dans l'espoir de neutraliser l'antigène.
Les lymphocytes Natural killer (ou NK) sont des cellules lymphocytaires qui réagissent en réponse à la réaction des cellules lymphocytaires T8 sans contact direct avec l'antigène.
- D'autres cellules comme les lymphocytes CD25, ou les lymphocytes CD4 vont participer à la réaction immunologique en sécrétant des substances chimiques comme l'interleukine.
- Les cellules macrophages sont présentes dans les tissus, et capables de phagocyter les antigènes et de les neutraliser en utilisant des substances chimiques comme l'interféron, comme l'interleukine, ou les cytokines.
Il s'agit d'une présentation simplifiée. La réponse immunitaire est une chaîne complexe de réactions, de régulation, de stimulations et d'inhibition gouvernée par venir un système hiérarchique.

immunotherapie cancer

L'immunothérapie du cancer

L'immunothérapie est un traitement qui se sert de certaines parties du système immunitaire d'une personne pour lutter contre des maladies telles que le cancer. Cela peut se faire en deux façons :
* Stimuler le système immunitaire pour lutter plus efficacement contre les cellules cancéreuses
* Fournir au système immunitaire certains produits actifs comme les protéines du système immunitaire ou les anticorps
Au cours des dernières décennies, l'immunothérapie est devenue une partie importante du traitement de certains types de cancer.

 

Types d'immunothérapie du cancer

Les principaux types d'immunothérapie utilisés pour traiter le cancer sont :
* Immunothérapie non spécifique : Ces traitements stimulent le système immunitaire d'une manière générale.
* Les inhibiteurs du point de contrôle immunitaire : Ces médicaments agissent sur les " freins " du système immunitaire, et aident à reconnaître les cellules cancéreuses et à les attaquer.
* Les anticorps monoclonaux : ces versions artificielles de protéines immunitaires peuvent être conçues pour attaquer une partie spécifique d'une cellule cancéreuse.
* Les vaccins anticancéreux : Les vaccins stimulent une réponse immunitaire contre certaines maladies. Certains vaccins peuvent aider prévenir ou traiter le cancer.

 

Immunothérapies non spécifiques

L'immunothérapie non spécifique ne cible pas spécifiquement les cellules cancéreuses. Elle stimule le système immunitaire d'une façon générale pour entraîner une meilleure réponse immunitaire contre les cellules cancéreuses.
Certaines immunothérapies non spécifiques sont données pour elles-mêmes comme traitement du cancer. D'autres sont utilisées en complément d'un traitement principal pour en améliorer l'efficacité.

Les cytokines
Les cytokines sont des produits chimiques fabriqués par certaines cellules du système immunitaire. Ces produits sont essentiels pour contrôler la croissance et l'activité des autres cellules du système immunitaire et les cellules sanguines.
Les cytokines les plus présentes sont :


- Les Interleukines
Les interleukines sont un groupe de cytokines qui agissent en tant que signaux chimiques entre les globules blancs.
L' interleukine-2 (IL-2) aide les cellules du système immunitaire à croitre et se diviser plus rapidement. Une version artificielle de l' IL-2 est approuvée pour le traitement avancé du cancer du rein métastatique et du mélanome .
IL-2 peut être utilisé comme un médicament pour le traitement de ces cancers, ou peut être combiné avec une chimiothérapie ou avec d'autres cytokines telles que l'interféron alpha. L'utilisation de l'IL-2 avec ces traitements pourrait les aider à rendre plus efficaces, mais augmentent également les effets secondaires du traitement combiné.


- Interférons
Les interférons sont des produits chimiques qui aident le corps à résister aux infections virales et aux cancers.
Seul IFN-alpha est utilisé pour traiter le cancer pour renforcer la capacité de certaines cellules immunitaires à attaquer les cellules cancéreuses et à ralentir la croissance des cellules cancéreuses.
IFN-alpha peut être utilisé pour traiter certains cancers : leucémie à tricholeucocytes, leucémie myéloïde chronique, lymphome folliculaire, lymphome T de la peau, cancer du rein, et mélanome.

- Bacille Calmette-Guérin
Bacilles Calmette-Guérin (BCG) : il s'agit du fameux vaccin BCG capable d'alléger le risque d'une atteinte tuberculeuse. Ces bacilles sont capables de stimuler l'immunité cellulaire. Les bacilles de Calmette Guérin sont utilisés dans le traitement du cancer superficiel de la vessie, avec succès.
BCG peut également être utilisé pour traiter certains cancers de la peau comme le mélanome l'injectant directement dans les tumeurs.

 

Checkpoint cancer


Les inhibiteurs du point de contrôle immunitaire
Ces médicaments ciblent les molécules comme PD-1, PD-L1, et CTLA-4, contrôlent le système immunitaire. Les médicaments stimulent la réponse immunitaire.
Médicaments qui ciblent PD-1 ou PD-L1
PD-1 est une protéine de contrôle des lymphocytes T. Les anticorps monoclonaux qui ciblent soit PD-1 ou PD-L1 peuvent stimuler la réponse immunitaire contre les cellules cancéreuses.
Les inhibiteurs de PD-1, comme Pembrolizumab (Keytruda), Nivolumab (Opdivo) sont utiles dans le traitement du mélanome, cancer du poumon, cancer du rein, cancer de la vessie, cancers de tête et du cou, et le lymphome
Inhibiteurs PD-L1 comme Atezolizumab (Tecentriq), Avelumab (Bavencio), Durvalumab (Imfinzi) sont utiles dans le traitement du cancer de la vessie, le cancer du poumon et le carcinome à cellules de Merkel

 

Médicaments qui ciblent les CTLA-4
CTLA-4 est une protéine présente sur certaines cellules T. Ces substances découvertes en 1887 sont impliquées dans l'activation des cellules T. Les anticorps anti CTLA-4 (comme ipilimumab) furent les premiers inhibiteurs utilisés en cancérologie dans le traitement du mélanome malin, comme alternative à l'utilisation de l'interféron. Ce médicament est utilisé pour traiter le mélanome de la peau.
Tremelimumab, est un autre médicament capable d'inhiber le CTLA-4. Il est utilisé dans le traitement du mélanome malin.
D'autres substances impliquées dans la réponse immunitaire sont étudiées comme TIM-3, LAG3, CD137, CD134, le CD357, CD40, CD28.

 

Les récepteurs de l'antigène chimère (CAR) modification des cellules T
Certaines cellules comme les lymphocytes T, ont leurs propres protéines (appelées récepteurs) qui se fixent à des antigènes étrangers et contribuent à déclencher d'autres parties du système immunitaire. Les cellules cancéreuses ont aussi des antigènes, mais le système immunitaire a plus de difficulté à savoir que les cellules cancéreuses sont étrangères.
Les cellules T utilisées sont de cellules T modifiées pour repérer les cellules cancéreuses spécifiques en ajoutant un récepteur artificiel (appelé récepteur de l'antigène chimérique ou CAR) pour identifier les antigènes des cellules cancéreuses spécifiques. Par exemple, certains types de leucémie ou de lymphome ont un antigène à l'extérieur des cellules cancéreuses appelées CD19. Les Cellules CAR T vont se connecter à l'antigène CD19. Ce traitement est efficace dans la leucémie aiguë lymphoblastique et les lymphomes à grandes de cellules B. Cette technique a montré des résultats encourageants dans les essais cliniques contre ces cancers.

 

Anticoprs monoclonaux cancer

 

Les anticorps monoclonaux pour le traitement du cancer


Le système immunitaire neutralise les substances étrangères en synthétisant un grand nombre d'anticorps. Un anticorps est une protéine qui colle à une protéine spécifique nommée antigène. Une fois fixé, il peut recruter d'autres parties du système immunitaire pour détruire les cellules contenant l'antigène.
Les anticorps monoclonaux (MAB) sont utilisés pour traiter de nombreuses maladies, y compris certains types de cancer. Différents types d'anticorps monoclonaux sont utilisés dans le traitement du cancer.


- anticorps monoclonaux nus
Les Mab nus sont des anticorps qui fonctionnent par eux-mêmes. C'est le type d'anticorps monoclonaux le plus couramment utilisé pour traiter le cancer.
Ces anticorps monoclonaux nus se fixent les antigènes des cellules cancéreuses, ce qui permet au système immunitaire de faire le reste du travail.
Les Mabs nus peuvent fonctionner de différentes façons en stimulant la réponse immunitaire comme l'alemtuzumab (Campath) utilisé pour traiter certains patients atteints de leucémie lymphocytaire chronique (CLL). Il se lie à l'antigène CD52, qui se trouve sur les cellules de la leucémie). Une fois fixé, l'anticorps attire les cellules immunitaires qui détruisent ces cellules repérées.
D'autres anticorps monoclonaux nus stimulent la réponse immunitaire en ciblant les points de contrôle du système immunitaire.


- anticorps monoclonaux conjugués
Les anticorps monoclonaux conjugués sont des anticorps monoclonaux reliés à un médicament de chimiothérapie ou à une particule radioactive. L'anticorps se dirige spécifiquement vers la cellule cancéreuse où il délivre la substance toxique.
D'autres anticorps conjugués sont associés à de particules radioactives, comme l'ibritumomab tiuxétan (Zevalin(r)) qui se dirige vers les lymphocytes munis de l'antigène CD20. Cet anticorps fait partie importante de l'arsenal thérapeutique contre les lymphomes de type B.
Les anticorps monoclonaux conjugués avec chimiothérapie fixent sur la cellule tumorale la substance médicamenteuse nécessaire. C'est le cas de Brentuximab vedotin (Adcetris), un anticorps qui cible l'antigène CD30 des lymphocytes comme dans le traitement de la maladie de Hodgkin et des lymphomes anaplasiques.
L'anticorps Ado-trastuzumab emtansine (Kadcyla ou TDM-1), un anticorps qui cible la protéine HER2, attachée à un médicament chimio pour traiter certains cancers mammaires.


Anticorps monoclonaux bispécifiques
Ces médicaments sont composés de 2 anticorps monoclonaux, ce qui signifie qu'ils peuvent s'attacher à 2 protéines différentes en même temps. C'est le cas de blinatumomab (Blincyto) utilisé dans le traitement de leucémie lymphocytaire aiguë. Une partie de blinatumomab s'attache à la protéine CD19, et l'autre sur la protéine CD3.
D'autres anticorps comme Bevacizumab (Avastin) ciblent la protéine responsable de la croissance des vaisseaux sanguins de la tumeur, ou Cetuximab (Erbitux) qui cible une protéine cellulaire appelée EGFR , présente dans les cellules de la peau.  

 

Les vaccins anticancéreux

Les vaccins contre le cancer fonctionnent de la même façon que les vaccins ordinaires. L'objectif est d'aider l'organisme à lutter contre le cancer ou à prévenir l'apparition de cancer.
Les vaccins pour aider à prévenir le cancer sont peu nombreux. On peut citer certaines souches du virus du papillome humain (HPV) lié au cancer du col, de l'anus et de la gorge.
Le vaccin contre l'hépatite B peut être classé dans la même catégorie.
D'autres vaccins tentent de lutter contre les cellules cancéreuses dans le corps en présentant au système immunitaire des cellules ou une partie des cellules cancéreuses.
Le Sipuleucel-T (Provenge) est actuellement le seul vaccin approuvé dans certains pays. Il est utilisé pour traiter les stades avancés du cancer de la prostate  rebelle au traitement hormonal.

 

Références :
Gras Navarro A, Björklund AT, Chekenya M. Therapeutic potential and challenges of natural killer cells in treatment of solid tumors. Front Immunol 2015; 6:202.
Zaretsky JM, Garcia-Diaz A, Shin DS, et al. Mutations Associated with Acquired Resistance to PD-1 Blockade in Melanoma. N Engl J Med 2016; 375:819.
Ngiow SF, von Scheidt B, Akiba H, et al. Anti-TIM3 antibody promotes T cell IFN-?-mediated antitumor immunity and suppresses established tumors. Cancer Res 2011; 71:3540.
Croft M. Control of immunity by the TNFR-related molecule OX40 (CD134). Annu Rev Immunol 2010; 28:57.
Pan PY, Zang Y, Weber K, et al. OX40 ligation enhances primary and memory cytotoxic T lymphocyte responses in an immunotherapy for hepatic colon metastases. Mol Ther 2002; 6:528.
Simpson TR, Quezada SA, Allison JP. Regulation of CD4 T cell activation and effector function by inducible costimulator (ICOS). Curr Opin Immunol 2010; 22:326
Ribas A, Dummer R, Puzanov I, et al. Oncolytic Virotherapy Promotes Intratumoral T Cell Infiltration and Improves Anti-PD-1 Immunotherapy. Cell 2017; 170:1109.

Lire la suite
5
  4566 lectures
  0 commentaires
4566 lectures
0 commentaires

Immortelle Henrietta Lacks

Henrietta Lacks

 

Henrietta Lacks est née Loretta Pleasant en août 1920 à Roanoke en Virginie. Après le décès de sa mère, la petite Henrietta a été élevée par son grand-père Tommy Lacks. Elle partageait sa chambre avec son cousin David Lacks (1915-2002). Le 10 avril 1941 elle se maria avec lui, ils eurent cinq enfants. Elle travailla par la suite dans les champs de tabac.


Le 29 janvier 1951, elle se plaignit de douleurs, d'une masse dans l'abdomen, et de saignements vaginaux. Elle se rend alors à l'hôpital Johns-Hopkins pour se faire examiner. Elle n'avait aucune anomalie du col de l'utérus lors de la visite de contrôle après son accouchement. Après avoir donné naissance à son cinquième enfant, Joseph, elle avait saigné abondamment. Les médecins avaient suspecté la syphilis, mais le test était négatif.


Le médecin effectua une biopsie du col utérin. L'examen révéla une tumeur maligne invasive. Le traitement de l'époque était la curiethérapie qui consistait à planter dans la zone tumorale deux aiguilles de radium.


"À l'époque, j'avais déjà vu de nombreuses patientes atteintes d'un cancer du col de l'utérus défiler dans mon cabinet", écrira plus tard Howard Jones, son médecin traitant à l'hôpital Johns-Hopkins. "Cependant, cette tumeur n'avait rien de commun avec les autres. Elle était aussi grosse qu'une pièce de monnaie, présentait une couleur violette et était de texture souple, alors que ces tumeurs sont habituellement rigides ou dures."


Howard Jones a prélevé des cellules à sa patiente - le 8 février - et a remis l'échantillon de tissu tumoral au laboratoire dirigé par son collègue George Gey et son épouse Margaret. Ces derniers ont alors placé l'échantillon dans un mélange composé de plasma de poulet, d'extraits d'embryons bovins et de sang de cordon humain, l'ont mis au réfrigérateur - et ont attendu la nécrose imminente du tissu. Jusqu'alors, aucun laboratoire n'avait réussi à conserver des cellules humaines en vie plus de quelques semaines.


Cependant, les cellules, sur le contenant desquelles Margaret Gey avait inscrit les initiales du nom de la patiente ("HeLa"), n'ont cessé de se multiplier. Leur nombre a doublé en une nuit. Et entre le 9 et 10 février, des millions de cellules humaines ont rapidement fait leur apparition, les premières à s'être multipliées en laboratoire et à avoir survécu plus de quelques jours. Ce fut une véritable révélation scientifique.


Le 8 août, Henrietta Lacks bénéficia d'un nouveau traitement, mais elle décède le 4 octobre 1951 à l'âge de 31 ans.
L'autopsie mit en évidence la présence d'une tumeur maligne avec métastases.

cellules HeLa culture chimiotherapie

Les cellules pèsent 50 millions de Tonnes.

Dans les années 50, il est difficile de garder une cellule tumorale en vie (hors du corps humain). En dépit de nombreuses techniques, la culture de cellules humaines échouait, les cellules séparées de leur corps d'origine mourraient en quelques heures.

Les chercheurs tentaient depuis longtemps de maintenir en vie des cellules humaines en culture pour tester des médicaments et pour comprendre le fonctionnement de la cellule humaine, surtout la cellule cancéreuse. Pour la première fois, les cellules d'Henrietta Lacks se sont avérées différentes. Le lendemain, une nouvelle génération cellulaire apparaissait. Depuis, elles n'ont jamais arrêté de se multiplier. Les cellules d' Henrietta Lacks sont toujours vivantes in vitro, immortelles.

La vie d'une cellule humaine normale est contrôlée par des enzymes et par des protéines. Après sa naissance, elle est différenciée et gouvernée par un système complexe de régulation. Plusieurs protéines vont maintenir la cellule et contrôler sa prolifération. En cas de trouble du système de régulation, l'équilibre peut se briser. La cellule peut mourir (nécrose) ou proliférer (division ou mitose.)  Lorsque des cellules se mettent à proliférer de manière anarchique, elles forment une tumeur bénigne ou maligne (cancer).


Au début, les médecins ont pensé que ces cellules pourraient favoriser la culture d'autres cellules tumorales comme les cellules des tumeurs hépatiques ou pulmonaires. Ils vont découvrir que ces cellules ne favorisaient pas la prolifération d'autres cellules, et continuent à proliférer d'une façon autonome cela au contact d'autres cellules tumorales.


Pour la première fois dans l'histoire de la médecine, il était possible de réaliser des recherches approfondies sur des cellules humaines. George Gey a envoyé les cellules "HeLa" à d'innombrables laboratoires dans le monde entier. Des scientifiques ont commencé à mélanger leur nouvel objet d'étude à des cellules de souris et de poulet, pour analyser les répercussions du cancer, de la poliomyélite et du sida. Les cellules "HeLa" ont fait l'objet de recherches multiples, et elles le sont encore aujourd'hui.


Actuellement, on découvre plus de 60 000 études réalisées à partir de ces cellules. Ce chiffre ne prend pas en compte les études réalisées dans les années 50 et dans les années 60. Selon l'estimation d'un scientifique, les cellules Hela ont produit jusqu'à maintenant l'équivalent de 50 millions de tonnes de tissu.


Pour l'instant, les chercheurs sont encore incapables de dire avec exactitude pourquoi ces cellules-là, précisément, se sont multipliées aussi rapidement. En 2013, la revue nature a publié une étude tentant d'expliquer l'immortalité de ces cellules.
Une équipe de l'université de Washington a mis en évidence la présence du virus papillomavirus dans le génome de ces cellules. Il s'agit d'un virus sexuellement transmissible, capable de provoquer la cancérisation des cellules infectées. Dans ce cas précis, le gène cancérigène de virus s'est inséré dans le noyau de la cellule, en utilisant un autre gène cellulaire nommé oncogène. La présence de ces deux gènes a provoqué l'apparition de lésions cancéreuses.


C'est grâce aux cellules "HeLa" que les chercheurs ont découvert les papillomavirus humains HPV16 et HPV18. Après plusieurs années de recherche, un vaccin contre le papillomavirus a été élaboré. Les cellules de la jeune Henrietta ont servi à la création de ce vaccin.

cellule HeLa karyotype

Le code génétique explique l'immortalité


Contrairement à une population normale de cellules humaines, qui se divisent environ 40 à 50 fois avant de mourir, les cellules HeLa ont la capacité de se diviser indéfiniment. Elles sont la pierre angulaire de certaines des avancées biologiques les plus importantes.
Pendant de nombreuses années, ces cellules étaient la seule ligne cellulaire capable de se diviser indéfiniment hors du corps humain.


HeLa, telle que nous la connaissons aujourd'hui, est née dans le laboratoire de George Gey, directeur du Laboratoire de culture tissulaire de l'hôpital Johns Hopkins dans les années 1950. Les cellules humaines normales ont 46 chromosomes, tandis qu'une cellule HeLa a 76 à 80 chromosomes fortement mutés. Le virus du papillome humain (HPV), a altéré profondément l'ADN de ces cellules leur permettant de produire une protéine qui contrôle la protéine  p53, ce  gardien du génome en raison de son rôle dans la prévention des mutations et la suppression des tumeurs.


Pendant la division cellulaire normale, la chaîne d'ADN aux extrémités de tous les chromosomes, connue sous le nom de télomères, est raccourcie. Cela conduit au vieillissement cellulaire et finalement à la mort cellulaire. Les cellules normales ont un nombre maximum de divisions avant que ces télomères ne soient épuisés. Les cellules HeLa ont une enzyme telomérase hyperactive qui reconstruit les télomérases après la division cellulaire, contournant ainsi le processus de vieillissement et de mort cellulaire.


Le caryotype d'une cellule HeLa est très différent du caryotype d'un humain normal, avec des copies supplémentaires de certains chromosomes et des copies manquantes d'autres.


La publication récente du code génétique de ces cellules a révélé la présence de nombreuses mutations dans le code génétique, expliquant la prolifération continue de ces cellules. En même temps, ces mutations, si nombreuses et inhabituelles ne permettent pas de considérer les cellules HeLa comme un modèle de cellule tumorale.


Des problèmes éthiques


En 1951, le médecin avait prélevé ces cellules sans le consentement de la patiente, une pratique répandue à l'époque, jugée inacceptable de nos jours. La publication du code génétique des cellules cancéreuses de Henrietta Lacks a suscité de vives polémiques entre la famille de la patiente et le corps médical.

L'institut américain de la santé a décidé d'intégrer un représentant de la famille au sein de son comité d'éthique pour avoir un regard sur les résultats scientifiques publiés à l'avenir.

Il y a plusieurs années, une plaque commémorative a été installée sur les lieux où se trouverait la tombe d'Henrietta Lacks, dans un petit coin de forêt de Virginie. En juin 2011, l'Université d'État Morgan de Baltimore lui a décerné le titre de docteur honoris causa à titre posthume.

Lire la suite
4
  5266 lectures
  0 commentaires
5266 lectures
0 commentaires

Cellule souche cancéreuse, nouveaux traitements

cellule souche cancereuse


La maladie cancéreuse peut être définie par une prolifération non contrôlable de cellules anormales dans l'organisme. Dans le sein par exemple, il s'agit au début de cellules atypiques sur le plan morphologique, et sur le plan génétique. L'aspect de ces cellules est différent au microscope, car ces cellules cancéreuses ont des aspects particuliers.  En biologie moléculaire, on découvre que ces cellules possèdent un patrimoine génétique différent des cellules normales.
La chimiothérapie réussit à détruire un certain pourcentage de cellules tumorales.  Après un certain temps, la lésion cancéreuse récidive ou évolue sous forme de métastase (localisation tumorale située à distance de la lésion d'origine). Les cellules impliquées dans cette récidive ou dans la métastase sont de plus en plus résistantes à la chimiothérapie. La lésion cancéreuse devient ainsi incurable.          


Apparition du concept de cellule " souche " cancéreuse

En 1997, les chercheurs Bonnet et Dick ont décrit pour la première fois la présence de cellules particulières dans une forme de cancer du sang nomme leucémie myéloïde aiguë. L'inoculation de ces cellules était capable de provoquer une lésion cancéreuse chez la souris. Ces cellules furent nommées les cellules souches cancéreuses.

modele cellule souche cancereuse


En 2003 Al-Haj est le premier à identifier ce genre de cellules dans le cancer du sein. Cette identification ouvre la porte à d'autres recherches, les cellules souches cancéreuses ont été identifiées dans les tumeurs solides, comme les tumeurs du cerveau, de la prostate, du colon, colon, de la gorge, dans les poumons, le foie, l'ovaire, le pancréas puis dans le mélanome. Ces cellules sont identifiées par certaines particularités biologiques.
Les mutations génétiques peuvent amener les cellules saines à devenir des cellules cancéreuses. Mais certaines cellules tumorales seulement continuent à se diviser et à se multiplier. Cette observation a conduit à deux théories sur la croissance des tumeurs.


1- Le modèle clonal du cancer
Ce modèle suggère que de nombreuses cellules cancéreuses se divisent, se différencient et contribuent à la croissance tumorale. Ce modèle ne peut expliquer pourquoi la lésion cancéreuse récidive, ni comment naissent les métastases.
Cette théorie suggère que le cancer nait d'un ensemble de cellules qui se divisent et se multiplient, des cellules identiques sans organisation.

2-  Modèle de cellules souches du cancer
Dans le modèle des cellules souches du cancer, on pense que les cellules souches du cancer produisent les autres cellules tumorales. Seules les cellules souches cancéreuses peuvent créer de nouvelles cellules indéfiniment et provoquer ainsi la récidive et les métastases.

modele cellule souche cancereuse clonal


 Le modèle des cellules souches cancéreuses est apparu comme un paradigme important pour expliquer l'hétérogénéité des tumeurs, et leurs résistances aux traitements. Les cellules souches possèdent un patrimoine génétique différent leur permettant de résister aux traitements.  

Selon ce modèle, la lésion cancéreuse, comme les tissus normaux, est pilotée par des cellules souches qui initient l'organisation et la multiplication des autres cellules cancéreuses. Ces cellules souches sont capables de se multiplier, de produire des cellules matures tumorales et non tumorales.


ll existe de nombreuses inconnuessur les cellules souches du cancer. Sont-elles présentes dans tous les types de cancer ? Quelle cellule devient souche et pourquoi ?  Comment les différents gènes, mutations, environnements influent la façon dont les cellules souches du cancer se comportent ?


Le traitement actuel du cancer permet de détruire la majeure partie d'une lésion tumorale, mais épargne les cellules souches cancéreuses, qui sont capables de continuer à se renouveler, et à provoquer une nouvelle croissance tumorale sous forme de récidive ou de métastases.
Le modèle des cellules souches cancéreuses suggère que ces cellules sont plus résistantes à la chimiothérapie et à la radiothérapie que les autres cellules tumorales. Cela peut expliquer la récidive après le traitement.

Plus de détails sur la cellule souche cancéreuse

Les études disponibles pour montrer que les cellules cancéreuses ne sont pas toutes identiques. L'idée suggérant que la lésion cancéreuse est pilotée par une petite population de cellules souches implique d'importantes avancées thérapeutiques. Les thérapies nouvelles contre le cancer peuvent cibler une population précise. Un traitement dirigé spécifiquement contre les cellules souches tumorales peut s'avérer efficace pour guérir le cancer, et empêcher l'apparition des métastases.

modele cellule souche cancereuse traitement

Selon cette théorie, une cellule peut devenir une cellule souche cancéreuse après certaines modifications de son patrimoine génétique, et de ses séquences d'ADN. Les chercheurs ont noté de nombreuses similitudes entre les cellules souches normales qui assurent le renouvellement des tissus, et les cellules souches cancéreuses. Certaine étude suggère que la cellule souche cancéreuse est une cellule souche qui a subi des modifications importantes de son patrimoine génétique. Selon cette approche, une cellule souche cancéreuse est une caricature d'une cellule souche normale. Il ne s'agit pas simplement d'une théorie. Des études récentes ont montré l'efficacité d'un traitement ciblant les cellules souches cancéreuses par un traitement anti-CD47.

Contrairement aux cellules tumorales, les cellules souches cancéreuses ne montrent pas une activité mitotique importante, mais sont capables de s'auto-diviser pour produire toutes les variétés de cellules tumorales. Ces cellules sont capables de résister, de proliférer même hors de l'organisme, et de provoquer une lésion cancéreuse quand ils sont injectés dans les tissus normaux.


Il existe actuellement des marqueurs biologiques pour identifier ces cellules souches comme le  CD34+/ CD38- dans les leucémies, le  CD44+/CD24-  dans le cancer du sein, le CD133+ dans le cancer du cerveau, dans le cancer colo-rectal pulmonaire et endométrial, CD44+/CD24+ dans le cancer pancréatique, CD44+/CD117+ dans le cancer ovarien, CD44+/CD271+ dans le cancer de la gorge, le, CD90 dans le cancer hépatique, le  CD105 dans le cancer du rein et le CD271 dans le mélanome.

Lire la suite
4
  6320 lectures
  0 commentaires
6320 lectures
0 commentaires

Numérique, virtuel et notre réalité

realite-virtuelle

realite virtuelle

 

 

 

En philosophie occidentale, la connaissance de la vérité et de la réalité est une problématique centrale. Vérité et réalité sont des notions qui se recoupent sans se confondre : la vérité touche à la logique et à la raison, la réalité touche aux choses, c’est-à-dire au matériel. La réalité est ce qu’un individu perçoit et comprend. Et le numérique ? Et le virtuel ?

 

Virtuel et réel : question philosophique au début


Selon Lacan, le virtuel n’est pas une forme du réel. Lacan considère une actualité non représentative comme une plénitude absente qui figure dans la langue comme un excès et un manque, mais qui ne peut jamais être représentée. Selon lui, le virtuel est un phénomène qui perturbe l’autorité, et altère les représentations de l’identité de soi.
Certains s’inquiètent de l’importance croissante du virtuel et de l’excès d’abstraction, qui pourraient entraîner une perte de la créativité de l’imagination (Baudrillard, 2000).
Hegel discute le retentissement de l’abstraction dans l’esprit collectif indispensable au maintien de l’État-nation politique. Selon lui, l’identité se réalise à travers un processus de négation des autres identités. Dans l’état nation, l’identité collective dépassant les autres identités est indispensable pour la survie d’une nation. L’abstraction est « indifférente » à tout autre objet, et ne prend en compte aucun autre élément. Il fournit une identité nouvelle et par définition individualiste. (Hegel, 1977).
Deleuze a suggéré que la virtualité inexistante est une impossibilité. Badiou pense que le réel inclut à la fois les formes et les objets concrets (Badiou, 2000). L’abstrait n’existe que dans le concept, mais pas dans la réalité.
Ce résumé affirme que l’évolution numérique a dépassé avec brio certaines critiques formulées par les philosophes et les sociologues, le modèle inventé ne ressemblait pas aux modèles pré existants.

Pour les personnes : Le média est le message

 

Il y a plus d’un demi-siècle, le canadien Marshall McLuhan Herbert, (1911 – 1980), professeur canadien de littérature anglaise et théoricien de la communication, a écrit l’un des livres les plus importants sur la théorie des médias « comprendre les médias » où il a forgé des concepts toujours actuels comme « le village global » et « le média est le message ».
Selon McLuhan, les termes « medium », « technologie », « médias » sont interchangeables. Le sous-titre de son livre, The Extensions of Man, postule que toute technologie est une extension de notre corps et de notre conscience. Quand vous prenez votre voiture, elle devient une extension de vous-même : ses limites sont vos limites, et votre conscience doit prendre en considération sa taille, ses angles, et sa puissance.
Selon McLuhan, le contenu du support n’est pas aussi important que le support lui-même, c’est le support qui change les sociétés, et non pas le contenu.
Nous pouvons noter l‘importance de Google et Facebook comme médium capable de changer nos sociétés. L’indexation des fichiers dépasse par son importance, le contenu des fichiers. Les liens de facebook sont plus déterminants que les textes et les images publiés. Dans le monde virtuel, les clics remplacent les briques, et les liens remplacent les bureaux.
Comme l’écrit de McLuhan, « le “contenu” de tout média nous aveugle sur le caractère du média ». On pourrait penser que la technologie progresse sans cesse, mais ce n’est pas nécessairement le cas. Remarquez l’autre terme que McLuhan attribue à nos créations quand il écrit : « Toute invention ou technologie est une extension ou une amputation de notre corps physique, qui exige de nouveaux rapports et nouveaux équilibres entre les autres organes et extensions du corps. »
Le GPS est une technologie qui modifie progressivement notre mémoire et nos systèmes visuels. Nous regardons une carte virtuelle pendant que nous roulons sur une route réelle. Notre cerveau agit autrement pour s’adapter. C’est le virtuel qui guide et non plus le réel.
Dans les domaines numériques, le réseau, son informatique, ses télécommunications et son infrastructure précèdent l’espace, et deviennent plus déterminants. C’est le sens de cette jolie phrase de Baudrillard (1990) : « La carte précède le territoire ».
Nos technologies définissent nos réalités. Ces outils permettent le meilleur et le pire, défendre la liberté et la démocratie ou s’isoler dans une réalité individuelle sans liens avec les autres.

 

Pour les sociétés : un modèle de liens

 

Comme les pages d’internet, le modèle numérique est un modèle de liens. Il dépasse les critiques philosophiques en créant des liens nouveaux dans le monde réel. Les clics ne remplacent pas les briques, mais orientent le public vers telle, ou telle brique. Avec le numérique, les annonces immobilières deviennent aussi rentables que les services de négociation. Le numérique devient l’intermédiaire indispensable pour la vente, la rencontre, le tourisme et les voyages. Il ne s’agit pas de réalité virtuelle, mais de liens entre des personnes réelles, et des biens matériels.
Ces liens permettent le développement d’un modèle nouveau. Les constructeurs automobiles ont compris que la voiture est un produit et une plate-forme de prestation de services. En fournissant les services de relation avec la clientèle tels que la navigation embarquée mise à jour, l’assistance routière d’urgence, les télécommunications, ou le partage des données peuvent approfondir leurs liens avec leurs clients et générer plus de revenus. C’est dans la combinaison des produits et du service que se génèrent des revenus et des profits. Le produit est important, le service aussi. Les pages des sites web de E-commerce sont transformées en liens de comparaison, d’évaluation et un forum d’opinion, une sorte de mosaïques d’informations personnalisées encore une fois, cette technologie change notre réalité.
Lorsque le produit est un objet matériel ou un service avec des résultats concrets, les marques sont virtuelles. Le virtuel devient réel, il n’a pas la tangibilité du réel, mais il existe. Les clients n’achètent pas une abstraction, mais un bien.
Les modèles commerciaux en ligne qui ont du succès sont axés sur les relations et non pas sur la transaction. Plutôt que de se concentrer sur la réduction des prix pour conclure une seule transaction, les relations et les collaborations et la valeur ajoutée pour les clients sont la clé pour fidéliser la clientèle.

 

Gestion du virtuel et du réel : société d’évaluation

 

La gestion de ce modèle repose sur des rapports complexes. L’absence de contact réel élimine tout compromis.
— L’éthique est indispensable
Ce modèle exige des devoirs éthiques indispensables. En cas de produit de mauvaise qualité, les critiquent font chuter les ventes ou décribilisent le vendeur.
— les services
Les relations avec le client impliquent des services continus, comme l’accompagnement, l’explication, le service après-vente, etc.
— Les services virtuels en ligne doivent bénéficier d’une relation de confiance, de courtoisie, d’économie, échange et une certaine exclusivité.
— Les services doivent répondre avec vitesse et justesse. Le temps est un facteur important dans ce modèle.

 

Virtuel et réel : Les briques comptent plus que les clics


Le modèle virtuel est créatif. Remplacer le réel par le virtuel est une absurdité, mais se lier au réel et imposer de nouvelles règles dans la gestion de ce réel a permis à ce modèle virtuel d’exister.


— Le réel d’abord
La crise du Covid 19 a démontré que le virtuel n’existe pas en cas de perturbations du monde réel, et a offert un éclairage sur les limites du modèle décrit par McLuhan. Si la technologie modifie notre réalité, elle est moins déterminante qu’on le pensait. Pendant la crise Covid 19, de nombreux produits manquaient. On découvre ce que la virtualisation tentait de faire oublier : la production réelle est indispensable à la survie individuelle et à la survie des nations. Les briques comptent plus que les clics.
Le public a découvert que l’économie virtuelle, bien que représentée comme un ensemble de lois réelles ne peut remplacer l’économie réelle. Si le média compte plus que le contenu, que vaut Google sans le contenu des sites et youtube sans les productions artistiques ?


Certains modèles tentent de répondre à ce dilemme, Netflix produit une certaine quantité de ces diffusions, associant le réel et le virtuel. Sa réussite peut indiquer le début d’un modèle fiable ?
C’est aussi le cas d’Amazon et de youtube qui commencent à produire un contenu.
La propriété intellectuelle et la valeur des connaissances accessibles continuent à être un problème important.
Lacan suggérait que le virtuel est un phénomène qui perturbe l’autorité, et altère les représentations de l’identité de soi.

 

 

Quand Hegel écrivait que l’abstraction altère l’esprit collectif indispensable au maintien de l’État-nation politique en cultivant des identités individuelles. Certains voient ces dangers apparaître déjà dans leurs sociétés, le Japon peut être un exemple de l’isolement et du retrait encouragés par le monde virtuel.

 

Références

Badiou, A. (2000) Deleuze (trans. L. Burchill). Minneapolis : University of Minnesota Press.
Baudrillard, J. (1990) The Precession of Simulacra. New York : Zone Books.
Baudrillard, J. (2000) The Vital Illusion. New York : Columbia University Press.
Beineix, J-J. (1999) Otaku : Les Enfants du virtuel. Paris : Denoel.
Blackwell, T. (2002) « Net hotline will allow wives to report “concerns” ». National Post, 27 February, p. 7.
Cappeliez, S. (2001) « McDonaldization » ? Food in a Globalized Culture. Ottawa
Deleuze, G. (1981) Difference and Repetition. New York : Columbia University Press.
Hegel, G. W. F. ((1977) Phenomenology of Spirit. trans. A. V. Miller. Oxford : Oxford University Press.
Lefebvre, H. [1981] La Production de L’Espace [2nd edn]. Paris : Anthropos.

 

 

Lire la suite
0
  1699 lectures
  0 commentaires
Mots-clés :
1699 lectures
0 commentaires

Jean Martin Charcot : de la neurologie à la santé mentale

Charcot

Charcot

" Une leçon clinique à la Salpêtrière ", par Boussais, 1887

 

 

 

Le tableau montre Charcot pendant ses cours. La patiente présente dans le tableau est Marie Wittman. Elle décède à l'âge de 53 ans après une hospitalisation de 27 ans à la Salpêtrière de Paris en raison de sa maladie : l'hystérie.

 

Jean Martin Charcot (1825-1893) fut le maître de l'école de médecine à la Salpêtrière.
Dès 1921, le vieil hospice de la Salpêtrière abrite dans ses vieux murs une pléiade de médecins éminents et de chercheurs intéressés par un terrain presque vierge de la médecine : la neurologie.
Il y avait de nombreux élèves célèbres comme Pinel, Géorget, Ferrus, et Foville. Des médecins comme Delaye et Foville tentaient de montrer que la substance corticale du cerveau était le siège de l'intelligence. À cette époque, les médecins refusaient la possibilité que les lésions du cortex cérébral pouvaient se traduire par des paralysies.


Fils d'un modeste carrossier parisien, Jean-Martin Charcot naquit le 29 novembre 1825, aîné de quatre frères. Son goût pour l'étude le poussa vers la médecine, en dépit de son âme d'artiste. Ce côté artiste, Charcot allait le garder toute sa vie. Il avait une curiosité pour la morphologie corporelle, un goût pour les formes et les jolies choses.


Dès 1848, il est nommé Interne des hôpitaux à la Salpêtrière où Il devient professeur jusqu'à sa mort.
Dès son arrivée, il est intéressé par les déformations corporelles. Il commença d'étudier l'immense variété des maladies rhumatismales chroniques, et consacra sa thèse à l'étude des maladies rhumatismales dans leur forme chronique.
Progressivement, il maîtrise la description des difformités articulaires, et va décrire une maladie spécifique caractérisée par une arthropathie liée à l'ataxie locomotrice. Cette maladie est toujours nommée la maladie de Charcot.
En 1858, Charcot devient médecin des hôpitaux. Il a 31 ans. En 1860, Charcot est nommé professeur agrégé, puis chef de service deux ans plus tard en 1862.


À partir de cette nomination, Charcot s'intéresse à la neurologie, c'est-à-dire à la spécialité médicale concernant les maladies du système nerveux, et allait créer un enseignement des maladies nerveuses à la Salpêtrière. Au début, il s'agit d'un modeste centre. Les auditeurs se groupaient autour du maître dans une salle étroite où le jeune professeur interrogeait et examinait ses patients. Pour chaque cas, Charcot s'efforçait à dépister la nature exacte de la lésion et ses liens avec le système nerveux. Grâce à cette méthode, Charcot se garda de ne jamais tomber dans les erreurs des autres médecins de son époque.


Grâce à l'enseignement de Charcot, la neurologie n'est plus une science clinique ou anatomique, elle devient une discipline médicale associant l'anatomie à la physiologie, la clinique à la pathologie. Avec Charcot, un symptôme ne peut être séparé de la cause qui l'a engendré. Le traitement doit donc s'adresser à la lésion, et non plus aux symptômes.
Après ses études sur les maladies rhumatismales, il étudie les liens entre les maladies musculaires et les lésions nerveuses. En 1878, il est nommé professeur en anatomie pathologique. Encore une fois, il va décrire avec précision le lobule pulmonaire et le lobule hépatique qui portent toujours son nom.

 

 

La maladie de Charcot


Ou sclérose latérale amyotrophique. Il s'agit d'une maladie neurodégénérative paralysante, rare. C'est une maladie de nerfs moteurs, qui dégénèrent progressivement pour faire perdre aux patients le contrôle de leurs muscles : perte de la capacité à bouger les bras, les jambes, puis perte de la capacité respiratoire.
Parmi les patients célèbres présentant la maladie de Charcot, on peut citer l'astrophysicien anglais Stephen Hawking, qui a continué son travail de brillant chercheur en fauteuil roulant. Hawking lui continuait à s'exprimer publiquement, équipé d'un système d'aide à la communication pour parler de l'univers, ou des trous noirs.

La longévité de Stephen Hawking est exceptionnelle. Les patients affectés par la maladie de Charcot décèdent 24 à 36 mois après le diagnostic en raison de leurs problèmes respiratoires.

 

Et la santé mentale

 


Vers la fin de sa carrière, Charcot s'intéresse aux maladies psychosomatiques, et singulièrement à l'hystérie. Après avoir maîtrisé les maladies à base organique, Charcot tenta de réussir où tant d'autres avaient échoué avant lui.
Lorsque Charcot prit ses fonctions au début de 1862, l'hystérie était médicalement, parlant " une terre sans homme ". À La Salpêtrière, ces malades chroniques étaient largement délaissés. Ce fut Bourneville, à être l'un des premiers étudiants de Charcot, à être convaincu et à convaincre son patron de prendre soin de ces patients. Par la suite, les études de Charcot avec Paul Richer, Joseph Babinski, Georges Gilles de la Tourette, Paul Sollier, Pierre Janet, et bien d'autres ont permis de créer les conditions nécessaires pour traiter ces patients.


À cette époque, on ne distinguait pas les épileptiques des hystériques. Les patients étaient traités de la même façon, et généralement sans résultat. Charcot commença son travail par séparer les deux maladies selon des critères cliniques précis.
L'hystérie est une maladie qui se manifeste par des lésions fonctionnelles comme la paralysie ou la perte de la vue sans lésion organique. La patiente est paralysée sans lésion nerveuse, musculaire ou osseuse. Le problème est avant tout psychologique.
Jean Martin Charcot est célèbre pour ses études sur la " construction " de l'hystérie. Charcot pensait avoir isolé l'hystérie comme une pathologie particulière et universelle. Afin de traiter cette maladie, il a utilisé l'hypnose avec une certaine réussite.

Ses travaux sur l'hystérie et l'utilisation de l'hypnose en médecine allaient attirer un large public à ses conférences.

Au printemps 1885, Jean-Martin Charcot, commence ses travaux sur l'hystérie traumatique, notamment chez l'homme, qui dureront jusqu'en 1891. Six mois, plus tard, en octobre 1885, Freud arrive à Paris, suit les conférences de Charcot et fait un séjour dans le service du professeur Charcot, jusqu'en mai 1886.

Charcot souligne, dans ces cas d'hystérie, qu'il existe un problème mental ou psychologique, une idée fixe, une douleur, un deuil, ou une dépression.

Freud a été impressionné par le professeur. Charcot semble porter une attention particulière au jeune Freud, alors âgé de 29 ans. Il lui propose de traduire en Allemand le tome III de ses leçons sur les maladies du système nerveux.
Parmi les leçons du tome III, on trouve les premières leçons de Charcot sur l'hystérie chez l'homme, et plus particulièrement six cas d'hystérie traumatique. Freud assiste aux leçons du mardi.


Freud écrit dans sa lettre du 24 novembre 1885 adressée à Martha Bernays " aucun autre homme n'a jamais eu autant d'influence sur moi. "
Freud va compléter les travaux de son maître.

 

Les techniques d'hypnose, employées par Charcot et Freud, sont connues aujourd'hui sous le nom d'hypnose classique qui constitue la forme la plus simple de la pratique hypnotique basée sur la suggestion directe.


Aujourd'hui, l'hystérie est considérée comme un trouble de santé mentale sans lien avec l'utérus, le sexe féminin, ou avec la sexualité.

 

 

Lire la suite
1
  1881 lectures
  0 commentaires
Mots-clés :
1881 lectures
0 commentaires

Azote : Magendie découvre son rôle en nutrition

Magendie citation

 

 

À la fin du 18e siècle en France, les éléments chimiques principaux ont été identifiés, ainsi que les méthodes nécessaires pour déterminer leur nature. 

Les vapeurs alcalines dégagées par la décomposition animale ont été identifiées comme des vapeurs ammoniaques comportant l'azote ou le nitrogène. Les graisses, les glucides et les amidons ne contenaient selon les connaissances de l'époque que le carbone hydrogène et l'oxygène.

 

La question se posait ainsi : les humains ont -ils besoin de se nourrir pour remplacer leurs tissus ? Comment les aliments qui manquent d'azote peuvent -ils être nutritifs ?

 

Un chirurgien parisien, physiologiste aussi, François Magendie, a étudié cette question en administrant à des chiens plusieurs types de nourritures simples, agréables au goût et sans azote. Les chiens qui consommaient du sucrose (hydrates de carbone) ont commencé à grossir après 10 jours et ils sont morts après un mois de ce régime. D'autres essais utilisant l'huile d'olive, plusieurs sortes de beurres ont donné les mêmes résultats.

Magendie a conclu que les chiens avaient besoin d'un apport nutritionnel comportant  de l'azote pour vivre, et sont incapables de se nourrir et d'assurer leurs besoins en azote en utilisant l'azote atmosphérique, en ajoutant que la multiplicité des éléments nutritifs est une règle d'hygiène importante à la survie.

majendie

L'Académie des Sciences invite Magendie à  étudier si la gélatine, obtenue à prix bas en bouillant des os, pourrait être employée comme produit de substitution des  viandes dans les hôpitaux. Après plusieurs années de recherches, il décrit des résultats contradictoires, les chiens avaient leur apport nutritif adéquat en nitrogène, mais leur santé se détériorait. Il demande l'aide de chimistes pour savoir ce qu'il manque dans cet aliment, pourtant riche en azote, il pensait au manque de fer, ou d'autres éléments minéraux.

Aujourd'hui, nous savons parfaitement  que dans la gélatine manquent les acides aminés essentiels qui sont présents dans la viande des muscles, et que les chiens ne peuvent  survivre en bonne santé à un régime sans acides aminés essentiels.

Magendie en découvrant l'importance de l'azote dans l'alimentation, contribue au progrès des sciences de la nutrition, et souligne que les résultats obtenus durant l'expérience sur un animal pouvaient servir comme base valable à la nutrition humaine. Cette idée fut révolutionnaire dans la pensée médicale en France de cette époque qui considérait les humains comme des espèces ayant un fonctionnement différent de celui des animaux.

 

Magendie :  Tout est à faire

 

Né le 6 octobre 1783 à Bordeaux, il rend l'âme le 7 octobre 1855 à Sannois.

Si vous passez par le cimetière du père La chaise, vous trouverez la tombe de François Magendie, pas très loin de la tombe d'un autre grand médecin, Bichat.  L'ironie du sort a réuni enfin les deux hommes qui ont passé leur vie à opposer leurs doctrines.

On peut définir Magendie comme un physiologiste expérimental, qui découvre pour la première fois les fonctions des nerfs rachidiens, et décrit les effets sur l'organisme de la strychnine et de la morphine, et aussi pour la première fois l'anaphylaxie (choc allergique). Il a fondé le journal de la physiologie expérimentale. On le peut définir également comme le mentor de Claude Bernard.

François Magendie est né à Bordeaux le 6 octobre 1783. À l'âge de huit ans, son père, chirurgien, l'emmène à Paris. Ce père médecin et disciple de Jean-Jacques Rousseau laisse l'enfant libre de toute contrainte. L'enfant comprend vite l'intérêt de l'instruction et entre à l'école primaire pour obtenir à 14 ans le Grand prix de connaissance des droits de l'homme et de la constitution.


En 1791, la famille Magendie monte à Paris où le père fait plus de politique que de médecine. François fréquente l'école élémentaire où il fait de rapides progrès.
À l'âge de 16 ans, il entame ses études médicales auprès de Boyer, chirurgien à l'Hôtel-Dieu. À 19 ans, il est nommé interne, et quatre ans plus tard, aide d'anatomie. L'année suivante, il soutient une thèse " sur les usages du voile du palais avec quelques propositions sur la fracture du cartilage des côtes ". Cette thèse sera le premier de nombreux travaux qui vont procurer à Magendie une gloire et une renommée mondiale.

Magendie a 19 ans lorsqu'il est nommé au titre de deuxième de sa promotion, (27 avril 1803), étudiant en médecine, puis interne à l'hôpital Saint-Louis à Paris. En 1807 il devient assistant en anatomie à l'École de médecine où il donne des cours d'anatomie et de physiologie. Docteur en médecine en 1808, il va œuvrer pour faire entrer la biologie dans le champ des sciences exactes.

Il inaugure sa carrière scientifique par un manifeste où il dénonce le danger des hypothèses, attaquent les doctrines vitalistes de Bichat, et jette les bases d'une physiologie cellulaire, 30 ans avant la découverte de la cellule par Schwann. Il s'intéresse au poison utilisé sur les flèches des indigènes de Java pour isoler plus tard la strychnine. Il étudie le mode d'action  des toxiques, incrimine la voie veineuse, et tente d'en fournir la preuve en inventant la technique des anastomoses vasculaires entre animaux qui sera à l'origine 100 ans plus tard, de la transfusion sanguine.

Il reprend l'étude des toxiques, indique leur action sur l'homme et sur les animaux, et introduit dans la thérapeutique de nombreux médicaments nouveaux, en publiant un formulaire dont le succès sera considérable.

 

Ses travaux ont commencé en 1809 ont eu un énorme retentissement, ils font de Magendie le père de la pharmacologie expérimentale.


Pour se consacrer à ses recherches, il démissionne en 1813 de ses fonctions de professeur, et abandonnent l'anatomie et la chirurgie. Il loue un amphithéâtre, et donne des leçons de physiologie qu'il illustre d'expériences parfois inédites. Il démontre le mécanisme des vomissements, le danger de substance émétique, définit les mouvements de l'oesophage, décrit la formation des images sur la rétine, et la composition du sucre pancréatique. En physiologie, il découvre les troubles oculaires liés aux carences alimentaires, il décrit l'anaphylaxie. Il applique les lois de la physique et de la chimie à l'étude des phénomènes vitaux, dont les conclusions vont être publiées dans un livre important : précis élémentaire de physiologie, qui sera réédité en quatre éditions, livre traduit en allemand et en anglais.

La découverte à laquelle son nom demeure attaché, est celle des fonctions des racines rachidiennes. Ses recherches, vers 1822, l'avaient amené à établir que les racines antérieures sont motrices, les racines postérieures sont sensitives. L'anatomiste anglais Bell prétendait avoir décrit ces phénomènes quelques temps plutôt.

Magendie accepte la priorité de l'anatomiste anglais en ce qui concerne les racines antérieures, et maintient son point de vue pour le reste, et découvre la sensibilité récurrente des racines antérieures. La querelle se prolonge. Finalement, Claude Bernard donne raison à Magendie.

Dans ses Leçons sur le sang, publiées en 1838, Magendie proclame la nécessité d'utiliser toutes les ressources de la science en plein essor : "Un médecin qui n'a pas appelé à son aide la chimie, la physique, qui ne s'est pas livré à l'art difficile des expériences sur les animaux, etc. - et beaucoup sont dans ce cas - ce médecin, dis-je, ne voit souvent dans une réunion de malades que des gens plus ou moins souffrants, des moribonds, des convalescents. "

En 1821, Magendie est nommé médecin des hôpitaux, directeur du service des femmes à l'Hôtel-Dieu. Ses nouvelles fonctions lui valent moins de gloire. D'un voyage d'étude à Londres au moment de l'épidémie de choléra de 1831, il a rapporté l'impression que cette infection n'était pas contagieuse. Un an plus tard, l'épidémie de choléra à Paris de 1832 le fait changer d'avis. Après sa publication sur l'épidémie de choléra, la gazette médicale de Londres publie des articles mettant en cause le crédit du savant français. Cependant, en 1843, il est nommé président du comité d'hygiène publique, et pendant l'épidémie de choléra à Dunkerque, il affirme à nouveau la non-contagiosité du choléra.

À l'occasion de la découverte de l'anesthésie générale à l'éther, Magendie fera d'autres erreurs.

 

À l'Académie des sciences, il critiqua violemment la pratique de l'anesthésie à l'éther qu'il estime dangereuse et sans valeur, s'emportant contre ses contradicteurs, en évoquant la morale, il se fait huer. De son point de vue, l'éther peut provoquer chez les patientes des hallucinations érotiques, et peut mettre en danger le geste du chirurgien. Il déclare qu'il ne saurait soumettre une femme à ce genre d'anesthésie.

 

Des jugements aussi téméraires interrogent chez un homme aussi rigoureux que Magendie. Certains voient dans ces affirmations " puériles " un trait de caractère. En fait, en dépit d'une rigueur scientifique et expérimentale indiscutable, Magendie avait un caractère très difficile. Il était querelleur, combatif, entêté, et un peu irrévérencieux. C'est dans le journal des sciences médicales, le journal de Bichat, qu'i publia son premier mémoire, celui-là dans lequel il critique âprement les théories vitalistes de Bichat en les traitant d'absurdité. D'autre part, Magendie est vaniteux. Quand après l'épidémie de choléra, il reçoit malgré tout la Légion d'honneur, il s'écrie : je la crois bien placée.

 

Le caractère de Magendie est un mélange d'énergie et de franchise, indépendance de jugement et opinions tranchantes et obstinées avec mépris des conventions.  Il se voit en représentant d'une génération nouvelle, en rupture avec tous ceux qui l'ont précédé, de là sa fameuse formule : " supposons que rien n'est fait et que tout est à faire ".

Vaniteux, agressif, Magendie a commis des erreurs célèbres, dont certaines sont difficilement pardonnables : refuser toute valeur aux données du microscope, nier la contagiosité du choléra au cours de l'épidémie de 1832, attaquer Bichat sans relâche.


Ces travers ne peuvent pas diminuer son mérite. Il était un grand travailleur, un ambitieux, studieux ce qui a fait sa carrière et lui-même, il était également un remarquable professeur et un enseignant dévoué.  Il a créé la physiologie moderne et la pharmacologie. Ces élèves étaient peu nombreux, parmi lesquels on peut citer le célèbre Claude Bernard, choisi par Magendie comme préparateur, puis plus tard comme son successeur au collège de France.

 

Magendie est resté en place malgré les changements de régime, témoin de sa compétence, et de son unité. Il meurt en 1855, à l'âge de soixante-douze ans, probablement d'une cardiopathie. Il meurt chargé de gloire et de titres : professeur au collège de France, membre de l'Académie des sciences, membre de l'Académie de médecine, commandeur de la Légion d'honneur. .

 

Réf
J.E Lesch, Science and Medicine in France : The Emergence of Experimental Physiology, 1790-1855, Harvard University Press, 1984

 

 

Lire la suite
1
  1437 lectures
  0 commentaires
Mots-clés :
1437 lectures
0 commentaires

COVID-19 : vaccination et immunité, Questions-réponses

coronavirus

 

 

Les réponses formulées dans cet article proviennent exclusivement des analyses des études médicales publiées jusqu’au 30 juin 2021.

 

 

 

Immunité et efficacité du vaccin

 

Une immunité protectrice se développe-t-elle après une infection par le SRAS-CoV-2 ? Une réinfection est-elle possible ?

Après l’infection, des anticorps spécifiques du SRAS-CoV-2 et des réponses à médiation cellulaire (lymphocytes T et macrophages) sont induits. Il semble que certaines de ces réponses soient protectrices et qu’elles durent généralement au moins plusieurs mois. On ne sait pas si tous les patients infectés développent une réponse immunitaire protectrice ni combien de temps durent les effets protecteurs au-delà des premiers mois après l’infection.

Le risque de réinfection à court terme (dans les premiers mois suivants, l’infection initiale) semble faible, bien que la réinfection se produise sporadiquement pour des raisons mal comprises pour le moment.

 

 

Quelle est l’efficacité de la vaccination pour prévenir la COVID-19 symptomatique ?

L’efficacité du vaccin varie selon le type. Sur la base des données des essais de phase III publiées :

- BNT162b2 (vaccin COVID-19 de Pfizer-BioNTech) présentait une efficacité de 95 % dans la prévention du COVID-19 symptomatique à partir du 7e jour suivant l’achèvement d’une série de deux doses.

- L’ARNm-1273 (vaccin Moderna COVID-19) présentait une efficacité de 95 % dans la prévention des COVID-19 symptomatiques à partir du 7e jour suivant l’achèvement d’une série de deux doses.

- Ad26.COV2.S (vaccin COVID-19 de Janssen/Johnson & Johnson) présente une efficacité de 66 % contre le COVID-19 modéré à sévère et une efficacité de 85 % contre le COVID-19 sévère à ou après 28 jours après l’administration d’une dose unique.

- ChAdOx1 nCoV-19/AZD1222 (vaccin COVID-19 d'AstraZeneca) présente une efficacité de 70 % dans la prévention du COVID-19 symptomatique à deux semaines ou plus après l’achèvement d’une série de deux doses.

 

La vaccination prévient-elle la transmission asymptomatique ?

Les données suggèrent que la vaccination réduit l’infection asymptomatique et symptomatique et ainsi la transmission. Avec les vaccins à ARNm COVID-19 que ce phénomène a été le mieux étudié, bien qu’il ait été démontré que d’autres vaccins réduisent également l’infection asymptomatique.

La protection des vaccins n’étant pas complète, il est recommandé aux personnes vaccinées de continuer à prendre des mesures préventives personnelles et de santé publique lorsqu’elles se trouvent dans des lieux publics intérieurs ou en présence de personnes non vaccinées à risque de maladie grave, afin de réduire le risque de transmission.

 

 

Des infections ont-elles été signalées après la vaccination ?

Oui, des infections graves ont été signalées chez des personnes vaccinées, mais elles semblent être peu fréquentes. Aux États-Unis, au 30 avril 2021, 10 262 cas d’infection ont été signalés parmi 101 millions de personnes entièrement vaccinées (deux doses).
Parmi les personnes ayant contracté une infection, 10 % ont été hospitalisées et 2 % sont décédées, bien que toutes les hospitalisations et tous les décès ne soient pas liés à COVID-19. 27 % des infections étaient asymptomatiques. Parmi les infections, le taux des variants n’étaient pas différent des taux de circulation de ces variants en général. Il n’existe aucune explication de ces infections après vaccin dans l’état actuel des connaissances ?

 

 

Disponibilité des vaccins et indications de vaccination

 

Quels sont les vaccins actuellement disponibles en France, et dans le monde ?

En France (et en Europe), les vaccins suivants sont validés et disponibles :

- BNT162b2 (vaccin COVID-19 de Pfizer-BioNTech).
- mRNA -1273 (vaccin COVID-19 de Moderna).
- Ad26.COV2.S (vaccin COVID-19 de Janssen/Johnson & Johnson).
- AZD1222 (vaccins de l’Université d’Oxford, d’AstraZen eca

BNT162b2 et mRNA-1273 sont des vaccins à ARNm et sont délivrés dans des nanoparticules lipidiques. Une fois injecté et absorbé par les cellules musculaires, l’ARNm exprime la protéine spike de surface du SRAS-CoV-2. La protéine spike assure la médiation de l’attachement viral aux cellules humaines. L’expression de la protéine spike induit des réponses de immunitaires et la production des anticorps neutralisants.

Ad26.COV2.S de Janssen/Johnson & Johnson est basé sur un vecteur adénovirus 26 inactivé qui exprime une protéine spike stabilisée. La disponibilité de ce vaccin a été plusieurs fois interrompue pour évaluer les rares rapports de thrombose cérébrale avec thrombocytopénie associés à la vaccination.

AZD1222, vaccin de l’Université d’Oxford et d’AstraZeneca est un vaccin ADN à base de vecteur adénovirus qui exprime la protéine de pointe de surface. Des cas rares mais graves de thromboembolie associés à ce vaccin ont également été signalés.

 

Quelles sont les indications et les contre-indications de la vaccination ?

En France, on vaccine actuellement par le BNT162b2 [vaccin COVID-19 de Pfizer-BioNTech], mRNA -1273 [ vaccin COVID-19 de Moderna ] et parfois par Ad26.COV2.S [vaccin COVID-19 de Janssen/Johnson & Johnson].

- Les individus âgés de ≥12 ans sont éligibles pour BNT162b2 de Pfizer.


- Les individus ≥18 ans sont éligibles pour mRNA -1273 de Moderna et Ad26.COV2.S de Janssen/Johnson.

Ad26.COV2.S de Janssen/Johnson est associé à un risque faible de thrombose avec thrombocytopénie. Bien que les avantages du vaccin l’emportent sur ce risque dans la plupart des cas, les receveurs potentiels [en particulier les femmes âgées de moins de 50 ans] doivent être conscients de ce risque.

Les contre-indications à ces vaccins sont :

- Pour les vaccins à ARNm COVID-19 :

- Des antécédents de réaction allergique grave, telle qu’une anaphylaxie, après une dose précédente d’un vaccin ARNm COVID-19 ou à l’un de ses composants [y compris allergie à la polyéthylène glycol].

- Une réaction allergique immédiate, quelle que soit sa gravité [y compris de l’urticaire], après l’administration d’une dose antérieure d’un vaccin à mARN COVID-19. Ces personnes ne doivent pas recevoir le vaccin ARNm COVID-19 à moins d’avoir été évaluées par un expert en allergies qui devrait déterminer si le vaccin peut être administré en toute sécurité.

Les composants des vaccins à ARNm COVID-19 sont énumérés sur les sites des autorités sanitaires en France, des pays européens et sur les sites de center for Disease Control and Prevention [CDC] des États-Unis.

Les antécédents de réaction allergique grave à tout autre vaccin devraient être évalués par un médecin. Ils sont considérés comme un risque et non pas comme une contre-indication, à la vaccination mRNA COVID-19.

Pour Ad26.COV2.S de Janssen/Johnson, des antécédents de réaction allergique grave, telle qu’une anaphylaxie, sont des contre-indications.

Les personnes présentant un risque, ainsi que toute personne ayant des antécédents d’anaphylaxie ou d‘allergie sévère doivent être surveillées pendant 30 minutes après la vaccination.
Tous les autres receveurs doivent être surveillés pendant 15 minutes après la vaccination.

 

 

Effets indésirables des vaccins contre le COVID-19

 

 

Quels sont les effets indésirables associés à la vaccination ?

Les effets indésirables les plus courants pour tous les types de vaccins sont les réactions locales au site d’injection [douleurs, inconfort], la fièvre, les maux de tête, la fatigue, les frissons, les myalgies et les arthralgies. Ces réactions sont plus fréquentes chez les personnes jeunes et après la deuxième dose.
L’anaphylaxie est un événement rare rapporté après la réception de vaccins à mARN. Aux États-Unis, 21 cas d’anaphylaxie ont été signalés après l’administration de 1 893 360 doses. L’anaphylaxie est plus fréquente chez les personnes ayant des antécédents d’allergies.
De rares cas de myocardite et de péricardite ont été signalés après l’administration des vaccins ARNm BNTb162b [vaccin Pfizer] et ARNm-1273 [vaccin Moderna], mais pas après l’administration du vaccin Ad26.COV2.S [vaccin Janssen/Johnson & Johnson]. La plupart des cas signalés étaient bénins et sont survenus plus fréquemment chez les hommes, les adolescents et les jeunes adultes. Ils sont généralement apparus au cours de la première semaine suivant l’administration du vaccin, et plus fréquemment après la deuxième dose.

 

Les vaccins COVID-19 sont-ils associés à des complications thrombotiques ? Si oui, quels vaccins ?

De rares cas d’événements thrombotiques [par exemple, thrombose artérielle, thrombose du sinus veineux cérébral] associés à une thrombocytopénie ont été rapportés 5 à 30 jours après la vaccination avec le vaccin COVID-19 d’AstraZeneca et le vaccin COVID-19 de Janssen/Johnson & Johnson. Le mécanisme est similaire à celui de la thrombocytopénie auto-immune induite par l’héparine [TIH].

La prise en charge implique une anticoagulation à dose thérapeutique avec un anticoagulant non héparinique et des immunoglobulines intraveineuses.

En raison de la rareté de ces événements thrombotiques et de la gravité potentielle de la COVID-19, le bénéfice global de la vaccination l’emporte probablement sur le risque thrombotique. Néanmoins, plusieurs pays ont suspendu l’utilisation du vaccin COVID-19 d’AstraZeneca dans l’attente de données supplémentaires.

Le 11 juillet 2021, les autorités sanitaires aux états unis annoncent l’apparition de cas de maladie Gillain Barré [maladie neurologique] en lien avec la vaccination par le vaccin Ad26.COV2.S [vaccin Janssen/Johnson & Johnson]

 

 

Peut-on prendre des analgésiques ou des antipyrétiques en cas d’effets secondaires après la vaccination ?

Les analgésiques ou les antipyrétiques [par exemple, les anti-inflammatoires non stéroïdiens [AINS], paracétamol ou l’acétaminophène] peuvent être pris en cas d’effets secondaires locaux ou systémiques après la vaccination. Cependant, l’utilisation préventive de ces agents avant la vaccination n’est pas recommandée en raison de l’impact incertain sur la réponse immunitaire au vaccin.

 

 

 

Administration du vaccin

 

Peut-on administrer d’autres vaccins avec le vaccin COVID-19 ?

Bien qu’il n’y ait pas de données concernant la sécurité et l’efficacité lorsque les vaccins COVID-19 sont co - administrés avec d’autres vaccins, les études suggèrent que les vaccins COVID-19 peuvent être administrés à tout moment par rapport à d’autres vaccins non COVID-19, et si nécessaire, peuvent être administrés le même jour que d’autres vaccins. On ne sait pas si les effets secondaires locaux et systémiques sont plus fréquents ou plus intenses en cas de co - administration le même jour. D’autres autorités comme le Comité américain consultatif sur les pratiques de vaccination avait précédemment suggéré que les vaccins ne soient pas administrés dans les 14 jours suivant la vaccination par le COVID-19, mais cette recommandation a été révisée en raison des inquiétudes concernant les retards de vaccination.

 

Que se passe-t-il si la deuxième dose d’un vaccin à mARN ne peut être administrée en raison d’une réaction antérieure ?

Pour les personnes qui ont reçu une première dose d’un vaccin à mARN mais qui ne peuvent pas recevoir l’un ou l’autre de ces vaccins pour la seconde dose [par exemple, en raison de contre-indications], Ad26.COV2.S [vaccin COVID-19 de Janssen/Johnson & Johnson] peut être administré tant qu’il n’y a pas de contre-indication.
Les autorités sanitaires américaines suggèrent d’administrer Ad26.COV2.S [vaccin COVID-19 de Janssen/Johnson & Johnson] au moins 28 jours après la dose de vaccin à mARN.

Les personnes qui ont eu une infection par le SRAS-CoV-2 doivent-elles être vaccinées ? Si oui, quand ? Que se passe-t-il si un patient acquiert le COVID-19 après la première dose ?

Oui, la plupart des personnes ayant des antécédents d’infection par le SRAS-CoV-2 devraient être vaccinées. Cependant, pour les personnes qui ont eu une infection par le SRAS-CoV-2 compliquée par un syndrome inflammatoire sévère, la décision de vacciner doit mettre en balance le risque d’exposition, la réinfection et la possibilité d’une maladie grave et la sécurité incertaine de la vaccination chez ces personnes.

En général, la vaccination peut être administrée dès que la personne s’est rétablie de l’infection aiguë [si elle est symptomatique] et qu’elle répond aux critères de cessation des précautions d’isolement. Le dépistage sérologique avant la vaccination n’est pas recommandé. Si l’infection est diagnostiquée après la réception du premier vaccin d’une série de deux doses [par exemple, avec les vaccins COVID-19 à mARN], la deuxième dose doit quand même être administrée.

Il est raisonnable de retarder la vaccination de 90 jours à compter du moment de l’infection ; le risque de réinfection pendant cette période est faible, et le fait de retarder la vaccination permet à d’autres personnes de recevoir le vaccin. Retarder la vaccination de 90 jours est suggéré pour les personnes qui ont été traitées avec des anticorps monoclonaux ou du plasma « convalescent ».

 

Références

1. World Health Organization. Tracking SARS-CoV-2 variants.
2. Davies NG, Abbott S, Barnard RC, et al. Estimated transmissibility and impact of SARS-CoV-2 lineage B.1.1.7 in England. MedRXiv 2021.
3. Horby P, Huntley C, Davies N, et al. NERVTAG note on B.1.1.7 severity. New & Emerging Threats Advisory Group.
4. US Food and Drug Administration. Fact sheet for health care providers emergency use authorization of bamlanivimab and etesevimab.
5. US Food and Drug Administration. Fact sheet for health care providers emergency use authorization of REGEN-COV (casirivimab with imdevimab).
6. US Food and Drug Administration. Fact sheet for health care providers emergency use authorization of sotrovimab.
7. Wang P, Nair MS, Liu L, et al. Antibody Resistance of SARS-CoV-2 Variants B.1.351 and B.1.1.7. BioXRiv 2021.
8. Shen X, Tang H, McDanal C, et al. SARS-CoV-2 variant B.1.1.7 is susceptible to neutralizing antibodies elicited by ancestral Spike vaccines. BioRxiv 2021.
9. Edara VV, Floyd K, Lai L, et al. I nfection and mRNA-1273 vaccine antibodies neutralize SARS-CoV-2 UK variant. MedRxiv 2021.
10. Collier DA, DeMarco A, Ferreira I , et al. SARS-CoV-2 B.1.1.7 sensitivity to mRNA vaccine-elicited, convalescent and monoclonal antibodies. MedRxiv 2021.
11. Wu K, Werner AP, Moliva JI , et al. mRNA-1273 vaccine induces neutralizing antibodies against spike mutants from global SARS-CoV-2 variants. BioRxiv 2021.
12. Emary KRW, Golubchik T, Aley PK, et al. Efficacy of ChAdOx1 nCoV-19 (AZD1222) Vaccine Against SARS-CoV-2 VOC 202012/01 (B.1.1.7). The Lancet (preprint) 2021.
13. Novavax. Press release: Novavax COVID-19 Vaccine Demonstrates 89.3% Efficacy in UK Phase 3 Trial.
14. Pearson CAB, Russell TW, Davies NG, et al. Estimates of severity and transmissibility of novel South Africa SARS-CoV-2 variant 501Y.V2.
15. Wang P, Wang M, Yu J, et al. Increased Resistance of SARS-CoV-2 Variant P.1 to Antibody Neutralization. BioRxiv 2021.
16. Public Health England. SARS-CoV-2 variants of concern and variants under investigation in England. Technical briefing 14. June 3, 2021.
17. Planas D, Veyer D, Baidaliuk A, et al. Reduced sensitivity of infectious SARS-CoV-2 variant B.1.617.2 to monoclonal antibodies and sera from convalescent and vaccinated i ndividuals. BioRxiv 2021.
18. Deng X, Garcia-Knight MA, Khalid MM, et al. Transmission, infectivity, and antibody neutralization of an emerging SARS-CoV-2 variant in California carrying a L452R spike protein mutation. MedRxiv 2021.

Lire la suite
1
  892 lectures
  0 commentaires
Mots-clés :
892 lectures
0 commentaires

Prévention de la maladie d'Alzheimer

Alzheimer sport prevention

 

Maladie d'Alzheimer: quelle pévention?

Malheureusement, il n'existe aucun traitement efficace pour guérir, ou prévenir la maladie d'Alzheimer.
Les traitements disponibles sont utiles à stabiliser la maladie d'Alzheimer à ralentir l'évolution, ou à améliorer la qualité de vie du patient.
Comme toujours en cas de maladie d'origine inconnue, la prévention sera fondée sur les théories disponibles. Il s'agit en vérité des possibilités préventives, dont la certitude sur leur efficacité varie selon les études.

 

Consommer du poisson deux fois par semaine serait recommandée en raison de la richesse des poissons gras comme saumon, sardine, maquereau, en acides gras insaturés de type oméga 3. Ces acides gras sont bénéfiques pour les cellules en général, et pour les cellules nerveuses en particulier.

 

Pratiquer une activité physique régulière adaptée à votre forme physique et à votre âge, cela vous permet de lutter contre l'excès de poids.

 

Réduire votre consommation d'alcool, et votre consommation d'acides gras saturés

 

Augmenter votre consommation de fruits, légumes, légumineuses pour bénéficier de leur richesse en minéraux, en oligo-éléments et en vitamines antioxydants comme les vitamines E, A, C, Zinc, Sélénium.

 

Améliorer autant que possible votre hygiène de vie pour lutter contre les maladies qui peuvent provoquer des démences vasculaires : obésité, diabète, excès de cholestérol, l'hypertension artérielle.

 

De nombreuses études soulignent un lien entre l'usage de l'aluminium dans la vie quotidienne et la maladie d'Alzheimer. Il semble que l'aluminium puisse favoriser ou aggraver le processus de dégénérescence responsable de la maladie d'Alzheimer.

Donc il est important d'être prudent dans l'état actuel de connaissances :

1 - consommer le moins possible d'aliments chargés en additif car certains additifs contiennent de l'aluminium,
2 - éviter les déodorants qui comportent de l'aluminium
3- éviter les ustensiles de cuisine en aluminium quand les casseroles et surtout ne pas utiliser ces ustensiles pour cuire des aliments acides comme le citron pour éviter le risque que l'acide attaque aluminium et détache des particules de ce métal.
4- éviter la cuisson en papillote qui peut libérer des particules d'aluminium sous l'effet de la chaleur dans la nourriture.
5- éviter les produits de beauté comportant les sels d'aluminium.
6- le traitement d'eau du robinet utilise parfois l'aluminium.

Toutes les études confirment que les activités cognitives et intellectuelles peuvent entretenir la mémoire, éviter ou ralentir la maladie d'Alzheimer. Ces activités sont les activités intellectuelles simples comme lire, se cultiver, s'informer, enrichir ses capacités intellectuelles.

 

Dans vos assiettes :
- des fruits en grande quantité, surtout les fruits riches antioxydants : cassis, citron, clémentine, fraises, framboises, kiwi, mangue, Orange, pamplemousse
- des légumes en grande quantité et surtout : brocoli, chou rouge, carottes, cresson, épinards, tomates, ail, échalotes.
- autre comme le blé germé, légumineuses
- thé vert, thé Earl Grey, thé noir.
- pour lutter contre l'anxiété : des tisanes avec fleur d'oranger ou tilleul

Réf:
Yaffe K, Weston A, Graff-Radford NR, et al. Association of plasma beta-amyloid level and cognitive reserve with subsequent cognitive decline. JAMA 2011; 305:261.
Gupta VB, Laws SM, Villemagne VL, et al. Plasma apolipoprotein E and Alzheimer disease risk: the AIBL study of aging. Neurology 2011; 76:1091.

Autres liens utiles sur ce sujet : Maladie d'Alzheimer actuellement

 

 

Lire la suite
3
  3411 lectures
  0 commentaires
3411 lectures
0 commentaires

Trouble bipolaire actuellement : définition et causes

femme trouble bipolaire

 

Trouble bipolaire actuellement

Le trouble bipolaire est une maladie fréquente invalidante qui se caractérise par des troubles de l'humeur de type manie ou hypomanie accompagnés de symptômes dépressifs parfois sévères.
Les patients souffrent d'hypomanie et d'épisodes dépressifs majeurs.
 


Définition du trouble bipolaire

Le trouble bipolaire est un trouble de l'humeur qui se caractérise par des épisodes d'euphorie (manie), d'hypomanie (épisodes de dépression majeure.)
Il existe deux sous-types du trouble bipolaire : I et II.

Trouble bipolaire de type I
On utilise le terme maladie pour désigner une lésion organique et le terme trouble pour désigner une lésion mentale ou psychologique.     
Les patients atteints du trouble bipolaire de type I sont affectés par des épisodes maniaques et des troubles dépressifs majeurs, accompagnés d'épisodes hypomaniaques.


Trouble bipolaire de type II
Le trouble bipolaire II est caractérisé par, au moins un épisode hypomaniaque, au moins (épisode dépressif majeur) et l'absence d'épisodes maniaques.

 

Épidémiologie du trouble bipolaire chez les adultes

Selon de nombreuses études, le trouble bipolaire affecte 1 à 3 % de la population dans le monde.
Dans une enquête menée dans 14 pays, la fréquence du trouble bipolaire I et II est de 2,8 %. Une étude concernant 11 pays a montré que la fréquence du trouble bipolaire de type I est de 0,6 %., la fréquence du trouble bipolaire de type II est de 0,4 %.


L'âge moyen de l'apparition du trouble bipolaire de type de I est 18 ans, et pour le trouble bipolaire de type II est de 20 ans. La fréquence de cette maladie est identique chez les hommes et les femmes.
L'organisation mondiale de la santé classe le trouble bipolaire dans la 46ème place dans son classement des maladies les plus invalidantes, qui compte 291 maladies, avant le cancer du sein, et avant la maladie d'Alzheimer.  De nombreux patients bipolaires ne reçoivent jamais de traitement. Dans une étude américaine, la fréquence du trouble bipolaire de type I est 1 %, et le trouble bipolaire II et de 1,1 %. L'âge moyen de l'apparition du trouble bipolaire I  est 18 ans, le type II est de 20 ans.


Le trouble bipolaire est la première cause d'invalidité de la tranche d'âge de 18 ans aux États-Unis. En cas d'épisodes maniaques ou hypomaniaques, le fonctionnement psychosocial est altéré dans 70 % des cas. En cas d'épisodes dépressifs majeurs, le fonctionnement psychosocial est altéré dans 90 % des cas.
Parmi les patients qui consultent les psychiatres, la fréquence du trouble bipolaire est de 1 à 4 %.

 

Les causes du trouble bipolaire

La cause principale du trouble bipolaire est inconnue. Il semble qu'il existe des facteurs biologiques, psychologiques, et des facteurs sociaux.
La génétique, l'histoire familiale, les antécédents familiaux jouant un rôle dans le trouble bipolaire. Les études montrent que les facteurs familiaux sont impliqués dans l'apparition du trouble bipolaire.
Le risque d'apparition de trouble bipolaire, en cas d'antécédent familial du premier degré, est de 5 à 10 %. Dans une étude publiée en Suède, le risque du trouble bipolaire augmente si le parent était affecté, ce risque est de 6 %. En cas d'une sœur ou d'un frère affecté, le risque est de 7 %.
En cas de jumeau monozygote (vrais jumeaux), le risque est de 40 à 70 %.


Les gènes impliqués dans le trouble bipolaire ont été largement étudiés, sans résultat précis pour le moment. La prédisposition génétique semble dépendre de plusieurs gènes, plutôt que d'un seul.
Les gènes impliqués dans l'apparition du trouble polaire, sont également impliqués dans d'autres pathologies psychiatriques comme la dépression majeure, la schizophrénie, les maladies des autistes.

Neurobiologie
Il existe plusieurs preuves des modifications du fonctionnement cérébral chez les patients affectés par le trouble bipolaire.
Il n'est pas clair que les changements observés soient à l'origine de la maladie, ou une conséquence de la maladie.
L'imagerie médicale suggère que le trouble bipolaire est une maladie évolutive. La durée moyenne de vie après le diagnostic de la maladie est de 24 ans selon certaines études, d'autres études démontrent une modification de la substance grise chez certains patients affectés par cette maladie.


Les facteurs psychosociaux
L'âge paternel avancé est associé à des mutations génétiques nombreuses dans le sperme, cela peut augmenter le risque du trouble bipolaire.
Les enfants nés d'un mariage de parents âgés de  20 à 24 ans, ont six fois moins de risque de trouble bipolaire que les enfants nés de parents âgés de 45 ans et plus.
Les événements stressants de la vie comme la maltraitance infantile sont associés à l'apparition du trouble bipolaire, et à une aggravation de la maladie.


Le trouble bipolaire est plus fréquent chez les personnes ayant déclaré des antécédents d'abus physique durant l'enfance.

 

Dans certaines études, les patients atteints de troubles bipolaires sont victimes de violences psychologiques et de violences sexuelles durant leur enfance. Les abus sexuels sont associés avec un trouble bipolaire sévère, aux cycles rapides.

 

Références
1. American Psychiatric Association. Diagnostic and Statistical Manual of Mental Disorders, Fifth Edition (DSM-5), American Psychiatric Association, Arlington, VA 2013.
2. Murray CJ, Vos T, Lozano R, et al. Disability-adjusted life years (DALYs) for 291 diseases and injuries in 21 regions, 1990-2010: a systematic analysis for the Global Burden of Disease Study 2010. Lancet 2012; 380:2197.
3. US Burden of Disease Collaborators. The state of US health, 1990-2010: burden of diseases, injuries, and risk factors. JAMA 2013; 310:591.
4. Cerimele JM, Chwastiak LA, Dodson S, Katon WJ. The prevalence of bipolar disorder in general primary care samples: a systematic review. Gen Hosp Psychiatry 2014; 36:19.
5. Cross-Disorder Group of the Psychiatric Genomics Consortium. Identification of risk loci with shared effects on five major psychiatric disorders: a genome-wide analysis. Lancet 2013; 381:1371.
6. Serretti A, Fabbri C. Shared genetics among major psychiatric disorders. Lancet 2013; 381:1339.
7. Schneider MR, DelBello MP, McNamara RK, et al. Neuroprogression in bipolar disorder. Bipolar Disord 2012; 14:356.
8. Strakowski SM, Adler CM, Almeida J, et al. The functional neuroanatomy of bipolar disorder: a consensus model. Bipolar Disord 2012; 14:313.
9. Gildengers AG, Chung KH, Huang SH, et al. Neuroprogressive effects of lifetime illness duration in older adults with bipolar disorder. Bipolar Disord 2014; 16:617.
10. D'Onofrio BM, Rickert ME, Frans E, et al. Paternal age at childbearing and offspring psychiatric and academic morbidity. JAMA Psychiatry 2014; 71:432.
11. Sugaya L, Hasin DS, Olfson M, et al. Child physical abuse and adult mental health: a national study. J Trauma Stress 2012; 25:384.
12. Gilman SE, Ni MY, Dunn EC, et al. Contributions of the social environment to first-onset and recurrent mania. Mol Psychiatry 2014.
Etain B, Aas M, Andreassen OA, et al. Childhood trauma is associated with severe clinical characteristics of bipolar disorders. J Clin Psychiatry 2013; 74:991.

 

 

Lire la suite
2
  4600 lectures
  0 commentaires
4600 lectures
0 commentaires

Hypertension artérielle : trouvez le bon chiffre

hypertension arterielle

 

Docteur, quelle est la tension artérielle optimale pour moi ?

Depuis de nombreuses années, aucun médecin ne peut répondre à la question de son patient : quelle est la tension artérielle que je dois avoir pour éviter les problèmes ? Votre médecin vous répondra : autour de 14 / 10.
Dans les années 1950, les médecins pensaient que la pression devrait être simple : 100 plus l'âge de la personne. Donc, à l'âge de 60 ans, la tension normale était de 160.

En 1991, de nombreuses études ont confirmé que la tension artérielle inférieure à 150 est un chiffre pour prévenir les crises cardiaques et les accidents vasculaires.

Actuellement, les comités scientifiques recommandent une pression artérielle systolique de 140, et 150 chez les personnes âgées de 60 ans et plus, en faisant valoir qu'il n'y a pas de données scientifiques convaincantes montrant qu'il est utile d'avoir une pression sanguine inférieure à ces chiffres.


C'est quoi la tension ? C'est quoi une hypertension artérielle ?

La tension artérielle est la pression du sang sur les parois des vaisseaux surtout les artères.

Le chiffre 14 est la tension systolique (quand le cœur se contracte) et le chiffre 10, la tension artérielle basse ou diastolique, celle quand le coeur se repose. Ces chiffres 14/10 sont un compromis entre les risques de l'hypertension et les effets secondaires des médicaments, et surtout un seuil important chez les personnes âgées qui ont besoin d'une tension légèrement plus élevée pour irriguer le cerveau. L'hypertension artérielle est une maladie caractérisée par une augmentation de ces chiffres en raison de la résistance des parois artérielles (rigidité).


Des données plus récentes

Les études récentes confirment qu'une tension inférieure à 120 réduit de 30 % le risque de crises cardiaques, d'insuffisance cardiaque et d'accident vasculaire cérébral et réduit la mortalité de 25 %. Ces études proposent d'aider les patients à atteindre une pression artérielle de 120 et non plus de 140 ou 150.

Une pression systolique de 120 pourrait être une bonne chose chez les personnes en bonne santé. Les études déconseillent de chercher à atteindre ce chiffre en utilisant des médicaments en raison des effets secondaires qui vont annuler tout avantage. Les personnes âgées pourraient être particulièrement vulnérables à une pression artérielle trop basse.

Dans les études récentes, il n'est pas facile de baisser la tension artérielle à 120. Pour y arriver, certains patients sont obligés de prendre trois médicaments par jour. Le coût financier n'est pas un problème dans le traitement de l'hypertension, 90 % des médicaments sont disponibles en générique. Par contre, les effets secondaires posent un réel problème.

 

Une pression artérielle autour de 120 semble réduire le risque cardio-vasculaire et les accidents vasculaires cérébraux, par contre, il est difficile dans l'état actuel de prétendre que cette tension artérielle à 120 protège les patients, des maladies rénales et de la démence vasculaire.

 

Les directives européennes conseillent une pression artérielle inférieure à 150 sauf chez les personnes âgées. Ces directives ne sont pas en contradiction avec les études récentes.

 

Lire la suite
2
  3775 lectures
  0 commentaires
3775 lectures
0 commentaires

Internet : nos mémoires et nos connaissances ?

internet savoir encyclopedie

 

Internet : relativiser nos connaissances, modifier nos mémoires


Internet est probablement le témoignage d'une révolution numérique sans précédent, une révolution qui est en train de changer notre société jour après jour, aussi profondément que les changements provoqués par la révolution industrielle.
Cette révolution numérique modifie nos approches de l'industrialisation et de la consommation, nos relations les uns avec les autres, mais également notre façon d'apprendre, de mémoriser, et de rechercher les informations nécessaires.

 

Nous sommes ignorants face à Google ??

Dans une étude publiée en 2015, dans le département de psychologie à l'université de Waterloo, les chercheurs ont demandé à 100 participants de répondre à une série de questions de culture générale comme par exemple : quelle est la capitale de la France. Les participants indiquent s'ils connaissent ou citent la réponse. La moitié de ces participants ont eu accès à Internet pour chercher la réponse.
5 % des participants qui ont accès à Internet ont répondu qu'ils ne savaient pas la réponse en dépit de leur accès à Internet. En discutant avec ces personnes, les chercheurs ont remarqué que dans certains contextes, les personnes ayant accès Internet déclarent se sentir plus ignorants par rapport à la population sans accès à Internet.
L'omniprésence d'Internet met à portée de main une quantité inimaginable d'information. Les gens semblent plus dépendants d'Internet que de leur propre connaissance. L'accès à Internet a  rendu le savoir un sujet discutable.  Si vous dites dans une réunion que vous connaissez un événement de l'histoire de Louis XIV, certains risquent de vous accuser d'avoir consulté Internet avant de répondre. En même temps, vous risquez une autocensure, car en cas d'erreur ou d'approximations, n'importe qui peut consulter Internet et trouver la réponse.
L'accès Internet affecte nos décisions. Les informations stockées dans nos mémoires sont mises en question, sont parfois dévalorisées par rapport aux informations disponibles sur internet.

 

internet memoire infomrations

 

Mémoire humaine modifiée par Internet ??


La facilité d'accès Internet avec ces informations nous rend dépendant. Cette facilité modifie progressivement nos mémoires, la quantité de connaissances stockées dans nos cerveaux, et notre façon d'apprentissage.
On le constate au quotidien, les études publiées confirment que nous utilisons Internet de plus en plus comme une aide mémoire. Le chercheur Benjamin Storm a réalisé une expérience simple : il opposait à deux groupes une série de questions difficiles, un groupe qui utilise Google, et un groupe qui compte sur sa propre mémoire. Un deuxième temps, les participants ont répondu à une série de questions faciles.
Les personnes ayant consulté Internet pour répondre aux questions difficiles ont consulté Internet également pour répondre aux questions faciles. 30 % des participants n'ont même pas essayé de répondre à une seule question facile en comptant sur leur propre mémoire.
Le chercheur Benjamin Storm formule sa conclusion : La mémoire humaine est en train de changer. Nous utilisons l'Internet pour soutenir et étendre notre mémoire, nous devenons dépendants de ce réseau. Nous n'essayons pas de nous rappeler quelque chose, on fait appel à nos ordinateurs et à nos Smartphones pour trouver la bonne réponse.
Comment va évoluer ses dépendances vis-à-vis de la technologie numérique ? Internet est de plus en plus sophistiqué, fiable, et rapide, capable de nous fournir des réponses utile. On peut imaginer que la mémoire humaine va se concentrer sur d'autres connaissances.

 

Concernant la vie de Louis XIV, il serait plus pratique de connaître le mot de passe, les liens Internet nécessaires pour trouver les réponses, et les connaissances utiles pour trouver et stocker l'information recherchée sur la vie du Roi-Soleil.

 

Lire la suite
3
  4548 lectures
  0 commentaires
4548 lectures
0 commentaires

Virus, viroïdes et prions sont différents

virus viroide prion

 

Virus, viroïdes et prions : ressemblance et différence

Nous sommes tous familiers avec les bases des virus : Ces particules infectent les cellules vivantes pour fondamentalement faire des ravages dans tout le corps.  Les virus sont responsables de nombreuses maladies humaines comme l'hépatite, le sida, la varicelle, etc.
Cependant, en dépit de leur structure plutôt simple, il existe d'autres agents infectieux appelés viroïdes et prions, capables de provoquer des ravages sur les plantes et sur les animaux, et sur les humains.


En 1953, André Lwoff  a proposé une définition des virus en quatre points :
 - Un virus n'a ni cytoplasme ni noyau, mais un acide nucléique, des protéines en une structure définie et constante, qui possède des éléments de symétrie.
-  Un virus ne renferme qu'un type d'acide nucléique, ADN ou ARN, jamais les deux.
- Un virus est incapable se diviser. Il se reproduit - uniquement à partir de son matériel génétique (l'acide nucléique).
-  Un virus est un parasite absolu, il possède l'information nécessaire à la synthèse de ses propres constituants, mais n'a pas les moyens d'exprimer cette information.
Ces quatre points sont essentiels pour distinguer un virus d'une cellule ou d'une bactérie.  
Les viroïdes eux sont de simples boucles d'ARN d'environ 300 nucléotides, qui infectent certains végétaux (pomme de terre, tomate, cocotier, etc.), ne codent aucune protéine. Leur faculté d'infecter est liée à des interactions avec les mécanismes de la cellule infectée.
Les prions sont des protéines parfois associées à un acide nucléique, capables de provoquer, après une longue période d'incubation, des maladies neurodégénératives chez les mammifères (tremblante du mouton, maladie des vaches folles, maladie de Creutzfeldt-Jacob chez l'homme). La protéine prion est une structure particulière tridimensionnelle. Sa forme mutée, transmissible, serait pathogène.

 

virus hepatiteA hepatiteb hepatitec

 

Les virus

Les virus sont des micro-organismes infectieux à structure bien définie. Le virus est un parasite absolu, ne pouvant pas vivre en dehors de la cellule vivante qui l'héberge, possédant un seul type d'acide nucléique ARN ou ADN et se reproduisant à partir de son seul matériel génétique
Les virus sont responsables d'un grand nombre de maladies, bénignes ou plus graves, affectant tous les êtres vivants, l'homme (grippe, hépatites, poliomyélite, Sida), des animaux vertébrés (peste bovine, porcine, aviaire, fièvre aphteuse, etc.) ou des animaux invertébrés (ver à soie, virus sigma de la drosophile, etc.), ou encore des végétaux (virus de la mosaïque du tabac.)
Les êtres unicellulaires sont également infectés par des virus, appelés phages chez les bactéries (bactériophages lambda, virus kappa des paramécies).


En dehors de l'hôte, un virus est une particule inerte, un virion sans métabolisme, sans la capacité de réplication, sans activité autonome.
Un virus est un court acide nucléique ARN ou ADN portant une information génétique qui s'exprime exclusivement à l'intérieur d'une cellule, et qui se déplace d'une cellule infectée à une autre à l'intérieur d'une enveloppe.
L'enveloppe virale, ou la capside, est une structure protéique résistante que l'on retrouve chez tous les virus.


Le cycle de vie des virus passe par les mêmes étapes. Le cycle est amorcé par la contamination d'un organisme. L'infection débute avec la reconnaissance des cellules cibles de l'hôte et la pénétration du virus dans ces cellules. Grâce à diverses transformations moléculaires, le génome viral intervient dans le métabolisme cellulaire pour être traduit en protéines, puis répliqué. Enfin, à partir des différents constituants qui sont codés par le virus et synthétisés par la cellule, les virions s'assemblent dans le cytoplasme, puis sont libérés dans le milieu extérieur.

 

viroide


Les viroïdes

Un viroïde est une particule, plus petite que les virus  composé d'un seul ARN  et sans capside.  Les viroïdes sont les plus petites entités biologiques connues. Ils n'ont pas de capside, cette enveloppe de protéines qui entoure le génome des virus : ce sont de simples brins d'ARN (acide ribonucléique), bouclés sur eux-mêmes.

 

viroide tomate


Contrairement aux virus, ils ne codent aucune protéine et ne présentent pas d'enveloppe ou de capsule protectrice : l'ARN est seul, nu, sous la forme d'une boucle fermée dont l'organisation tridimensionnelle est très structurée.
Ils se répliquent à l'intérieur des cellules infectées par un mécanisme en cercle. Leur génome ne code apparemment pour aucune protéine. Ils sont dépendants de leur hôte pour assurer certaines étapes de leur cycle vital. On connaît aujourd'hui 29 espèces de viroïdes appartenant à deux groupes distincts.
L'ARN viroïdal contamine les plantes via leur système de vascularisation et est transmis par reproduction végétale, lors de contacts entre plantes blessées, ou par les insectes. Une fois introduit dans une cellule végétale, l'ARN viroïdal est traité par celle-ci : il est transcrit par une enzyme locale, une ARN polymérase, puis la copie obtenue est refermée en boucle par une autre enzyme locale, une ARN ligase. Ce viroïde pourra à son tour être transcrit et se propager dans d'autres cellules. Selon leur séquence, les viroïdes provoquent le dépérissement de la plante en modifiant l'expression des protéines, ou restent latents.

 

viroide pomme de terre


Les viroïdes affectent les cultures comme les tomates, les pommes de terre et les arbres fruitiers. Ils ne causent pas DE la maladie humaine, mais ils peuvent anéantir les cultures, et provoquer de sérieuses pertes économiques.

Les méthodes de protection mises en place pour contrôler les épidémies consistent à éliminer les plantes infectées, et à mettre en œuvre des mesures prophylactiques destinées à empêcher la propagation et sa dissémination vers de nouvelles cultures. Certaines plantes sont plus résistantes que d'autres.
Le "virus" de l'hépatite delta, spécifique de l'homme, est un virus qui ne peut se multiplier qu'en présence du virus de l'hépatite B dont il "emprunte" l'enveloppe.
Le génome du virus d'hépatite Delta est en fait affilé aux viroïdes. C'est le seul exemple d'une atteinte par des viroïdes en dehors de cellule végétale.
 
Les viroïdes (ou leurs proches ancêtres) auraient eu de grandes chances de persister : petits, ils ont plus de chances d'être transcrits avec peu d'erreurs ; circulaires, ils n'ont pas besoin de séquence d'amorçage pour être copiés ; compacts et robustes, ils résistent à des conditions de pression et de température qui pourraient correspondre à celles où est née la vie. Certains pensent que la vie à ses débuts pourrait ressembler à ces molécules. Ils nomment ce monde ancien avant l'apparition de la vie sous sa forme actuelle : le monde d'ARN  

 

prion

 

Les prions

Pour le prix Nobel de médecine 1997, Stanley Prusiner, les protéines prions sont à l'origine de l'ensemble des maladies neurodégénératives.

Les prions sont les agents transmissibles responsables des encéphalopathies spongiformes subaiguës transmissibles. Le prion dérive d'une protéine qui existe à l'état naturel chez tous les mammifères et chez l'homme.  
C'est une protéine inerte, une simple chaîne d'acides aminés, qui, à la différence d'un agent infectieux (virus ou bactérie) n'a pas la faculté de se reproduire. Cette protéine ne provoque aucune réaction de type immunitaire de la part de l'organisme, et en particulier pas de formation d'anticorps .
Le prion est une protéine normale de l'organisme que l'on voit à proximité des cellules nerveuses en régénération. L'hypothèse serait que cette protéine changerait de forme pour une cause inconnue, et qu'elle deviendrait alors pathologique, responsable de la maladie de Creutzfeld-Jakob .
Le prion a une spécificité pour les tissus nerveux, d'où les signes de la maladie : tremblements perturbant les mouvements, paralysie, troubles de la sensibilité et surtout à terme démence par destruction des structures nobles du cerveau.
Le prion est transmis avant tout par voie alimentaire, en consommant des tissus contaminés : il s'agit de certains dérivés de bovins pour la maladie de Creutzfeld-Jakob et du cerveau humain pour le kuru chez des cannibales de Nouvelle-Guinée. La possibilité d'une transmission par voie sanguine a été évoquée, de même qu'une contamination par le lait ou encore par les porcs ou les poulets.
Un autre mode de transmission a été évoqué, celui d'une troisième voie : la transmission d'un agent pathogène par un autre mécanisme : la transmission de la vache au veau, et la contamination alimentaire par des farines infectées.
Le prion n'est détruit que par une température très élevée (138 pendant 20 mn sous une pression de 3 atmosphères).

Lire la suite
25
  12887 lectures
  1 commentaire
Commentaire récent pour cet article
Guest — Alger chérie

prion

merci, explication simple et efficace
dimanche 22 octobre 2017 02:26
12887 lectures
1 commentaire

Origine de la vie vers le monde ARN

origine vie


L'origine de la vie est toujours d'actualité   


Les travaux scientifiques sur les origines de la vie adoptent des approches diverses fondées sur la biologie, la biochimie ou la chimie. L'approche expérimentale des origines de la vie a commencé dans les années 1950, grâce aux travaux de Miller confirmant la possibilité d'une synthèse d'acides aminés et d'autres molécules organiques dans les conditions particulières de la terre avant l'apparition de la vie.  
La première preuve de la vie sur Terre provient de fossiles découverts en Australie occidentale qui remontent à environ 5 milliards d'années.
La vie organique nécessite des matériaux capables de se multiplier, de s'adapter et de se régénérer. Les êtres vivants sont riches en protéines, en acides aminés, et en enzyme. Les enzymes sont des protéines spécifiques capables de déclencher des réactions chimiques. On les nomme catalyseurs.
Une protéine est un polymère d'acides aminés. L'ADN et l'ARN sont des polymères de nucléotides. Les protéines forment les muscles, les os, la peau, les cheveux et toutes les parties structurales des cellules et des corps. Les humains peuvent produire bien plus de 100 000 protéines, une bactérie peut produire un à deux milles protéines différentes.

abs11.5 rouge Les théories disponibles sur l'origine de la vie.

origine vie biopese


abs11.5 rose Étincelle électrique et naissance des acides aminés

La foudre pourrait avoir fourni l'étincelle nécessaire à la vie. Les étincelles électriques peuvent générer des acides aminés et des sucres à partir d'une atmosphère chargée d'eau, de méthane, d'ammoniac et d'hydrogène, comme le montre la célèbre expérience Miller-Urey rapportée en 1953, suggérant que la foudre aurait pu aider à créer les principaux éléments de la vie sur Terre dans ses premiers jours.
Dans les années 1920, le scientifique russe Aleksandr Oparin et le scientifique anglais JBS Haldane ont proposé l'hypothèse d'Oparin-Haldane : la vie sur terre pourrait découler, pas à pas, à partir de la matière non vivante par un processus d'évolution chimique progressive.
Dès 1924, Alexandre Oparin suggéra que les molécules organiques utilisées par les premiers systèmes vivants furent fabriquées dans l'atmosphère primitive à partir de méthane, CH4. L'hypothèse d'Oparin se trouva confortée trente ans plus tard par l'expérience de Stanley Miller qui obtint quatre acides aminés protéiques en soumettant un mélange gazeux de méthane, d'hydrogène, d'ammoniac et d'eau à des décharges électriques.

Oparin et Haldane pensaient qu'au début, la Terre avait une atmosphère pauvre en oxygène dans laquelle les molécules ont tendance à donner des électrons. Ces molécules inorganiques auraient pu réagir avec l'énergie de la foudre ou du soleil pour former des des acides aminés et ses nucléotides.
Ces blocs de construction pourraient avoir été combinés dans d'autres réactions, formant des molécules plus larges et plus complexes (polymères) comme des protéines et des acides nucléiques, peut-être dans des bassins au bord de l'eau.
Les molécules organiques ont pu également se former dans les sources chaudes sous-marines.
En 1992, Hiroshi Yanagawa et Kensei Kobayashi ont simulé en laboratoire les conditions d'environnements sous-marins (pression de 200 kg/cm2). Ils ont identifié des traces d'acides aminés comme la glycine et l'alanine en partant d'un mélange de méthane et d'azote.

origine vie argile

abs11.5 rose L'argile : Le minéral devient organique

Une étude récente utilisant une approche différente de Miller et Urey a découvert que les nucléotides d'ARN pourraient être formés à partir de composants inorganiques dans des conditions ressemblant à celles de la terre primitive.
A partir de ces expériences, il semble raisonnable d'imaginer que certains des blocs de la vie auraient pu se former sur la terre primitive.  
Cairns-Smith suggère que les cristaux minéraux dans l'argile auraient pu organiser les molécules organiques. Après un certain temps, les molécules organiques ont évolué pour devenir autonomes.  

origine vie polymeres

abs11.5 rose Commencement simple : Des petits deviennent polymères

La vie exige le groupement des petits blocs dans des ensembles plus complexes, les polymères. C'est-à-dire le groupement des acides aminés pour créer des protéines, et les nucléotides pour créer ADN ou ARN.

Dans les années 1950, le biochimiste Sidney Fox et ses collègues ont découvert que si les acides aminés étaient chauffés en l'absence d'eau, ils pouvaient se lier pour former des protéines. Fox a suggéré que l'eau de l'océan, chauffée par un flux de lave aurait pu produire des protéines.
D'autres expériences dans les années 1990 ont montré que les nucléotides d'ARN peuvent être liés ensemble lorsqu'ils sont exposés à une surface d'argile qui peut agir comme un catalyseur pour former un polymère d'ARN.  L'argile comme d'autres surfaces minérales auraient pu jouer un rôle dans la formation de polymères.

origine vie panspermia


abs11.5 rose Panspermia : Les molécules organiques venues de l'espace

L'idée que des molécules organiques pourraient voyager vers la Terre sur des météorites peut ressembler à la science-fiction. Les scientifiques ont découvert que les molécules organiques peuvent être produites à partir de simples précurseurs chimiques présents dans l'espace, dans des conditions qui pourraient exister (irradiation UV élevée et basse température).
Diverses météorites se sont révélées contenir des composés organiques (dérivés de l'espace et non de la Terre). Une météorite, ALH84001, venue de Mars contenait des molécules organiques. Une autre météorite, la météorite de Murchison portait des bases azotées (comme celles trouvées dans l'ADN et l'ARN), ainsi qu'une grande variété d'acides aminés.
Une météorite tombée en 2000 au Canada contenait de minuscules structures organiques appelées "globules organiques". Les scientifiques de la NASA pensent que ce type de météorite pourrait être tombé sur Terre au début de l'histoire de la planète, en l'ensemençant avec ce type de composés.
Les sondes Vega-1 et 2 ont permis de montrer que la comète de Halley est riche en matériau organique. Parmi les molécules identifiées, on retrouve l'acide cyanhydrique et le formaldéhyde. D'autres molécules ont été trouvées dans les comètes Hyakutake en 1996 et dans la comète de Hale-Bopp en 1997.

abs11.5 rose Le monde ARN

C'est la théorie la plus populaire actuellement.
Toutes les cellules vivantes possèdent trois grandes classes d'ARN, impliquées dans la biosynthèse des protéines : les ARN messagers (ARNm), les ARN de transfert (ARNt), et les ARN ribosomaux (ARNr).
Synthétisés dans le noyau cellulaire au cours de la " transcription " des gènes faisant partie de l'ADN des chromosomes, ces ARN, en simples brins, sont transférés dans le cytoplasme de la cellule après différentes étapes de " maturation ". À côté de ces ARN, on connaît depuis peu, de petits ARN non codants (dits ARNnc), encore appelés ARNnm (ou ARN non messagers).
L'hypothèse de "premiers gènes" suggère que l'ARN était le premier matériel génétique. L'ARN peut transporter l'information et agir comme un catalyseur (comme enzyme.)
Les catalyseurs d'ARN sont les ribozymes.
Dans la théorie du monde ARN, les ribosomes auraient pu jouer un rôle clé dans le déclenchement des réactions chimiques. Un ARN auto-répliquant pourrait transmettre du matériel génétique de génération en génération, répondant aux critères les plus élémentaires de la vie.
Dans les années 1980, Thomas Cech découvre que certains ARN sont capables d'exercer une activité catalytique à l'instar des enzymes protéiques. Il montra, par exemple, qu'un fragment d'ARN d'un protozoaire était sectionné sans l'intervention d'aucun enzyme.
Ces données peuvent étayer l'hypothèse selon laquelle l'ARN serait apparu avant l'ADN au cours de l'évolution biochimique, et dès lors, certains considèrent l'ADN comme un ARN modifié, pour une meilleure conservation de l'information génétique.
Certains scientifiques pensent qu'une molécule de type "ARN-like" encore plus simple possédant une capacité catalytique et porteuse d'informations pourrait être la première à avoir servi de modèle pour la synthèse de l'ARN. C'est ce que l'on appelle parfois l'hypothèse "pré-ARN monde"

abs11.5 rose La Théorie ADN / ARN (2016)

Une nouvelle étude menée par des scientifiques de l'Institut de recherche Scripps (TSRI) offre une autre vision sur la façon dont la vie sur Terre a commencé il y a environ quatre à cinq milliards d'années.
L'étude ne questionne pas l'hypothèse "le monde ARN ".  La nouvelle recherche suggère que l'ARN et l'ADN ont évolué simultanément.
L'étude a été publiée récemment dans la revue Angewandte Chemie.

Lire la suite
5
  4701 lectures
  0 commentaires
4701 lectures
0 commentaires

Comprendre le sommeil pour bien dormir

sommeil couple reveil

 

Bien dormir : Qualité de sommeil

 

Le sommeil est un état périodique nécessaire caractérisé par une suspension de la vigilance, de la conscience, et par une résolution musculaire. L'homme endormi, est déconnecté du monde extérieur. Le comportement est caractérisé par l'occlusion des yeux, c'est-à-dire : fermeture des paupières, chute du tonus musculaire, élévation de la plupart des cellules de perception, diminution des rythmes respiratoires et cardiaques, légère baisse de la température.


Le sommeil, c'est le tiers de l'existence dans une vie humaine. Le sommeil permet de se construire, de se ressourcer, de se reposer, de résister aux agressions microbiennes, au stress, à la dépression, et permet la préservation de la mémoire.
La privation de sommeil favorise l'obésité, l'hypertension artérielle, diabète, amplifie le risque cardio-vasculaire, encourage l'apparition de l'anxiété, et d'autres maladies. Le manque de sommeil affecte profondément la concentration et la vigilance, conduire une voiture après 18 heures d'éveil équivaut à la même perte de vigilance que celle qui apparaît lors d'une alcoolémie de 0,5 g par litre.

 

Physiologie du sommeil normal


Pour comprendre le sommeil, on utilise plusieurs mesures concernant l'activité électrique cérébrale évaluée par électroencéphalogramme, l'activité des mouvements oculaires, et l'activité musculaire. Avec ces trois paramètres enregistrés, on peut suivre les enregistrements sur le même sujet pendant 24 heures, c'est-à-dire durant le cycle normal de veille et de sommeil.

 

Les types de sommeil


A partir des enregistrements de l'activité électrique cérébrale, des mouvements oculaires, et de l'activité musculaire, on peut distinguer :
-le sommeil à ondes lentes, nommé également le sommeil lent ou le sommeil profond.
-le sommeil à ondes et aux mouvements oculaires rapides nommé le sommeil paradoxal ou le sommeil avec rêve, ou le sommeil rapide.

 

Le sommeil à ondes lentes


Ce sommeil profond est caractérisé par quatre stades :
-le stade 1, celui de l'endormissement, dure quelques minutes. C'est une transition entre l'éveil et le sommeil confirmé, elle correspond au temps où l'on commence à s'éloigner du monde extérieur et à devenir moins réactif. Ce stade correspond au moment où la personne se trouve dans un état intermédiaire entre la veille et le sommeil.
L'activité cérébrale devient pauvre, calme, pendant la phase de somnolence, puis une deuxième phase apparaît, c'est la disparition complète des ondes d'éveil et apparition de rythme dit le rythme thêta : c'est le stade du sommeil léger.


-le stade 2 dure d'environ 20 minutes, c'est le stade de sommeil léger. Le dormeur peut encore se réveiller facilement et réagir rapidement. C'est le stade où les ondes de type thêta deviennent plus caractéristiques, s'amplifient. Le tonus musculaire se relâche progressivement.
Les stades 3 et 4 sont les stades du sommeil lent, profond, puis du sommeil lent et très profond. Il faut une centaine de minutes par nuit pour être en forme le matin. Le dormeur est alors difficile à réveiller. La récupération physique dépend de ces stades.


Le stade 3 correspond au sommeil profond, le stade 4 au sommeil très profond. Dans ces deux derniers stades, l'électroencéphalogramme est constitué d'ondes lentes continues, quelquefois entrecoupées d'ondes plus amples.


Au sommeil lent correspond un repos somatique, c'est-à-dire repos de l'organisme, du corps. Le sujet bouge peu, on ne compte que 20 à 30 grands mouvements pendant la nuit. Le tonus musculaire est abaissé, les réflexes sont légèrement diminués, les mouvements oculaires sont lents, et non conjugués.
Au niveau du système nerveux, on observe une prédominance du système parasympathique, qui se traduit par une diminution du rythme cardiaque, et respiratoire, une diminution de la pression artérielle, et de la température centrale.

 

Le sommeil à ondes et à mouvements oculaires rapides


C'est le sommeil paradoxal, qui dure de 15 à 30 minutes. La personne dort plus profondément qu'en stade 4. Les muscles sont détendus, le cerveau et le coeur fonctionnent à vive allure, les yeux sont agités par des saccades rapides. Cette phase de mouvements oculaires rapides est celle des rêves qui jouent un rôle important dans l'assimilation du savoir acquis dans la journée, pour entretenir la mémoire procédurale, pour assurer une récupération psychique.


Le sommeil paradoxal continue à passionner les chercheurs. Il survient de façon rythmique, découpe le sommeil lent en un certain nombre de cycle. Le sommeil paradoxal est caractérisé par un électroencéphalogramme identique à celui du stade 1 du sommeil, le stade de l'endormissement, mais avec des mouvements oculaires rapides, bilatéraux, conjugués, qui ressemblent au mouvement de fixation visuelle rencontrée lors de l'état de veille.


Ce sommeil s'accompagne de secousses musculaires, d'irrégularités cardiaques, respiratoires, et de modifications de la tension artérielle. Pendant le sommeil paradoxal, l'organisme est parfaitement réveillé sur le plan métabolique : les hormones sont actives, les neurotransmetteurs sont en action, on note une intense activité cérébrale.
Chez les hommes, on retrouve des phénomènes d'érection, sans lien avec un contenu sexuel, ou avec un rêve érotique. Le sommeil paradoxal correspond à l'état de sommeil accompagné d'un cortège de phénomènes d'éveil organique. Autrement dit, le cerveau conscient est endormi, le système nerveux autonome est réveillé, ainsi que l'organisme. C'est pendant cette phase de sommeil paradoxal où l'organisme est en pleine activité qu'apparaissent les crises d'asthme, l'infarctus du myocarde, et les accidents vasculaires cérébraux.

 

L'organisation du sommeil


Les différents stades du sommeil sont organisés en cycles interrompus par des phases de sommeil paradoxal avec rêve. Les quantités absolues et relatives de chaque phase sont relativement constantes d'un sujet à un autre, mais varie selon l'âge. L'organisation du sommeil correspond à un sommeil lent et profond en stade 3 et 4 qui occupe la majeure partie du premier tiers de la nuit, ce qu'on appelle souvent le premier sommeil. Le sommeil paradoxal intervient après 90 à 120 minutes de sommeil lent. Il découpe le sommeil lent en cycles composés de sommeil lent de stade 1 et 2, c'est-à-dire un endormissement et en sommeil léger. Le sommeil paradoxal avec rêve représente environ 20 % du sommeil total.
Les sujets qui prétendent ne jamais rêver, ou ceux qui ne se souviennent plus de leurs rêves passent par cette phase.


Le sommeil lent récupérateur est plus abondant au début de la nuit, le sommeil rapide et paradoxal est plus abondant à la fin de nuit. Le réveil spontané est celui qui se produit à l'issue d'un cycle, sous l'effet d'un bruit de l'environnement quand le sommeil devient très léger. Un bon sommeil dure au moins 5 heures. C'est la durée minimale, au-dessous de laquelle on aura du mal à avoir suffisamment de sommeil lent, profond.

 

Le rythme veille-sommeil


Le cycle veille-sommeil se fait chez l'homme sur un rythme de 24 heures. Il coïncide généralement avec alternance lumière-obscurité. L'apparition de la lumière artificielle dans les sociétés modernes à modifier ce rythme. L'augmentation de la durée d'éclairement allonge la durée de veille possible. Notre rythme de vie devient un rythme différent de notre rythme de sommeil.

 

Le rythme circadien


C'est un rythme biologique qui 24 heures. Le terme vient du latin circa (presque) et de dies (jour).
C'est un rythme défini par l'alternance entre veille et sommeil. Le rythme circadien est stable d'un individu à l'autre au cours des différentes périodes de sa vie.
En fonction du rythme circadien, le sommeil lent profond est peu influencé par l'horaire. À l'inverse, le sommeil paradoxal est influencé par l'horaire. Ce type de sommeil intervient vers les fins de nuit et vers la matinée entre 1 h et 13 h.
Cela peut expliquer les troubles psycho-physiologiques de certains travailleurs nocturnes. Il faut savoir à ce propos, que 10 % des gens sont incapables physiologiquement de travailler la nuit.

 

La sieste


L'influence de la sieste varie selon l'heure à laquelle elle est effectuée. La sieste matinale est bénéfique et riche en sommeil paradoxal, elle ne perturbe pas le sommet de la nuit. La sieste au début de l'après-midi peut comporter les deux types de sommeil, son influence reste modérée sur le sommeil de la nuit suivante. Par contre, l'assiette de l'après-midi est néfaste, elle comprend du sommeil profond, et peut perturber le sommeil nocturne. C'est le problème de certains insomniaques, qui croient compenser par des siestes d'après-midi leur manque de sommeil nocturne. Ils deviennent de mauvais dormeurs.

 

La durée du sommeil


Un nourrisson de moins de trois mois peut dormir 16 à 20 heures par jour. Un bébé de six semaines ne fait pas la différence entre le jour et la nuit. Un bébé de neuf mois fait des nuits de 12 h et des siestes de 3 à 5 heures.
Un jeune enfant dort 11 à 12 heures la nuit, et 3 heures le jour.
Un adolescent dort de 7 à 9 heures. Les adolescents ont de plus en plus tendance à retarder l'heure du coucher, et assument un décalage entre leurs horaires de sommeil et leurs rythmes scolaires. Il y a alors une perte d'adaptation aux contraintes sociales, qui risque de déboucher sur des conséquences néfastes : mauvais résultats scolaires, absentéisme matinal, ou parfois déscolarisation. Pour bien vivre le rythme imposé par l'école, il est important de dormir avant 23 h et de se lever à 7:00 du matin.
Chez les seignors, le sommeil diminue peu. Par contre, le sommeil a tendance à se répartir en épisodes avec plus de réveil la nuit et une sieste de jour. Les personnes âgées qui ont envie de dormir le nuit, ne doivent pas faire une sieste à la fin de l'après-midi, mais au début de l'après-midi.

 

Qualité de sommeil


La qualité et la quantité de sommeil varient en fonction de l'âge. Le sommeil du nourrisson comprend deux phases : une sieste diurne, et un sommeil nocturne. Vers l'âge de cinq ans, l'enfant acquiert le rythme monophasique de l'adulte (sommeil durant une nuit entière). La fragmentation de ce rythme apparaît au cours de la vieillesse où l'on constate une diminution du temps de sommeil profond et paradoxal, et une augmentation du temps de sommeil léger. Cette altération progressive du sommeil s'accompagne d'une augmentation de la fréquence des réveils nocturnes.

 

Comprendre le sommeil pour bien dormir


-pour bien dormir, être actif le jour est une bonne idée. Rester au lit à se reposer durant la journée est une mauvaise idée, cela diminue le contraste qui peut exister entre le jour et la nuit.
-profiter au maximum de la lumière du jour, de la physiologie du cycle veille sommeil gouvernée par l'alternance entre le jour et la nuit, la lumière et l'obscurité.
-dormir dans l'obscurité totale afin que la glande pinéale située dans le cerveau secrète de la mélatonine, l'hormone qui peut aider le sommeil.
-proscrire les activités intellectuelles, stressantes, angoissantes avant d'aller au lit.
- Éviter les discussions animées sur les forums d'Internet, par téléphone, les programmes TV violent, les films d'horreur ou les excitants avant de dormir.
-s'abstenir de faire du sport intensif en fin de journée, préférer les activités de détente comme les discussions tranquilles, la musique, la lecture, ou les programmes TV distrayants ou amusants.
-rejoindre son lit dès les premiers signes d'endormissement : bâillements, somnolence, sensation d'engourdissement, baisse de la concentration. L'heure du coucher ne doit être dictée que par l'envie de dormir, par les signes avant-coureurs du sommeil, quelles que soit l'heure.
-éviter les dîners trops copieux ou trop arrosés, surtout des aliments lourds à digérer comme les sauces, des fritures, l'alcool, et les plats épicés.
-éviter les boissons trop diurétiques avant de dormir.
-et supprimer les excitants au moins 6 heures avant le coucher, c'est-à-dire le café, le Cola, thé, et les fruits à forte teneur en vitamine C. Vous pouvez prendre des infusions ou des fruits peu riches en vitamine C.
-respecter vos rituels de sommeil, en faisant une lecture calme et relaxante, écouter de la musique, se mettre en pyjama, ou s'allonger devant la télé pendant quelques minutes.
-éviter les bains (ou les douches) trop chauds ou trop froids avant de dormir.
-dormir raisonnablement couvert, dans une chambre calme, fraîche et pas trop chauffée.
-dormir sur une literie en bon état, avec un matelas de qualité acceptable. Votre oreiller doit maintenir votre tête et vos cervicales à l'horizontale ou presque, dans l'axe de la colonne vertébrale.
-rattraper une nuit trop courte (ou de mauvaise qualité) la nuit suivante, en évitant les siestes trop longues de l'après-midi.


Eviter de faire le diagnostic d'une insomnie sur soi-même, éviter l'automédication et la prise des somnifères sans prescription médicale après examen et vérification.

 

Réf:

Magalang UJ, Chen NH, Cistulli PA, et al. Agreement in the scoring of respiratory events and sleep among international sleep centers. Sleep 2013; 36:591.
Berry RB, Brooks R, Gamaldo CE, et al. AASM Manual for the Scoring of Sleep and Associated Events: Rules, Terminology and Technical Specifications, 2.0.2, American Academy of Sleep Medicine, Darien, Illinois 2013.
Anderson KN, Bradley AJ. Sleep disturbance in mental health problems and neurodegenerative disease. Nat Sci Sleep 2013; 5:61.
Porkka-Heiskanen T, Zitting KM, Wigren HK. Sleep, its regulation and possible mechanisms of sleep disturbances. Acta Physiol (Oxf) 2013; 208:311.
Xie L, Kang H, Xu Q, et al. Sleep drives metabolite clearance from the adult brain. Science 2013; 342:373.
Tononi G, Cirelli C. Sleep and the price of plasticity: from synaptic and cellular homeostasis to memory consolidation and integration. Neuron 2014; 81:12.

 

 

Lire la suite
3
  3131 lectures
  0 commentaires
3131 lectures
0 commentaires

Empathie, neurotransmetteurs et agressivité

L'empathie peut provoquer de l'agressivité. Nous pouvons être empathiques avec une personne, et devenir agressifs avec la même personne. Des chercheurs de l'Université d'État de New York  ont tenté d'analyser comment l'empathie pouvait conduire à l'agressivité et dans quelles circonstances.

 

empathie agressivite dispute

 

De l'empathie à l'agressivité

L'empathie est nommée parfois la "compréhension" empathique. C'est une perception correcte, neutre, utilisant les références de l'autre, ses valeurs subjectives et personnelles. C'est de comprendre l'autre en se mettant à sa place, sans pour autant partager ses opinions ou ses valeurs. On comprend l'action de l'autre. C'est la fameuse phrase : "je comprends" que l'on dit à une personne de connaissance qui vous raconte ses malheurs.

 

Si vous partagez les opinions de la personne en face, vous n'êtes pas dans l'empathie, vous êtes dans l'identification. Par exemple si après avoir écouté cette personne et l'histoire de sa rupture par exemple, il est possible que vous partiez en guerre contre elle, en la considérant coupable de cette rupture, ou contre son ex en le jugeant comme le responsable de cette rupture.

Des chercheurs de l'université de Buffalo à New York ont tenté d'analyser cette mutation de l'empathie en agressivité, et le rôle des neurotransmetteurs dans ce phénomène, spécialement deux neurotransmetteurs : l'ocytocine et la vasopressine.

 

L'ocytocine est associée à l'empathie, et à l'agressivité de protection. La vasopressine est associée à de nombreuses réactions d'agression défensive : pour se défendre, ou pour défendre les siens.
La première partie de l'étude a demandé aux participants d'écrire s'ils avaient été témoins ou victimes d'une agression physique ou émotionnelle durant les 12 derniers mois.

 

La deuxième partie de l'étude s'est intéressée au lien entre l'empathie et la détresse. Les participants ont reçu un scénario décrivant une personne ayant des difficultés financières, et que cette personne était soit inquiète (forte nécessité, fort besoin d'argent) ou peu inquiète ou non inquiète (faible besoin de cet argent).

Et les participants qui se sont montrés les plus empathiques dans l'étude 1, étaient aussi les plus susceptibles à être agressifs avec cette personne en difficulté financière.

 

citation whitman empathie


D'autre part, l'agressivité et l'empathie peuvent se produire vis-à-vis de la même personne, sans que cette dernière ne soit en cause dans ce changement.

Les participants ayant une version courte des récepteurs de la vasopressine ont montré moins d'agressivité, que ceux qui ont une version longue de ce récepteur. La vasopressine facilite les réponses empathiques, y compris l'agressivité vis-à-vis des personnes victimes ou dans le besoin.


Les personnes ayant un récepteur d'ocytocine ont montré une agressivité plus grande que celles avec d'autres types de récepteurs.

 

Si la biologie joue un rôle dans nos réactions,  nous devons contrôler nos réactions biologiques. En effet, il nous arrive d'être agressifs par empathie.


Les conséquences peuvent être plus graves quand l'empathie conduit à blâmer une personne innocente en la suspectant d'un crime ou d'un comportement qu'elle n'a pas commis, cela pour protéger un ami ou un enfant dans la peine. Accuser une personne innocente d'un comportement abusif sur son enfant ou son épouse par empathie, peut avoir conséquences sérieuses ou néfastes.

 

Il est même possible que le sentiment d'empathie pour des personnes traitées injustement, pourrait motiver l'agression en leur nom, ou au nom de leur cause. Dans ces cas, l'empathie peut conduire directement à l'agressivité.


Et ainsi la colère n'est pas toujours nécessaire pour expliquer cette agressivité.

 

Lire la suite
6
  4924 lectures
  0 commentaires
4924 lectures
0 commentaires

Exercice physique : indispensable après la liposuccion

Le but de la liposuccion est d'enlever le tissu adipeux sous-cutané situé dans certaines zones du corps comme l'abdomen, les fesses, les poignées d'amour, ceci pour des raisons esthétiques.

 

sport plage

 

Exercice physique et liposuccion

Cependant, les études confirment que la liposuccion en enlevant le tissu adipeux sous la peau, favorise la présence de réserves adipeuses autour des viscères. Cette réserve adipeuse, bien qu'invisible augmente le risque de maladies cardiaques, et le risque de diabète.

Cette étude confirme ces données, évalue l'importance de l'activité physique régulière pour contrer l'apparition de cette réserve adipeuse.

La conclusion de cette étude publiée dans le journal d'endocrinologie clinique et du métabolisme, conseille aux personnes ayant choisi de faire une liposuccion, de pratiquer une activité physique régulière le plus vite possible après la liposuccion.

 

La liposuccion enlève d'une façon permanente le tissu adipeux sous la peau. Les cellules responsables du stockage des graisses dans l'organisme se nomment : les adipocytes. Ces cellules assurent à l'organisme des réserves de tissu adipeux.

 

Ces cellules organisent également le stockage du surplus de graisses. Après la liposuccion, l'organisme va augmenter le nombre des adipocytes dans d'autres zones de stockage.

 

Une étude brésilienne a étudié les dossiers de 36 femmes ayant subi une liposuccion modérée de l'abdomen. La moitié de ces femmes ont pratiqué une activité physique pendant quatre mois, et deux mois après la chirurgie. L'autre moitié de ces femmes n'ont pas suivi ce programme d'activité physique. Six mois plus tard, les femmes n'ayant pas suivi un programme d'activité physique ont une augmentation de 10 % de la graisse viscérale (tissu adipeux autour des viscères de l'abdomen).

Ce phénomène n'a pas été retrouvé sur les femmes ayant suivi un programme d'activité physique. Ce programme d'activité physique consiste à une séquence de préchauffage de cinq minutes, puis 40 minutes sur tapis roulant, trois fois par semaine.

 

Cette étude nous rappelle également que la liposuccion est une intervention cosmétique, plastique, qui ne mène pas nécessairement à une perte de poids permanente. La liposuccion ne peut être considérée comme un traitement contre l'obésité. Les médecins plasticiens incitent les patients à suivre un régime alimentaire équilibré, et un régime d'activité physique modérée, et permanente.

 

La liposuccion peut enjoliver l'aspect physique d'une personne, mais sans l'activité physique, l'organisme constituera à nouveau des réserves de tissu adipeux, augmentant les risques cardio-vasculaires, et le risque de diabète.

 

Cette étude est pratiquement la première à confirmer ce phénomène cette prise de poids intra abdominale (obésité intra-abdominale invisible.)

 

Lire la suite
3
  3926 lectures
  0 commentaires
3926 lectures
0 commentaires

Maladie d'Alzheimer actuellement

La maladie d'Alzheimer était aupravant une rareté médicale. Depuis 30 ans, le vieillissement de la population à transformer cette maladie en maladie courante. La maladie d'Alzheimer est une maladie des âges avancés, exceptionnelle avant l'âge de 60 ans, son incidence augmente exponentiellement avec l'âge.

 

Alzheimer cerveau lesion

 

Maladie d'Alzheimer actuellement

La maladie d'Alzheimer est légèrement plus fréquente chez les femmes que chez les hommes, le risque relatif est de 1,5. Cette fréquence relative chez les femmes n'est pas liée à la longévité des femmes.

Il existe des formes héréditaires de maladie d'Alzheimer, qui se manifeste avant l'âge de 65 ans, et parfois à 50 ans. Ces formes représentent 5 % des cas de maladie d'Alzheimer.

 

 

La démence en général touche 5 % des personnes âgées de plus de 65 ans en France, dont 80 % de ces personnes présentent une maladie d'Alzheimer. Cette maladie est la quatrième cause de décès aux États-Unis après les maladies cardiaques, le cancer, et les accidents de la route.

 

Le nombre de sujets concernés par la maladie d'Alzheimer serait, actuellement en France, de l'ordre de 860 000 patients. Le pourcentage de personnes atteintes de maladie d'Alzheimer augmente régulièrement avec l'âge : de 0,6% entre 65 et 69 ans, 22,2% après 90 ans. On compte 225 000 nouveaux patients par an en France.

La maladie a été décrite par un médecin allemand, Alois Alzheimer en 1907.
La maladie d'Alzheimer est une maladie progressive et dégénérative qui attaque le cerveau et provoque des altérations de la mémoire, des pensées et du comportement.

Les symptômes de la maladie d'Alzheimer débutent progressivement, sur une durée de quatre à huit ans. Les troubles de la mémoire sont les premiers symptômes qui alertent le patient et son entourage. Le patient peut également être affecté par la confusion, des changements personnalité, et parfois de troubles du jugement.

 

Alzheimer memoire effacee

 

Au début, le patient a des difficultés à trouver les mots, à désigner les objets par leurs noms, accompagnées de difficultés du langage pour finir les phrases, ou pour communiquer.

 

Le cerveau vieillit aussi

 

Il est important de distinguer un affaiblissement de la mémoire associée à l'âge, de la maladie d'Alzheimer. Cet affaiblissement lié à l'âge est un affaiblissement léger, qui ne s'aggrave pas, qui se produit chez la personne âgée en cas de stress, ou en cas d'inattention.

Cet affaiblissement de mémoire ne s'accompagne pas de troubles du langage, ni de troubles de personnalité. En cas d'affaiblissement de la mémoire associée à l'âge, la personne âgée peut utiliser des stratégies et des moyens pour compenser cet affaiblissement : noter ses rendez-vous, répéter pour consolider la mémoire, ou trouver des liens entre un événement récent à mémoriser et un événement ancien déjà mémorisé. Ces stratégies sont insuffisantes en cas de maladie d'Alzheimer. La perte de mémoire est inéluctable, toujours progressive.

La maladie d'Alzheimer est la première cause de démence et de troubles de la mémoire chez les populations âgées de plus de 60 ans, provoquée par une altération des cellules nerveuses du système nerveux central, et dont l'origine demeure inconnue.

Dans l'état actuel, il n'existe aucun moyen sûr à 100 % pour faire le diagnostic de la maladie d'Alzheimer, à part l'examen du cerveau pendant l'autopsie. Le diagnostic clinique est fondé sur un ensemble de critères et d'examen neurologiques et de tests psychologiques.

En 1993, pour la première fois, on a découvert le premier gène responsable de la maladie d'Alzheimer, et en 1997 on a découvert un deuxième gène altéré pendant la maladie d'Alzheimer. Cependant, les formes génétiques héréditaires de maladie d'Alzheimer sont rares.

La maladie d'Alzheimer affecte la qualité de vie et la durée de vie. Les patients décèdent après six ou huit ans après le diagnostic. Le décès est provoqué généralement pas une complication infectieuse, ou par des complications traumatiques (chute, accidents domestiques) car le patient n'est plus autonome, et ne peut plus prendre soin de lui.

 

Maladie infectieuse ??

Des études publiées en 2015 suggèrent que la maladie d’Alzheimer est d’origine infectieuse.

 

Les scientifiques de l'Université de Madrid ont trouvé des champignons dans chaque échantillon de tissu cérébral chez les malades. En juin 2016, une étude américaine démontre que la prescription d'antibiotiques a réduit d’une façon significative les lésions cérébrales de cette maladie chez les souris.

 

D’autres recherches semblent suspecter le rôle de champignons dans l’apparition d’autres maladies nerveuses dégénératives comme la maladie de Parkinson.

 

Référence:

Myles R. Minter, Can Zhang, Vanessa Leone, Daina L. Ringus, Xiaoqiong Zhang, Paul Oyler-Castrillo, Mark W. Musch, Fan Liao, Joseph F. Ward, David M. Holtzman, Eugene B. Chang, Rudolph E. Tanzi, Sangram S. Sisodia. Antibiotic-induced perturbations in gut microbial diversity influences neuro-inflammation and amyloidosis in a murine model of Alzheimer’s disease. Scientific Reports, 2016; 6: 30028 DOI: 10.1038/srep30028

 

Lire la suite
4
  3562 lectures
  0 commentaires
Mots-clés :
3562 lectures
0 commentaires

Sexe oral est autant dangereux que le tabac ?

sexe oral pomme jean

De nombreuses études l'ont confirmé, l'infection de la cavité orale par le HPV est présente d'une façon majoritaire chez les hommes. Les pratiques sexuelles qui favorisent cette infection, vont du simple baiser à la pratique du sexe oral. La plupart de ces infections HPV sont inoffensives, mais chez certains hommes, elles peuvent provoquer des lésions cancéreuses.

 

Sexe oral et HPV

 

Le papillomavirus humain est un virus constitué d'un génome de type ADN, et d'une capsule. Il affecte les cellules qui tapissent le vagin, le col utérin, la vulve, l'anus, le pénis, la bouche, et les voies respiratoires supérieures. Cette infection peut provoquer des lésions variées comme le condylome ou le cancer. C'est l'infection sexuellement transmissible la plus répandue dans le monde.


La transmission de l'HPV peut se fait par contact intime, par l'activité sexuelle, par contact entre une zone lésée et une zone saine, et par contact entre le nouveau-né et sa mère.

 

Ce virus se répand rapidement via le sexe oral, le nombre de tumeurs de la gorge causées par le HPV commence à dépasser le nombre des cancers provoqués par le tabagisme selon les études. Le pourcentage de cancers de la bouche liés à ce virus a progressé de 16 à 72 %.

 

Le papilloma virus humain et les actes intimes

 

Le risque d'infection par le papilloma virus humain (HPV) chez les femmes est directement lié au nombre de partenaires sexuels masculins, et au nombre de partenaires sexuelles féminines de ceux-ci. Le deuxième comportement à risque d'infection pour le HPV chez les femmes est l'activité sexuelle avec un nouveau partenaire. Dans une étude sur des jeunes femmes de San Francisco, s'impliquer dans une relation sexuelle avec un nouveau partenaire augmente le risque de contamination par le HPV de 10,1 % par mois.

 

Selon les études, la pénétration vaginale et anale sont les principaux facteurs de risque d'infection à HPV. Bien que la pénétration ne soit pas indispensable pour la transmission, l'infection par le HPV est rare chez les filles vierges. Dans une étude suédoise, l'infection par HPV est présente chez 4 % des filles vierges, et chez 22 % des femmes actives sexuellement.
La pénétration anale peut favoriser la propagation du HPV dans le canal anal.

 

hpv-sexe-oral-vaccin

 

La pénétration par les doigts, ou par des jouets sexuels peut jouer un rôle important dans la transmission dans la propagation du virus HPV, en assurant le contact entre une zone infectée par le virus et une zone saine. Par exemple, la pénétration par les doigts peut propager le virus HPV présent sur la zone péri-anale au vagin, ou au col utérin.
Dans les couples hétérosexuels, la transmission de l'HPV de la femme vers l'homme est plus fréquente que la transmission de l'homme vers la femme. Dans 25 % des cas, le couple est affecté par les mêmes types de virus HPV.

 

L'auto-contamination est possible également. Dans une nouvelle étude, les femmes peuvent transférer le virus HPV de leurs organes sexuels à leurs bouches. Ce moyen de contamination, auto-inoculation, est un véritable facteur de risque pour les infections par le HPV oral, selon les études actuelles. 16 % des femmes ont des pratiques qui peuvent favoriser l'auto-inoculation, comme toucher ses organes sexuels, ou toucher un jouet sexuel. Cette transmission vers la cavité orale peut contaminer le partenaire masculin par les baisers, le contact avec la salive, comme par le sexe oral.

 

hpv-viurs-papillome-humain

 

Le papilloma virus et le cancer oral : spécificité masculine

 

L'infection par certains types d'HPV, comme le type 16, provoque des cancers dans la bouche, amygdale, langue, pharynx, et poumons.
On retrouve le virus HPV 16 dans 50 % des cancers oraux chez les hommes, selon les études américaines, suédoises ou australiennes.

 

Le Papillomavirus humain oral est plus fréquent chez les hommes que chez les femmes, plus fréquent chez les hommes ayant eu des partenaires féminines infectées par HPV oral ou génital. La transmission de l'HPV se fait par voie orale-orale (baisers) et par voie orale-génitale (pratique du sexe oral) selon une étude publiée en novembre 2014. Le papilloma virus oral est présent chez 7,2 % des hommes. Ces chiffres sont plus élevés chez les hommes fumeurs (12,12 %), chez les hommes qui ont des relations non monogames (17,9 %), et chez les hommes ayant des partenaires féminines infectées par l'HPV oral.

 

L'HPV de type 16 est l'affection la plus cancérigène. La prévalence de l'HPV 16 est 2,3 % chez les hommes. La fréquence des rapports sexuels oraux multiplie par deux la fréquence de l'HPV oral chez les hommes.

 

Les fumeurs sont plus susceptibles que les non-fumeurs d'être affectés par ces lésions cancéreuses de la bouche, et du pharynx en cas de contact avec le virus HPV 16. Les fumeurs sont plus susceptibles d'être affectés par l'HPV 16 que les non-fumeurs.

 

Dans une étude publiée en mai 2014, les analyses des bains de bouche et de la salive de 164 personnes ont démontré la présence de l'HPV chez 1,2 % des femmes et des hommes. En cas d'atteinte féminine génitale, le partenaire masculin a deux fois plus de risque d'avoir un cancer de l'amygdale, de la langue et de la cavité buccale. Par contre, ce risque est très faible en cas d'affection HPV dans les couples de long terme.

 

couple-lit-pieds

 

Homme seul, fumeur, plusieurs partenaires : risque plus élevé

 

Les hommes célibataires sont plus susceptibles d'être infectés par l'HPV oral que les hommes mariés, les fumeurs ont plus de risques d'être infectés, et de développer un cancer oral.
Ces cancers sont provoqués par l'infestation de HPV, surtout, de type 16. La présence de ce virus est plus élevée chez les hommes célibataires, chez les hommes ayant de multiples partenaires sexuels, et chez les fumeurs.

 

Le vaccin ?

 

La vaccination actuelle contre l'HPV ne peut influencer l'infection orale par ce virus, ce virus est plus présent dans la cavité orale des hommes que dans celle des femmes, d'autant que le vaccin est réservé actuellement aux jeunes filles. En France, les filles nées à partir de 1992 ont pu bénéficier du vaccin. L'efficacité de ce vaccin est prouvée. On peut espérer donc que le vaccin réduit la présence de HPV chez les femmes et réduire le cancer du col. De même, ce vaccin peut réduire la contamination des hommes par ce virus.

On ne sait pas actuellement si la vaccination des hommes peut réduire le risque de cancer oral. En France, le vaccin est réservé aux filles dans l'état actuel de la gestion de la santé publique.

 

Conclusion

La pénétration vaginale et anale sont les principaux facteurs de risque d'infection à HPV .
La pénétration anale peut favoriser la propagation du HPV dans le canal anal chez la femme.
La pénétration par les doigts, ou par des jouets sexuels peut jouer un rôle important dans la transmission dans la propagation du virus HPV, en assurant le contact entre une zone infectée par le virus et une zone saine.
Dans les couples hétérosexuels, la transmission du HPV de la femme vers l'homme est plus fréquente que la transmission de l'homme vers la femme.
50 % des cancers de la cavité orale chez les hommes sont liées à l'infection par HPV, cette infection se transmet par les baisers, ou par le sexe oral. Les hommes fumeurs sont plus susceptibles d'êtres affectés.
Les couples en relation monogame ont peu de risque.

A la question : est ce meilleur d'embrasser et de partager le sexe oral avec une fille vaccinée, la réponse est oui.

 

Reference:

 

Kristina R. Dahlstrom, Ann N. Burchell, Agnihotram V. Ramanakumar, Allita Rodrigues, Pierre-Paul Tellier, James Hanley, François Coutlée, and Eduardo L. Franco. Sexual Transmission of Oral Human Papillomavirus Infection among Men. Cancer Epidemiology, Biomarkers & Prevention, November 2014 DOI: 10.1158/1055-9965.EPI-14-0386

Carole Fakhry, Maura L. Gillison, Gypsyamber D'Souza. Tobacco Use and Oral HPV-16 Infection. JAMA, 2014; 312 (14): 1465 DOI: 10.1001/jama.2014.13183

G. D'Souza, N. D. Gross, S. I. Pai, R. Haddad, K. S. Anderson, S. Rajan, J. Gerber, M. L. Gillison, M. R. Posner. Oral Human Papillomavirus (HPV) Infection in HPV-Positive Patients With Oropharyngeal Cancer and Their Partners. Journal of Clinical Oncology, 2014; DOI: 10.1200/JCO.2014.55.1341

Aimée R Kreimer, Christine M Pierce Campbell, Hui-Yi Lin, William Fulp, Mary R Papenfuss, Martha Abrahamsen, Allan Hildesheim, Luisa L Villa, Jorge J Salmerón, Eduardo Lazcano-Ponce, Anna R Giuliano. Incidence and clearance of oral human papillomavirus infection in men: the HIM cohort study. The Lancet, 2013; DOI: 10.1016/S0140-6736(13)60809-0

Lire la suite
1
  5439 lectures
  0 commentaires
5439 lectures
0 commentaires

Différents types d'orgasme féminin? Que dit la science?

orgasme femme main

Les femmes distinguent souvent les orgasmes déclenchés par la pénétration, des orgasmes obtenus par d'autres méthodes comme la masturbation (stimulation manuelle directe du clitoris) par vibromasseur ou par cunnilingus.

 

Plusieurs types d'orgasmes disent les femmes et la science

 

Les orgasmes déclenchés par stimulation manuelle directe du clitoris (orgasme clitoridien) sont décrits comme "intense" et "aigu", localisé selon les études de Davidson 1989, et Singer 1976. Les orgasmes déclenchés par pénétration vaginale par le pénis sont décrits comme "plus satisfaisant", diffus, non localisé au clitoris ni aux organes génitaux, produisant des niveaux plus élevés de soulagement de tension selon les études de Lehman 2004, Davidson, 1989 ; Masters et Johnson, Hite, 1976.


Les deux orgasmes sont décrits en tant qu'expériences positives, la plupart des femmes déclarent préférer les orgasmes déclenchés par une pénétration vaginale par le pénis selon les études de Brody 2007 et Fugl en 2006. La pénétration par un jouet sexuel ou par les doigts est considérée comme un orgasme clitoridien moins apprécié.

 

En 1905, Sigmund Freud pensait que l'orgasme vaginal (pénétration pénis -vagin) est plus mature et supérieur aux orgasmes clitoridiens. Il a développé cette théorie en écoutant les femmes décrire leurs orgasmes et leurs préférences.


Au commencement, la théorie de Freud a été largement acceptée. Progressivement, d'autres théories ont commencé à la relativiser. Masters et Johnson en 1966 pensaient qu'indépendamment de la méthode employée pour obtenir l'orgasme, tous les orgasmes sont physiologiquement identiques.


Dans les années 70 et 80, certains courants féministes prétendaient que la pénétration est secondaire, et que seule la masturbation manuelle (ou par un jouet sexuel) peut apporter aux femmes l'orgasme désiré.


Les études récentes de Levin en 2006 ont montré que l'orgasme obtenu par pénétration vaginale (par le pénis) implique plus d'organes que l'orgasme clitoridien. D'autre part, certaines sécrétions hormonales sont différentes. Il y a 4 fois plus de sécrétion de prolactine après un orgasme vaginal qu'après un orgasme clitoridien.

 

orgasme femme salle de bain

 

La typologie de l'orgasme féminin

 

Curieusement, la typologie des orgasmes n'existe que pour les femmes, chez les hommes, par manque de recherche, on ne distingue pas différents types d'orgasme.
On distingue plusieurs types d'orgasme chez les femmes selon les perceptions déclarées par les femmes. En général, les femmes décrivent l'orgasme induit par stimulation du clitoris comme un orgasme chaud, chatouillant, électrique, violent. Les femmes décrivent l'orgasme induit par stimulation vaginale (pénétration par le pénis) comme progressif, profond, lancinant, apaisant, confortable.

 

orgasme femme sous vetements

 

Selon la localisation, un chercheur Signer a tenté de classer trois types d'orgasmes : orgasme de la vulve accompagnée de contractions rythmiques du vagin, orgasme utérin qui s'accompagne de contractions du bas ventre, résultat de mouvement utérin et du mouvement du col utérin, et orgasmes mixtes contenant tous les éléments à la fois.Cette classification considère le rôle du col utérin dans l'orgasme féminin, par son contact avec le pénis, et par ses mouvements pendant les mouvements coïtaux. Selon le chercheur Singer (1972), le col utérin est un organe très sensible et important pendant l'orgasme féminin.

 

Cette classification est fondée sur des observations scientifiques limitées à quelques femmes. Le rôle du col utérin dans la réponse sexuelle de la femme est toujours incompris.
D'autre part, les chercheurs soulignent que le contact du vagin avec le pénis agit sur la paroi vaginale, et sur les ligaments du col utérin en même temps. Dans ce cas, on peut considérer que tout orgasme féminin est un orgasme mixte.


Des études récentes, comme l'étude de Levin (2001) démontrent que les contractions musculaires pendant l'orgasme peuvent distinguer plusieurs types d'orgasme. Des contractions rythmiques régulières qui durent 13 secondes, des contractions régulières et suivies de contractions irrégulières pendant une durée de 50 secondes, et le troisième type d'orgasme sans contractions musculaires dure 25 secondes en moyenne.

 

Conclusion

 

Il existe donc différents types d'orgasme, selon leur déclenchement, selon leur déroulement biologique, et selon le retentissement sur les muscles.
Les femmes déclarent préférer l'orgasme induit par une pénétration vaginale, par un pénis en érection, considérant que cet orgasme est plus profond, et plus diffus, et plus reposant que l'orgasme induit par la masturbation. L'orgasme par pénétration vaginale libère plus d'hormone que l'orgasme induit par la masturbation, surtout l'hormone prolactine.


On peut distinguer trois types d'orgasme selon les contractions musculaires du vagin : contractions rythmiques 13 secondes, contractions régulières et irrégulières de 50 secondes, et les orgasmes sans contractions musculaires qui durent 25 secondes.

Lire la suite
1
  4730 lectures
  0 commentaires
4730 lectures
0 commentaires

Miracle des cellules souches : état des lieux

cellules souches

Les cellules souches sont des cellules primitives qui possèdent la capacité d'auto renouvellement, et de spécialisation. Une cellule souche peut à travers cette spécialisation devenir une cellule musculaire, nerveuse, une cellule gastrique. On nomme ce processus de spécialisation : la différenciation.

Les premières cellules souches ont été identifiées dans le sang. En 1963, des chercheurs de Toronto ont démontré qu'une cellule dérivée de la moelle osseuse pouvait remplacer tous les éléments de sang. Au cours des vingt années qui ont suivi, la transplantation des cellules souches du sang est devenue un moyen standard dans le traitement des cancers du sang comme les leucémies.
Progressivement, des cellules souches ont été identifiées dans la plupart des tissus.

 

Pourquoi les cellules souches intéressent les chercheurs ?

 

Les cellules souches intéressent les chercheurs et les médecins pour trois raisons :-pour le traitement : les cellules souches peuvent remplacer les cellules détruites ou perdues, comme par exemple après un infarctus du myocarde ou un traumatisme de la moelle épinière. Ces cellules peuvent aider le patient à retrouver sa mobilité en régénérant les nerfs.-cibler les cellules souches par un traitement spécifique.-utiliser les cellules souches pour régénérer les tissus in vitro, et aussi pour remplacer l'expérimentation sur les animaux.

cellules souches origine

Comprendre les cellules souches

 

Les cellules souches ont deux facultés uniques : elles sont capables de se renouveler, elles sont capables de se spécialiser.
Les cellules souches peuvent proliférer sans perdre leur capacité à se différencier, sans subir le vieillissement biologique. Pendant leur régénération, les cellules filles peuvent être des cellules souches, ou des cellules plus différenciées. On pense que les cellules souches sont capables de se piser indéfiniment, créant ainsi des cellules totipotentes (capables de produire toutes sortes de cellules, comme les cellules du placenta), ou pluripotentes (comme les cellules embryonnaires), multipotentes (les cellules souches de chaque organe) ou unipotentes (spermatozoïdes et ovules).

 

On pense que la capacité des cellules souches est liée au développement embryonnaire, les premières cellules après la fécondation sont des cellules totipotentes. À chaque stade du développement embryonnaire, des cellules souches sont créées pour avoir d'autres capacités. On sait actuellement que les cellules souches peuvent être créées après le stade embryonnaire.


Les cellules souches peuvent dériver de l'embryon humain, ou des tissus humains adultes. Les cellules souches font leur apparition 7 à 10 jours après la fécondation. Il est donc possible de créer des cellules souches par fécondation in vitro, mais cette technique pose de nombreuses questions éthiques.
Les cellules souches adultes sont présentes dans les tissus, pour régénérer et cicatriser les organes. On retrouve de nombreuses cellules souches dans le sang, mais sont rares dans les muscles, dans le cerveau, ou les reins.

 

Après une blessure, l'organisme fait appel à des cellules souches. Certaines cellules adultes vont redevenir des cellules souches pour assurer la cicatrisation. Les chercheurs appellent cette procédure une re-programmation ; c'est une cellule adulte mature qui redevient une cellule souche pluripotente capable de régénérer et de donner d'autres cellules spécialisées.


Cela indique qu'il est possible de manipuler une cellule pour la rendre pluripotente. Une cellule prélevée chez un adulte peut redevenir une cellule souche, et participer à la régénération d'un tissu malade. Dans ce cas, c'est une cellule souche induite.
Cette manipulation peut être une manipulation génétique, ou le résultat d'un traitement avec un ensemble des molécules pour modifier l'expression génétique de la cellule.

 

Comment se passe le traitement par les cellules souches

 

Les cellules souches embryonnaires humaines ont été différenciées avec succès in vitro à des fins thérapeutiques, y compris des cellules nerveuses, des cellules pancréatiques, ou cardiaques. Ces cellules donnent des résultats intéressants dans le traitement de la cécité rétinienne, la maladie de Parkinson, maladie de Huntington, les lésions de la moelle épinière, l'infarctus du myocarde, et le diabète.

cellules souches traitement

 

Après injection dans l'œil, ces cellules s'intègrent dans la rétine, se transforment en cellules utiles pour régénérer la rétine et traiter la cécité. En 2012, le premier rapport sur l'utilisation humaine des cellules souches embryonnaires pour le traitement de deux patients atteints de maladie de la rétine a été publié. La régénération de la rétine était de 99 % après l'injection de 50 000 cellules souches. L'acuité visuelle a été doublée.

 

En cas de lésion de la moelle épinière, une étude britannique récente confirme que l'utilisation des cellules souches a permis de traiter la paralysie en injectant des cellules souches dans la moelle épinière. En cas d'infarctus, l'utilisation des cellules souches a permis une régénération partielle.
D'autres études évaluant la dose, l'efficacité et la sécurité à long terme sont nécessaires avant l'application clinique généralisée de la transplantation de cellules souches embryonnaires humaines.

 

Les cellules souches induites

 

Les études utilisant des cellules adultes transformées en cellules souches offrent des possibilités sans précédent en médecine. Ces cellules sont accessibles, comme les cellules fibreuses de la peau, ou les cellules du sang. Ces cellules capables de devenir pluripotente, peuvent être utilisées dans le traitement du diabète ou dans d'autres traitements régénératifs.

 

Cette technologie pourrait éviter deux obstacles majeurs associés à l'utilisation des cellules souches embryonnaires : la possibilité de rejet après la transplantation et les questions éthiques concernant l'exploitation d'embryons humains.
Ces cellules souches induites sont utiles dans le traitement des maladies génétiques ; les gènes corrigés sont transplantés pour restaurer la fonction d'organe. Ce champ évolue rapidement.


Deux maladies sont ciblées actuellement par ces traitements : la maladie de Parkinson et l'hémophilie.
D'autres technologies de thérapie génique utilisent les cellules souches induites comme le traitement de la drépanocytose. Chez la souris, l'utilisation de cellules souches ayant des gènes corrigés a permis la guérison.

 

Les cellules souches :  les défis techniques

 

L'utilisation des cellules souches pour remplacer les cellules anormales ou les cellules mortes offrent des perspectives thérapeutiques sans précédent sur le plan théorique.
Cependant, plusieurs défis techniques et théoriques doivent être surmontés :

 


Comprendre comment les cellules transplantées vont s'intégrer dans le tissu est une question primordiale, pour savoir où injecter ces cellules. Cette question est cruciale quand il s'agit du coeur, ou du cerveau. Les études actuelles permettent d'être optimistes, les cellules souches semblent s'intégrer dans n'importe quelle structure existante, sans provoquer des effets secondaires.

 

L'apparition des lésions cancéreuses
C'est une question légitime. Les cellules souches ont le potentiel de produire n'importent quel type de cellules, y compris des cellules cancéreuses. Ces cellules sont capables de produire également des lésions tissulaires complexes. C'est un risque majeur. Imaginons des cellules souches produisant un tissu dentaire dans le cerveau ou dans le poumon. Il est primordial de comprendre comment la cellule se différencie, se transforme pour éviter les différenciations aberrantes.
Le potentiel de malignité est plus présent dans les cellules souches induites, c'est-à-dire des cellules adultes transformées en cellules souches. Pour reprogrammer ces cellules adultes, les chercheurs utilisent des virus comme le rétrovirus qui modifie le génome de la cellule. Certains gènes utilisés pour cette reprogrammation ont un potentiel oncogène (cancérigène) comme le gène c-Myc. Des études supplémentaires sont indispensables pour éviter ce risque.

 

Réaliser la différenciation
Comment être sûr de la différenciation de la cellule après son injection ? Actuellement, les protocoles concernant la reprogrammation de cellules adultes vers des cellules souches nerveuses semblent garantir cette différentiation. Les cellules utilisées se transforment sans faute en cellules nerveuses. Pour les autres tissus comme le sang, les résultats sont encourageants, mais les échecs sont nombreux.

 

Autres applications cliniques

Comprendre

L'utilisation de cellules souches pour le remplacement des cellules mortes ou malades a permis aux chercheurs d'identifier la présence de cellules souches méconnues. Dans la moelle osseuse par exemple, il existe des cellules souches capables de se transformer en cellules osseuses, ou en cellules adipocytaires. On ne sait pas grand-chose sur ces cellules, ni sur leur fonctionnement, ni sur le rôle dans l'organisme. L'utilisation de ces cellules dans le traitement de l'infarctus du myocarde n'a pas donné de résultats. Les chercheurs pensent que ces cellules contribuent à la régénération des tissus par des signaux, ou par la sécrétion de molécules. Les études identifient de plus sont plus de cellules souches dont le rôle demeure méconnu.

 

Modèle sans expérimentation animale Les études sur les cellules souches offrent la possibilité de créer des modèles de maladie in vitro, pour accélérer les recherches et le développement de nouvelles thérapies, et évitent l'utilisation d'animaux.

Par exemple, il était impossible d'obtenir des cellules nerveuses de patients affectés à une maladie du système nerveux. Avec les cellules souches, on peut générer un nombre suffisant de cellules pour étudier ces maladies, et développer un traitement.
Le développement de cellules souches induites a permis de créer des modèles de maladie in vitro, pour comprendre la maladie, et tenter d'en modifier l'évolution.

Le modèle des cellules souches invite également les chercheurs à réfléchir sur la cellule cancéreuse qui se distingue par sa capacité d'auto-renouvellement, et de différenciation, les deux capacités présentes également dans les cellules souches. La cellule cancéreuse peut, comme la cellule souche, remplacer les tissus normaux. Les chercheurs espèrent trouver le moyen de cibler les cellules souches cancéreuses pour traiter le cancer, sans affecter les autres cellules ni les organes qui abritent le cancer. De nombreux chercheurs travaillent sur la métastase, sur la capacité des cellules cancéreuses à s'implanter dans les tissus sains.

 

Considérations éthiques

La première utilisation de cellules souches embryonnaires humaines a commencé en 1998, suscitant un grand intérêt et des controverses. La technique initiale utilisait les cellules d'embryons âgés de 7 jours. La technique de fécondation in vitro permet d'avoir ces cellules mais les questions éthiques étaient nombreuses : faut il détruire un embryon pour sauver un humain ? Quelles sont les limites ? Les risques ?
Le clonage humain n'est pas loin, car l'embryon est manipulé. Ces controverses ont conduit à l'interdiction de l'utilisation des cellules souches dans de rares pays comme la France. Les autres pays ont continué la recherche sur les cellules souches embryonnaires.
L'apparition des techniques permettant le développement des cellules souches adultes reprogrammées a permis d'éviter les questions éthiques.

Conclusion

La cellule souche est une cellule primitive, qui existe dans l'embryon humain.
Les cellules souches ont un grand potentiel, source d'espoir pour le traitement des maladies incurables, et source de controverse et de discussions éthiques.

Le traitement par des cellules souches est efficace, prouvé et fait partie de l'arsenal thérapeutique dans certaines maladies, il est expérimental pour d'autres maladies.
De nombreux centres dans le monde offrent un traitement sans définition claire des cellules utilisées, et sans garantir les résultats.

Références

Song B, Niclis JC, Alikhan MA, et al. Generation of induced pluripotent stem cells from human kidney mesangial cells. J Am Soc Nephrol 2011; 22:1213.

Hou P, Li Y, Zhang X, et al. Pluripotent stem cells induced from mouse somatic cells by small-molecule compounds. Science 2013; 341:651.

Gonzalez-Cordero A, West EL, Pearson RA, et al. Photoreceptor precursors derived from three-dimensional embryonic stem cell cultures integrate and mature within adult degenerate retina. Nat Biotechnol 2013; 31:741.

Laflamme MA, Chen KY, Naumova AV, et al. Cardiomyocytes derived from human embryonic stem cells in pro-survival factors enhance function of infarcted rat hearts. Nat Biotechnol 2007; 25:1015.

Schwartz SD, Hubschman JP, Heilwell G, et al. Embryonic stem cell trials for macular degeneration: a preliminary report. Lancet 2012; 379:713.

Dimos JT, Rodolfa KT, Niakan KK, et al. Induced pluripotent stem cells generated from patients with ALS can be differentiated into motor neurons. Science 2008; 321:1218.

Lire la suite
1
  7026 lectures
  0 commentaires
7026 lectures
0 commentaires

Nos mouvements pendant notre sommeil

 

Chat-endormi-couverture-rose

 

 

Nous passons un tiers de notre vie à dormir. On bouge fréquemment pendant le sommeil, on change de position, on change de côté, on met un bras, on retire une jambe. On s'allonge, on se plie, on serre sa partenaire dans nos bras. On se réveille sans se souvenir de ce ballet si complexe. Dort-on de la même façon? Y a-t-il des positions particulières pour chaque personne, ou chaque sexe, ou chaque tranche d'âge ?

Lire la suite
3
  6302 lectures
  0 commentaires
6302 lectures
0 commentaires

Suivez-nous !