Ces concepts qui ont fondé notre science moderne

science-

science

 

 

 

Définir la théorie scientifique


- complète et sans exception
Pour durer, une théorie scientifique doit être complète, et ne comporte aucune exception. Par exemple, il est impossible d’accepter la loi de la gravité de Newton si, de temps en temps, des blocs de pierre flottent dans l’air.


- valeur prédictive
Le pouvoir prédictif est important : la théorie doit pouvoir être testée. Par exemple, la conception de l'aile d'un avion signifie qu'une fois que l'avion atteint une certaine vitesse, nous prédisons qu'il s'élèvera dans les airs, comme cela se produit à chaque occasion observée.

- appel aux mathématiques sauf exception
Les théories les plus logiques sont celles qui font appel aux mathématiques. À partir des lois du mouvement et de la gravité de Newton, nous pouvons, par le biais de calculs mathématiques, faire des déductions (aller du général au particulier) sur une série de phénomènes, du balancement d'un pendule au moment de la prochaine éclipse solaire.
Mais certaines théories n'utilisent pas des concepts mathématiques : la théorie de l'évolution de Darwin, par exemple, possède un certain pouvoir explicatif sans recourir aux mathématiques. Les théories relatives à la biologie et aux sciences médicales n’utilisent pas toujours les mathématiques.

Les mathématiques


Les mathématiques sont l'étude des nombres, des quantités, des formes et de l'espace, ainsi que de leurs interactions.
Les mathématiques appliquées utilisent des techniques mathématiques pour nous aider à comprendre les processus physiques et technologiques. Les mathématiques pures sont entièrement abstraites : elles ne dépendent pas de ce qui se passe dans le monde physique, ni même de quoi que ce soit d'extérieur à elles.


La vérité d'une théorie mathématique dépend de la logique et d'une preuve formelle rigoureuse, et non de l'expérience.

 

Une théorie mathématique est présentée sous la forme d'une série d'axiomes (un axiome est une proposition non démontrée, utilisée comme fondement d’un raisonnement ou d’une théorie mathématique) et à partir desquels l'ensemble de la théorie peut être déduit. Au début du vingtième siècle, les mathématiciens pensaient qu'il était possible de démontrer que leur sujet était un système complet et autorégulé. Cependant, en 1931, l’Autrichien Kurt Gödel a démoli cet espoir en prouvant que dans un système mathématique basé sur un nombre fini d'axiomes, il y aura toujours des propositions qui sont vraies, mais qui ne peuvent pas être prouvées à partir des axiomes.

 

Changement de paradigme

Le philosophe français Gaston Bachelard introduit le concept de rupture épistémologique pour décrire comment la science doit changer de théorie et de méthode en cas d’échec.

Dans son ouvrage de 1962 intitulé « La structure des révolutions scientifiques », le philosophe épistémologiste, l’américain Thomas S. Kuhn a suggéré que:

 

la science ne se développe pas de manière continue et linéaire, mais plutôt par une série de "changements de paradigmes".

 

En philosophie des sciences, un paradigme est une vision très générale du monde, un cadre conceptuel dans lequel les scientifiques opèrent, et dans lequel toute investigation particulière est entreprise. Dans le cadre d'un paradigme donné, les chercheurs poursuivent une "science normale", résolvant les problèmes posés selon la vision connue du monde, sans chercher à la remettre en question.


Un changement de paradigme est une rupture, une révolution scientifique au cours de laquelle un paradigme en remplace un autre. Cela conduit à une période de "science révolutionnaire" au cours de laquelle de nouvelles perspectives s'ouvrent, de nouvelles pistes de recherche se présentent et de nouvelles questions sont posées sur les anciennes données et sur les anciennes hypothèses. Les changements de paradigme se produisent lorsque des incohérences et des énigmes insolubles du paradigme existant s'accumulent.

L'exemple classique d'un changement de paradigme est la prise de conscience par Nicolas Copernic (1473-1543) que l'ancien modèle ptolémaïque de l'univers centré sur la terre ne pouvait pas expliquer les observations accumulées sur les planètes. En émettant l'hypothèse que la Terre tournait autour du Soleil, et non l'inverse, il a constaté que son nouveau modèle correspondait mieux aux données. Le modèle de Copernic centré sur le Soleil a été dénoncé par l'Église catholique romaine, car il éloignait la Terre, et donc l'humanité, du centre de l'univers.

Un autre changement spectaculaire de paradigme, citons le renversement de la mécanique newtonienne par la physique quantique et la relativité au début du vingtième siècle.
En mettant en lumière les changements de paradigme, Kuhn a montré que la science est en fait une activité humaine. En tant que telle, la science est dans une certaine mesure subjective, façonnée par des facteurs sociaux, culturels et historiques.

 

Espace

L'espace est l'étendue sans limites dans laquelle tous les objets sont situés. Dans le cadre de l'espace, les positions des objets, les uns par rapport aux autres, peuvent être données par la distance et la direction. L'espace, l'une des grandeurs fondamentales de la science, est mesuré par le mètre.
Selon la mécanique newtonienne, l'espace a trois dimensions linéaires et est absolu, existant indépendamment de toute matière.
Selon la théorie de la relativité, l'espace fait partie du continuum espace-temps, le temps étant la quatrième dimension. La relativité nous dit que l'espace-temps n'est pas absolu et ses deux aspects peuvent être déformés par les champs gravitationnels autour des objets massifs.
La théorie du Big Bang postule que l'espace-temps est apparu il y a 13,7 milliards d'années et que, depuis cet événement, il n'a cessé de s'étendre. Dans l'abstrait, l'espace est conçu comme illimité, mais la question de savoir si l'univers lui-même est infini, continue de préoccuper les cosmologistes.



Selon la théorie générale de la relativité, l'espace-temps agit comme une "feuille de caoutchouc" ou un « drap » qui peut être déformée par la présence de grandes masses.

Temps


Le temps est l'une des dimensions fondamentales de la physique. Il mesure la durée, en relation avec un processus périodique régulier tel que la rotation de la Terre ou l'émission de radiations par des atomes de césium (utilisé comme base pour la définition moderne de la seconde, l'unité fondamentale du temps).


Notre expérience subjective du temps suggère qu'il n'est pas absolu, le temps est long lorsque nous nous ennuyons et s’accélère lorsque nous nous amusons. De notre point de vue, le passé, le présent et le futur se chevauchent.


Contrairement à cette expérience, la mécanique classique newtonienne insiste sur le fait que le temps s'écoule à une vitesse uniforme. Mais les théories de la relativité d'Einstein nous apprennent que le temps n'est pas absolu et qu'aux vitesses approchant celle de la lumière (par rapport à l'observateur), le temps est dilaté. Avec l'espace, le temps forme le continuum quadridimensionnel appelé espace-temps.

Le temps peut être défini comme le cadre dans lequel le changement se produit. Il semble également avoir une direction : bien que la plupart des lois de la physique permettent aux processus d'aller dans les deux sens, certaines ne le permettent pas.

 

C'est le cas de la deuxième loi de la thermodynamique, formulée au XIXe siècle, qui stipule que l'entropie (désordre ou chaos) de tout système augmente avec le temps. Les roches s'effritent, les voitures rouillent, les êtres vivants meurent et se décomposent - autant de processus irréversibles.


Selon la théorie du Big Bang, l'univers a commencé il y a 13,7 milliards d'années. Si le temps existait avant cela, alors ce qui s'est passé dans cette période antérieure n'a pu avoir aucun effet sur la période actuelle.

La deuxième loi de la thermodynamique suggère que tout mouvement et tout changement, et que le temps lui-même finira par cesser. Les cosmologistes rappellent que notre univers n'est qu'un univers parmi une myriade d'autres, et que la fin de notre univers n’est pas la fin de tout.

 

 

L'infini

L’infini est une quantité, grande ou petite, sans fin ni limite. C'est l'un de ces concepts que l'esprit humain a du mal à appréhender, notamment en ce qui concerne le temps et l'espace.
Il est presque impossible d'imaginer "l'éternité", et pourtant la notion de limite de l'espace ou de fin du temps est tout aussi problématique : on finit toujours par se demander ce qu'il y a au-delà de la limite ou ce qui se passe après la fin du temps. Les physiciens n'ont pas encore apporté de réponses concluantes.

En mathématiques, le concept d'infinitésimaux (quantités infiniment petites, mais supérieures à zéro) est essentiel.

Deux siècles plus tard, le mathématicien allemand Georg Cantor (1845-1918) a développé une arithmétique de l'infini, c'est-à-dire une extension, aux nombres qui lui servent à mesurer l'infini, des règles de calcul qu'on applique aux nombres entiers, servant à mesurer le fini. Il a montré qu’il existe différents infinis, dont certains sont plus grands que d'autres.

 

Matière

La matière est toute substance, solide, liquide ou gazeuse, qui occupe de l'espace et possède une masse. La théorie atomique moderne a vu le jour au début du XIXe siècle lorsque le chimiste anglais John Dalton (1766-1844) a proposé que les substances homogènes soient constituées de minuscules particules identiques appelées atomes.

Ces derniers sont essentiellement indivisibles et restent inchangés au cours des réactions chimiques.
Dalton ne faisait pas de distinction entre les atomes et les molécules. Les atomes sont les unités de base des éléments (hydrogène, oxygène, fer, or, uranium, etc.), et diffèrent en masse et en propriétés chimiques selon l'élément concerné. Les molécules sont composées de plus d'un atome, généralement d'éléments différents et sont les unités de base des composés chimiques. Par exemple, une molécule d'eau comporte deux atomes d'hydrogène et un d'oxygène.

À la fin du XIXe siècle, le physicien Thomson (1856-1940) a découvert l'électron, une minuscule particule chargée négativement au sein de l'atome. Cette découverte a montré que les atomes sont divisibles et a déclenché des recherches intensives sur la structure atomique.

Le modèle qui a émergé décrit l'atome comme un espace vide, dans lequel un minuscule noyau est entouré de "nuages" d'électrons chargés négativement. Le noyau contient la majeure partie de la masse de l'atome et se compose de protons (particules à charge positive) et de neutrons (qui n'ont pas de charge).

D'autres recherches sur les particules fondamentales ont conduit au "modèle standard" de la physique des particules.

Nos hypothèses sur la nature de la matière ont été troublées par la théorie quantique, qui introduit l'idée que les électrons et diverses autres particules peuvent se comporter comme des ondes.

 

Une autre hypothèse, selon laquelle la matière ne peut être ni créée ni détruite, a été démolie lorsqu'Einstein a proposé sa formule E = mc2 qui montre que la matière peut être convertie en énergie et vice versa, comme le démontrent la fission et la fusion nucléaires, à la base des armes et de l'énergie nucléaires.

 

Théorie des ondes

Nous considérons les vagues comme des ondulations dans un plan d'eau. De nombreux phénomènes physiques, son, lumière, et rayons X sont constitués d'ondes.
Une onde est un changement périodique ou une oscillation qui se propage dans un milieu ou un espace. La plupart transportent de l'énergie d'un endroit à un autre.

 

Les ondes sonores transfèrent de l'énergie mécanique, tandis que les ondes lumineuses transfèrent de l'énergie électromagnétique.


Dans les ondes transversales, les oscillations sont perpendiculaires à la direction du déplacement, tandis que dans les ondes longitudinales, elles sont parallèles à la direction du déplacement.


Les ondes ont trois caractéristiques en commun : l'amplitude, la longueur et la fréquence. Les ondes peuvent être réfléchies, où elles rebondissent sur une surface, réfractées où elles sont déviées par le passage dans un autre milieu et diffractées quand elles s'étalent après avoir traversé un petit espace. Elles peuvent interférer entre elles. Quel que soit le type d'onde, ces caractéristiques peuvent être décrites à l'aide de formules mathématiques.

 

La mécanique newtonienne

La mécanique est la branche de la physique qui décrit le mouvement des objets, que ce soit à l'échelle galactique ou subatomique. La plupart des types de mouvement, de l'orbite d'une planète à la trajectoire d'un boulet de canon, peuvent être décrits par les trois lois du mouvement et la loi de la gravitation formulées par Isaac Newton (1642-1727).


Le concept de force est sous-jacent aux lois de Newton. Une force est tout ce qui modifie le taux de changement de la vitesse d'un corps. Ce taux de changement peut impliquer une accélération ou une décélération dans une direction uniforme, ou un changement dans la direction du mouvement.


La première loi du mouvement de Newton stipule qu'un corps reste au repos ou se déplace en ligne droite et à une vitesse constante, à moins qu'il ne soit soumis à une force extérieure. La tendance d'un corps à rester au repos ou à se déplacer à une vitesse constante est nommée son inertie. Celle-ci dépend de la masse du corps.

La deuxième loi de Newton stipule que la force agissant sur un corps est égale au changement créé dans son élan.

La troisième loi stipule que toute force d'action est modérée par une réaction égale et opposée.

La loi de la gravitation de Newton stipule que toute masse dans l'univers exerce une force sur toute autre masse, et que cette force est directement proportionnelle à la masse. La gravitation elle-même est l'une des forces fondamentales de la nature et n'est que partiellement comprise.

 

Les lois de Newton ont fait preuve d’un étonnant pouvoir de prédiction et d’applications pratiques. Cependant, la relativité et la théorie quantique montrent que les lois de Newton ne s'appliquent ni à des vitesses proches de celle de la lumière, ni à l'échelle subatomique.

 

Électromagnétisme

Le magnétisme et l'électricité étaient mal compris jusqu'au début du XIXe siècle, lorsqu'une série d'expériences a montré qu'un courant électrique circulant dans un fil de cuivre affectait les aiguilles de boussoles magnétiques situées à proximité. Il devint évident que le magnétisme et l'électricité étaient des forces qui pouvaient agir l'une sur l'autre à distance. En 1831, Michael Faraday (1791-1867) a démontré qu'un courant électrique apparait dans un fil s'il est soumis à un champ magnétique variable.
Ce phénomène est à la base du générateur électrique, tandis que le processus inverse est à la base du moteur électrique.


Plus tard au XIXe siècle, le physicien James Clerk Maxwell (1831-79) a proposé que l'électricité et le magnétisme soient des manifestations d'une seule force électromagnétique et que les oscillations électriques génèrent des ondes électromagnétiques.

 

D'autres recherches ont validé ses théories et ont permis de découvrir que les ondes radio, les rayons X, en passant par la lumière visible, sont de nature électromagnétique.

 

Théorie quantique

Vers la fin du XIXe siècle, l'observation de divers phénomènes liés au rayonnement électromagnétique a soulevé des questions auxquelles la physique classique semblait incapable de répondre. Puis, en 1900, le physicien Max Planck a suggéré que le rayonnement électromagnétique - y compris la lumière - n'est pas émis sous forme d'onde continue, mais sous forme de petits paquets d'énergie appelés quanta. Planck a lié l'énergie (E) de chaque quantum à la fréquence de l'onde (f) dans l'équation E = hf, où h est la constante de Planck.

L'effet photoélectrique, dans lequel des électrons sont émis lorsque la lumière ou d'autres formes de rayonnement électromagnétique frappent certains métaux est resté sans explication. En 1905, Albert Einstein a proposé que cet effet ne pût être expliqué que si la théorie quantique de la lumière de Planck était validée. Dans le cas de l'effet photoélectrique, la lumière ne se comporte pas comme une onde, mais comme un flux de particules (photons). Deux décennies plus tard, le physicien français Louis Victor de Broglie (1892-1987) a suggéré que les électrons présentaient une "dualité onde-particule" similaire.

L'idée de Planck a incité le physicien danois Niels Bohr à suggérer en 1913 qu'à l'intérieur de l'atome, les électrons ne peuvent se déplacer que sur certaines orbites autorisées, chacune ayant son propre niveau d'énergie. Lorsqu'un électron saute d'un niveau d'énergie supérieur à un niveau inférieur, un rayonnement est libéré sous forme de quanta.
En 1927, le physicien allemand Heisenberg a élaboré son célèbre principe d'incertitude. La mécanique newtonienne suppose que la position et la quantité de mouvement d'un corps peuvent être mesurées simultanément avec une précision infinie. Le principe d'incertitude stipule qu'à l'échelle atomique et subatomique, cela n'est pas possible, car l'acte même d'observer modifie le résultat.


La théorie quantique, qui ébranle de nombreux cadres conceptuels tels que la causalité, peut sembler contraire au bon sens. Mais elle a trouvé d'innombrables applications pratiques, notamment dans notre compréhension des semi-conducteurs, la base de la technologie informatique moderne.

Relativité

La mécanique newtonienne considère que la masse, l'espace et le temps sont tous absolus. Ces hypothèses fonctionnent parfaitement bien, mais la théorie spéciale (1905) et la théorie générale (1915) de la relativité d'Albert Einstein ont proposé que, dans certaines circonstances, la mécanique newtonienne ne s'applique plus.


La théorie spéciale de la relativité stipule que rien ne peut voyager plus vite que la vitesse de la lumière, qui, dans le vide, est constante, quel que soit le mouvement de l'observateur. Si un objet passe rapidement devant un observateur, il semblera être devenu plus court et plus massif, bien que cet effet ne soit significatif qu'à des vitesses proches de celle de la lumière. De même, une horloge passant à des vitesses similaires par rapport à l'observateur semblera fonctionner plus lentement que lorsqu'elle est au repos.

 

La théorie générale propose l'idée d'espace-temps, et affirme que la masse peut "courber" à la fois l'espace et la lumière via la gravité. Des expériences ont par la suite validé les théories d'Einstein.

La théorie des cordes

Ce modèle de la physique concerne trois des quatre forces fondamentales de la nature et utilise la mécanique quantique pour décrire la manière dont ces forces affectent les particules subatomiques.
S'appuyant sur des modèles antérieurs de l'atome, les physiciens théoriques ont proposé, à partir du milieu du XXe siècle, un large éventail de particules subatomiques. Ces propositions ont permis d'expliquer divers résultats expérimentaux, et l'existence de nombre de ces particules hypothétiques a été établie par la suite. Par exemple, en 1964, le physicien américain Murray Gell-Mann a proposé que les protons et les neutrons présents dans les noyaux atomiques soient chacun constitués de trois particules encore plus petites, qu'il a appelées quarks. Ceux-ci ont été découverts depuis.

 

Les quarks sont une catégorie de particules élémentaires. Ils sont maintenus ensemble par la force nucléaire par échange de particules appelées gluons.


Les gluons sont un type de boson, une catégorie de particule élémentaire qui sert de médiateur aux forces fondamentales. La force nucléaire impliquée dans certains types de radioactivité est médiée par les bosons W et Z, tandis que la force électromagnétique est médiée par les photons.

La force électromagnétique provoque l'interaction entre des particules chargées électriquement, comme les protons et les électrons. Les électrons appartiennent à la troisième classe de particules élémentaires, les leptons. Parmi les autres leptons figure le neutrino, qui n'a aucune charge et pratiquement aucune masse.

Ce modèle standard ne tient pas compte de la quatrième force fondamentale, la gravitation, qui est régie par la relativité générale.

Une tentative de réconciliation de la mécanique quantique et de la relativité générale en une "théorie du tout" est la théorie des cordes, qui suggère que les électrons et les quarks sont des "cordes" unidimensionnelles oscillantes. La théorie des cordes reste controversée, car elle nécessite des dimensions supplémentaires non observées et n'a pas encore fait de prédictions vérifiables.

 

Le Big Bang


En 1929, l'astronome américain Hubble observe que diverses galaxies
s'éloignent. Cela a donné naissance à l'idée que l'univers est en expansion. L’idée du Big Bang est née.
Au début, l'univers était petit, très dense et très chaud, il était composé des particules élémentaires simples. L'expansion a été rapide et, en quelques minutes, les protons et les neutrons se sont assemblés pour former les noyaux d'hydrogène et d'hélium, qui ont commencé à fusionner pour former des étoiles, au sein desquelles d'autres éléments ont rapidement été créés.
L'expansion s'est poursuivie, mais on ignore si elle se poursuivra éternellement. Si l'univers a une masse suffisante, sa gravité peut finir par le ramener dans un "Big Crunch", ce qui pourrait conduire à un autre Big Bang. Dans le cas contraire, l'expansion se poursuivra éternellement et l'univers connaîtra une longue mort froide.

La théorie du chaos

La théorie du chaos est un domaine des mathématiques qui étudie comment de petites différences dans les conditions initiales au sein de systèmes dynamiques complexes peuvent aboutir à des résultats différents. La théorie du chaos a été appliquée à des systèmes dans de nombreux domaines, comme la météorologie, la biologie et la physique. Bien que ces systèmes soient déterministes, sans éléments aléatoires, la façon apparemment chaotique dont ils se comportent rend la prédiction très difficile.

Un des premiers pionniers de la théorie du chaos fut le mathématicien américain Edward Lorenz. En 1961, Lorenz utilisait un modèle informatique pour prédire le temps. Il a commencé par saisir des données relatives à des variables interdépendantes telles que la température, l'humidité, la pression atmosphérique, la force et la direction du vent. La première fois qu'il a lancé le programme, il a tapé un chiffre de 0,506127 pour l'une des variables. Puis, lorsqu'il a relancé le programme, il a pris un raccourci en tapant le chiffre arrondi de 0,506. Le scénario météorologique qui en a résulté la deuxième fois était complètement différent du premier. L'infime disparité de 0.000127 avait eu un effet énorme.

En 1963, un collègue de Lorenz a fait remarquer que s'il avait raison, "un seul battement d'ailes d'une mouette suffirait à modifier le temps pour toujours". En 1972, dans le titre d'un article, Lorenz demandait : "Le battement d'ailes d'un papillon au Brésil déclenche-t-il une tornade au Texas ?» Ainsi, la théorie du chaos a trouvé son nom populaire : l'effet papillon.
Le battement d'ailes d'un seul papillon ne provoque pas une tornade, de nombreux autres facteurs entrent en jeu. Mais ce seul battement d'ailes peut être la goutte d'eau qui fait déborder le vase.

Malgré son nom, la théorie du chaos est rigoureusement mathématique et a permis d'élucider l'ordre caché qui régie une multitude de systèmes apparemment aléatoires, de facteurs qui précipitent les crises d'épilepsie, turbulences de l'air qui provoquent la traînée des véhicules en mouvement, fluctuations des populations d'animaux sauvages au flux de circulation dans les rues encombrées des villes, et les mouvements financiers.

 

Intelligence artificielle

En 1950, le mathématicien Alan Turin propose un test pour établir si une machine peut être qualifiée d'intelligente. Un humain assis dans une pièce pose des questions à un autre humain dans une deuxième pièce, et à un ordinateur dans une troisième pièce. Si l'humain dans la première pièce ne peut pas juger s'il parle à un humain ou à une machine, alors l'ordinateur a réussi le "test de Turing".

Des doutes ont été émis sur la validité de ce test. Dans une célèbre expérience de pensée, un homme est assis dans une pièce pendant que des personnes à l'extérieur de la pièce glissent des questions en chinois sous la porte. L'homme ne comprend pas le chinois, mais suit un ensemble d'instructions qui lui indiquent quels morceaux de papier il doit repousser sous la porte. Par conséquent, les personnes à l'extérieur de la pièce ne peuvent pas dire qu'il n'est pas de langue maternelle chinoise. La conclusion est que même si les ordinateurs donnent les bonnes réponses, ils ne pourront jamais être des esprits conscients et intelligents. Cependant, ils pourraient être plus performants que les humains quand il s’agit de la gestion des systèmes complexes.

 

La théorie des bactéries et germes

C’est une théorie sans mathématiques.
Pendant des siècles, les causes de nombreuses maladies sont restées un mystère. Certains attribuaient la maladie au poison, d'autres au mauvais air, d'autres encore au mécontentement de Dieu.

Dans les années 1840, Ignaz Semmelweiss, un obstétricien hongrois travaillant à Vienne, a remarqué que les femmes en travail suivies par des médecins étaient beaucoup plus susceptibles de succomber à la fièvre puerpérale que celles suivies par des sages-femmes. Il a fait le rapprochement avec le fait que les médecins venaient souvent directement d'autopsies sans se laver les mains, et a insisté pour que les médecins se désinfectent avant d'examiner leurs patients. Les idées de Semmelweiss ont suscité beaucoup d'hostilité et ont été généralement ignorées à l'époque.

Dans les années 1850, lors d'une épidémie de choléra à Londres, le médecin John Snow a montré que la plus forte densité de l’épidémie se trouvait chez les personnes qui utilisaient une pompe pour obtenir de l'eau potable. Snow a retiré la poignée de la pompe et le nombre de cas a diminué de façon spectaculaire. Ces liens ont permis de montrer comment les maladies se propagent. Certains avaient commencé à suggérer que les agents responsables pouvaient être des germes, des micro-organismes visibles uniquement au microscope. C'est au microbiologiste français Louis Pasteur (1822-95) qu'il revient de trouver des moyens de prévenir et de traiter les maladies causées par des micro-organismes. Il a utilisé la chaleur pour détruire les micro-organismes nuisibles dans le lait et a développé des vaccins pour guérir la rage et l'anthrax.

Le médecin allemand Robert Koch (1843-1910) a identifié les bactéries à l'origine de maladies telles que le choléra et la tuberculose, et en définissant les critères permettant de déterminer si une maladie est causée par un micro-organisme. Ces maladies sont nommées les maladies infectieuses.

Dans les années 1870, le chirurgien britannique Joseph Lister a été le premier à pratiquer une chirurgie antiseptique. La prochaine grande avancée a été la découverte de la pénicilline par le microbiologiste écossais Alexander Fleming en 1928. Ce fut le premier d'une longue série d'antibiotiques, médicaments qui se sont avérés efficaces contre un grand nombre de maladies bactériennes. Les vaccins et les antibiotiques ont sauvé beaucoup de vies et ont inauguré l’efficacité de la médecine moderne.

 

Évolution

La théorie de l'évolution par la sélection naturelle exposée par le naturaliste anglais Charles Darwin dans son livre « L'origine des espèces » (1859) est une théorie simple, facile et efficace n’utilisant pas les mathématiques.

Darwin a passé des décennies à collecter et classer des preuves avant de publier sa théorie. Les géologues avaient montré que la Terre était beaucoup plus ancienne qu'on ne l'imaginait et que les roches anciennes conservaient les fossiles de nombreux animaux disparus. En comparant ces fossiles entre eux et avec des espèces vivantes similaires, mais différentes, Darwin a suggéré que des groupes d'espèces modernes similaires avaient évolué par petites étapes à partir d'ancêtres communs. Le mécanisme qu'il a suggéré était la sélection naturelle. De temps à autre, une mutation fortuite se produit chez un individu, qui le rend mieux adapté à son environnement. Ces individus ont donc plus de chances de se reproduire avec succès et de transmettre l'adaptation. C'est ainsi que de nouvelles espèces dont nous faisons partie sont apparues.

Nature ou culture

Du vivant de Darwin, un Autrichien, un moine du nom de Gregor Mendel (1822-84) a découvert certaines lois de l'hérédité. Grâce à ses expériences sur des générations de plants de pois, Mendel a démontré qu'une caractéristique, telle que la couleur des fleurs, est héritée soit du parent mâle, soit du parent femelle. L'unité qui transmet cette caractéristique s'appelle un gène.


En 1953, l'Américain James Watson et l'Anglais Francis Crick ont démontré comment les gènes transmettent les caractéristiques. La clé est une molécule complexe appelée ADN, présente dans chaque cellule de chaque organisme vivant. L'ADN de chaque organisme est unique et contient le code de la manière dont cet individu particulier va croître et se développer.

Est-ce que l'ADN détermine le comportement d'un organisme ? Si tel est le cas, cela soulève d'autres questions relatives au déterminisme, au libre arbitre et à l'existence de la nature humaine. Les psychologues évolutionnistes affirment que la plupart des comportements sont déterminés par les gènes et l’hérédité, les psychologues cognitifs soulignent le rôle important de l'apprentissage, les sociologues et les anthropologues insistent sur le rôle de la société et la culture dans la détermination du devenir des individus.

 

Il n’existe aucune réponse valable à ces questions, mais le consensus scientifique occidental accepte l'héritage génétique et l'environnement, donc la nature et la culture façonnent notre nature.

Lire la suite
0
  1605 lectures
  0 commentaires
1605 lectures
0 commentaires

Suivez-nous !