wasabi a écrit : ↑04 juin 2020, 21:22
PierreQRL a écrit : ↑03 juin 2020, 23:23
Sans entrer dans un débat pointu sur les origines de la vie ou la mécanique quantique, les deux pouvant tout à fait être liés par ailleurs (voir
https://link.springer.com/article/10.1007/BF02193624 même si le papier prête à discussion), et qui risque de nous mener loin du sujet de ce fil, deux remarques rapides si je peux me permettre.[...]
Encore désolé d'être aussi approximatif, mais le temps manque pour avoir une discussion plus rigoureuse sur ce vaste sujet.
Je vais le dire autrement vu que vous me parlez d'autre chose.
Il y a différents niveaux de sciences, il y a celles où on peut faire des expérimentations en isolant les paramètres sans limite, donc forcément on aboutit à quelque chose de clairement valable. Et les autres où on est bridé par une impossibilité de voir l'intérieur et de se contenter d'une approche "boîte noire" pour des raisons pratiques, techniques, financières ou ethiques. Et en plus il y a encore un autre problème fondamental qui est le fait de pouvoir réaliser des expériences ou de se contenter de celles qu'on a à disposition.
Quelques exemples
Vous étudiez les lois de la mécanique terrestre sans fluides, vous pouvez faire toutes les protocoles expérimentaux que vous voulez c'est super vérifié super fiable. Vous pouvez faire varier les paramètres un à un et voir ce que ça change. En plus c'est déterministe. Les phénomènes observés sont clairement plus important que le bruit de mesure ou les erreurs. Pas besoin de traitement computationnel des données brutes on voit tout de suite les résultats. C'est ce qu'il y a de mieux comme science en terme de connaissance. C'est avec ça que la technologie moderne fiable fonctionne (trains, voitures, ascenseurs...)
Vous étudiez les lois des corps célestes. vous êtes limité car vous ne pouvez faire aucun protocole expérimental, vous ne pouvez qu'étudier ce que vous voyez avec les paramètres tels qu'ils sont. En plus vous ne pouvez pas changer de point de vue. Vous ne pouvez en particulier pas savoir si les choses sont telles qu'elles sont parce qu'un phénomène nécessaire y aboutissait ou que c'est simplement le hasard. Peut être que quelque chose que vous tenez pour normal est en réalité improbable. C'est donc carrément plus de la fumette (voir les conneries annoncées lors d'une chute dans un trou noir avec le temps qui devient un imaginaire pur) alors que c'est toujours déterministe. Les phénomènes observés peuvent être de l'ordre de grandeur du bruit et erreurs, voir inférieurs et nécessiter des astuces (LIGO...) donc ça nécessite des traitements statistiques malgré que c'est déterministe, parfois des quantités de traitements gigantesques tellement volumineux qu'Internet ne peut pas encaisser les transferts de données (EHT)
Vous étudiez les lois de l'infiniment petit. Là on est dans la physique quantique. Il n'y a plus de déterminisme, les erreurs de mesures sont souvent de l'ordre des phénomènes observables. Donc là vous cumulez deux problèmes statistiques, l'un pour les erreurs, l'autre pour le phénomène en lui même qui est statistique. Mais vous pouvez faire ce que vous voulez comme expérience, vous n'avez pas de limites éthiques, et vous pouvez définir vos protocoles et vous n'êtes pas obligés de vous contenter d'observer un truc qui a lieu. En revanche il y a des limites pratiques, finançières (LHC par exemple).
Vous étudiez la météo, là il y a le problème de théorie du chaos, qui introduit aussi du hasard sur l'hypersensibilité aux conditions initiales, qui fait qu'il y a d'autres traitement statistiques encore que pour des erreurs / bruits classiques car ici ça diverge vite.
Vous faites de la biologie, et là il y a encore un autre problème statistique qui fait que les êtres vivants sont complexes et qu'ils ne réagissent pas de la même façon, donc là on se retrouve encore avec un autre niveau de statistique, ce n'est pas de l'erreur, ce n'est pas du chaos, ce n'est pas du quantique, c'est carrément des moyennes sur des individus. Et les problèmes financiers, éthiques, pratiques de mesure.
Bref à un moment à force d'empiler des techniques statistiques de correction de données, est ce qu'on va vraiment vers la vérité ou que les techniques et leurs hypothèses sous jacentes ne conditionnent pas les résultats ? En particulier la règle des X sigmas n'a sûrement pas la même signification en physique pour voir un phénomène qu'en biologie où il y a des individus contre exemples des phénomènes.
Désolé de n'avoir pas percuté et répondu à coté à ta question. Je vais essayer de faire un peu mieux cette fois ci.
Tout d'abord, il y a une règle qui vaut ce qu'elle vaut mais qui marche en général: quand on considère un phénomène à l'échelle microscopique (ce que certains appellent l'infiniment petit), par exemple en physique nucléaire quand on parle de protons ou de neutrons ou en physique des particules quand on va encore plus profond dans la structure de la matière, les phénomènes sont quantiques et, donc, on ne peut les traiter que de manière probabiliste. Le comportement de ces objets ou particules, pris individuellement, n'est pas entièrement prédictible. Par contre, si on en prend un grand nombre de ces particules, ont peut prédire leur comportement jusqu'à un certain dégré.
Par exemple, quand on prend un neutron tout seul, il peut rester pendant longtemps neutron (surtout s'il est en mouvement rapide) mais il peut aussi très vite se désintégrer pour donner un proton (plus un electron et un anti-neutrino, et plus précisément de l'énergie, c'est le principe de la radioactivité ). Mais si on attend assez longtemps, tous les neutrons libres vont se désintégrer en protons, la durée de vie moyenne étant de 15 minutes environ. Donc si on prend un gros paquet de neutrons et qu'on attende assez longtemps, on ne verrait que des protons, eléctrons et neutrinos et le phénomène n'est plus tout à fait probabiliste. En fait, on n'a pas affaire à un phénomène microscopique puisqu'on ne parle plus d'un neutron tout seul mais d'un gros paquet, c'est un macroscopique et dans cas ce n'est plus tout à fait quantique. Ceci n'est vrai qu'en première approximation, parce que si on mesure les choses plus précisément, on se rendra compte qu'il y a une partie infime du collectif, qui nous a échappé au départ, qui reste encore neutron et, mieux encore, donnera autre chose une fois que ça se désintègre (par exemple, il y a une petite probabilité de l'ordre de quelques pour mille pour qu'il y ait un photon en plus comme produit de la désintégration de ce neutron). Donc, si on a affaire à quelque chose de macroscopique où de prime abord les chosent sont effectivement déterministes, si on veut faire les choses assez précisément, on se rend compte que ce n'est pas tout à fait le cas.
A cela s'ajoute le coté statistique (mais non quantique) du phénomène individuel en lui même. Dans l'exemple que tu prends, le boson de Higgs, il y a plusieurs canaux de désintégration possibles et celui qui est le facilement détectable expérimentalement (au LHC comme tu le soulignes), la désintégration en deux photons, ne se produit en moyenne que 0.3% des cas. Des événements avec deux photons sont très fréquents au LHC, en fait une dizaine d'ordre de magnitude plus fréquents, et il faut être assez malin pour en éliminer la majeure partie. Et ensuite avoir assez d'événements ou de statistique pour être sûr que ceux qu'on observe sont bien dûs au Higgs et pas à autre chose.
Maintenant, tu as raison sur point principal que tu soulèves (si j'ai bien compris). Dans le cas du neutron ou du boson de Higgs, les choses sont conceptuellement assez simples (mais, il ne faut pas l'oublier, c'est parce que le terrain a été préalablement bien déblayé: la physique a juste un siècle? d'avance sur la biologie par exemple et cela va être rattrapé à un moment ou à un autre) et on peut arriver à simplifier le problème de manière à avoir un signal simple et des bruits de fond connus et prédictibles collectivement. On a donc réussi à restreindre le nombre de paramètres à un niveau minimal qui permet de faire des prédictions fiables. C'est aussi le cas dans l'expérience LIGO que tu mentionnes où bien que les phénomènes en jeu soient extrêmement rares et les possibilités que quelque chose d'autre puisse les imiter extrêmement élevées, on a réussi à définir un signal caractéristique d'un trou noir et en même temps à minimiser tous les effets astrophysiques connus qui pouvaient l'imiter et qui étaient des ordres de magnitude plus importants (une espèce de protocole quoi..).
Par contre, en météorologie, on n'y arrive pas encore tout à fait, ou du moins pas avec la précision qui nous aurait permis de choisir en mai la bonne semaine pour prendre ses vacances sur la Costa de Sol en juillet. Et la raison est toute simple: bien que non quantique (c'est en gros de la mécanique des fluides) et même sans faire intervenir la théorie du chaos, le système est beaucoup plus complexe parce qu'il y a trop de paramètres qui entrent en jeu. On ne connait donc pas assez l'état initial, on ne contrôle pas tous les paramètres impliqués et on ne connait pas parfaitement leur dynamique et, donc forcément, on ne peut pas faire de prédictions absolument fiables. Ce qu'on peut faire, par contre, c'est de restreindre le jeu de paramètres et approximativement modéliser leurs effets principaux pour faire des prédictions plus ou moins grossières, valides sur le plus ou moins court terme ou sur une région bien délimitée. Pour faire plus, il faut faire de grosses simulations informatiques pour inclure plus de paramètres et modéliser les choses de manière plus sophistiquée. Et si j'ai bien compris, le boulot principal des gros superordinateurs/supercalculateurs est de prévoir le temps qu'il va faire après-demain.
Pour un organisme vivant c'est encore plus complexe que la météorologie et on aura peut être l'occasion d'en discuter en détail plus tard (désolé, mais il est tard monsieur, et il faut que je rentre chez moi, comme disait le grand Jacques..). J'espère seulement que je suis plus près de ta question que dans mon précédent message.