Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 121
Temps de recherche: 0.0639s

défauts de la théorie newtonienne

1. On remarque constamment l’effort de Newton de présenter son système de pensées comme nécessairement conditionné par l’expérience. On remarque aussi qu’il utilise le moins possible de concepts non directement rattachables aux objets de l’expérience. Et pourtant il pose les concepts : espace absolu, temps absolu ! A notre époque, on lui en fait souvent grief. Mais, justement, dans cette affirmation, Newton se reconnaît particulièrement conséquent avec lui-même. Car il a découvert expérimentalement que les grandeurs géométriques observables (distances des points matériels entre eux) et leur cours dans le temps ne définissent pas complètement les mouvements au point de vue physique. Il a démontré ce fait par la célèbre expérience du seau. Donc il existe, en dehors des masses et de leurs distances variables dans le temps, encore quelque chose de déterminant pour les événements. Ce "quelque chose", il l’imagine comme le rapport à l’ "espace absolu". Il avoue que l’espace doit posséder une espèce de réalité pour que ses lois du mouvement puissent avoir un sens, une réalité de même nature que celle des points matériels et de leurs distances.

Cette connaissance lucide de Newton souligne évidemment sa sagesse mais aussi la faiblesse de sa théorie. Car la construction logique de cette architecture s’imposerait certainement beaucoup mieux sans ce concept obscur. Car alors, dans les lois, nous ne trouverions que des objets (points matériels, distances) dont les relations avec les perceptions resteraient parfaitement transparentes.

2. Introduire des forces directes, agissant à distance et instantanément pour représenter les effets de gravitation, ne concorde pas avec le caractère de la plupart des phénomènes connus par l’expérience quotidienne. Newton répond à cette objection. Il déclare que sa loi de l’action réciproque de la pesanteur n’ambitionne pas d’être une explication définitive, mais plutôt une règle déduite de l’expérience. 

3. Au fait particulièrement remarquable que le poids et l’inertie d’un corps restent déterminés par la même grandeur (la masse), Newton n’offre en sa théorie aucune explication ; mais la singularité du fait ne lui échappe pas.

Auteur: Einstein Albert

Info: "Comment je vois le monde", traduction de l’allemand par Maurice Solovine et Régis Hanrion, Flammarion, 2017, pages 225-226

[ science ]

 
Commentaires: 2
Ajouté à la BD par Coli Masson

physique quantique

Mais revenons à l’article de 1990, dont voici l’introduction : "Le concept de hasard intrigue depuis longtemps les physiciens, et même l'humanité en général. Quelle est l'origine du hasard ? Dans quelle mesure le futur peut-il être prédit ? Notre incapacité à prédire l'avenir est-elle la conséquence de nos limites humaines ou plutôt la conséquence d'une impossibilité de principe ? Ces questions ont, en physique, une longue histoire. La physique classique héritée d'Isaac Newton était complètement déterministe : la connaissance parfaite de l'état d'un système à un instant donné permettait en principe la détermination de son état à tout instant ultérieur. Puis vint au début de ce siècle la mécanique quantique, où probabilités et hasard interviennent au niveau le plus fondamental de la théorie ; en effet, celle-ci ne peut fournir que des probabilités de mesurer telle ou telle valeur de la position, de l'énergie, etc. La mécanique quantique introduisit donc une indétermination fondamentale dans la nature, chose qu'Einstein lui-même ne voulut jamais accepter, comme en témoigne son célèbre "Dieu ne joue pas aux dés". Puis, assez récemment, on s'aperçut avec l'étude des "systèmes dynamiques", qu'après tout, la physique classique avait aussi du hasard, ou plus exactement de l'imprévisibilité, enfouis en son sein, puisque certains systèmes même très simples, comme un système de pendules, peuvent exhiber un comportement imprévisible. Le hasard, souvent associé au désordre, est ainsi devenu, du moins en physique, une notion pleine de contenu." (…)
Mais définir le hasard (ou une suite aléatoire de résultats de mesure) par un programme "minimal", qu’on ne peut pas réduire par un algorithme, c’est faire sauter en souriant l’interprétation métaphysique qui établit une équivalence entre forme aléatoire et absence d’intentionnalité, de sens, de volonté et de conscience. On en revient finalement à Kant qui expliquait que l’on ne peut pas plus démontrer l’existence de Dieu que son inexistence, que toute la métaphysique échappe à la démonstration logique.(…)
Alors sans doute faut-il reconnaître aujourd’hui que ces limites sont inhérentes à la raison humaine, outil magnifique mais incapable de tout surplomber et que, plus nous avancerons dans la connaissance de l’univers et de nous-mêmes, plus nous buterons sur l’inconnaissable ou, plus exactement, l’inexprimable par nos langages, qu’il s’agisse des mots ou des équations. Un inexprimable qui n’empêche pas la conscience et semble jaillir des noces paradoxales de la rigueur et de la liberté, autre nom du hasard.

Auteur: Anonyme

Info: Dans "Les magiciens du nouveau siècle"

[ connaissance maximale ] [ butée ] [ impossible ]

 
Commentaires: 4
Ajouté à la BD par Coli Masson

sauvegarde

Stocker 360 TO pendant 13,8 milliards d'années ? C'est possible
Des chercheurs de l'Université de Southampton ont mis au point un procédé pour enregistrer jusqu'à 360 To de données sur un disque en verre de la taille d'une pièce de monnaie. Les données stockées sur ce support pourraient être accessibles pendant 13,8 milliards d'années.
La préservation et la transmission des connaissances est une problématique qui a préoccupé l'humain depuis la nuit des temps. La création humaine est fragile, elle s'altère avec le temps et sa survie est soumise aux aléas des guerres et des catastrophes naturelles.
Récemment, le conflit en Syrie a conduit à la destruction d'une partie incroyable du patrimoine mondial, mais l'humanité a connu des pertes massives à toutes les époques. Lors du séisme de 1755 à Lisbonne, plus de 70 000 volumes de la bibliothèque royale furent perdus à jamais, ainsi que des centaines de peintures majeures. Aujourd'hui, la conservation des oeuvres d'art demande de nombreux efforts aux institutions, mais c'est une course perdue d'avance dans la mesure ou le temps aura forcément raison des supports physiques.
La numérisation des oeuvres est une solution pour faire face à l'altération ; cependant, les supports numériques ne sont pas épargnés par les affres du temps. Ils sont sujets aux griffes et, exposées à l'humidité et à la chaleur, les données finissent par être corrompues. Mais des chercheurs de l'Université de Southampton, en collaboration avec l'université technique d'Eindhoven ont mis au point un procédé de stockage qui aurait une durée de vie virtuellement illimitée.
En encodant l'information au sein de nanostructures contenues dans du verre, les chercheurs ont réussi à stocker 360 To sur un disque pas plus gros qu'une pièce de monnaie. À titre de comparaison, c'est 3 000 fois plus qu'un Blu-ray qui peut stocker jusqu'à 128 Go de données - de quoi ravir tous les adeptes de téléchargement légal.
Mais en plus de proposer un stockage colossal, le support de stockage conçu par les chercheurs devrait toujours être accessible dans 13,8 milliards d'années ; à condition d'être conservé à une température inférieure à 190 degrés. On ne sera cependant pas là pour vérifier si leurs estimations étaient correctes.
Un cristal de mémoire
"C'est très excitant de savoir que nous avons créé une technologie capable de préserver les documents et les informations afin de pouvoir les transmettre aux générations futures" s'enthousiasme le professeur Peter Kazanky dans un communiqué de l'université, avant de rajouter que "cette technologie a le potentiel de sécuriser les dernières traces de notre civilisation : tout ce que nous avons appris ne sera pas perdu".
Pour réaliser cette prouesse, les chercheurs ont utilisé un laser femtoseconde afin d'enregistrer et de récupérer des informations stockées sur le support en cinq dimensions. Les variations dans l'orientation, la taille et la position du laser sur les axes x, y et z, changent la manière dont se réfléchit la lumière sur le support. Ces modifications peuvent être interprétées pour obtenir des informations.
Comparé au cristal mémoire utilisé dans Superman, cette nouvelle technologie a déjà été utilisée pour créer des copies éternelles de la Bible du roi Jacques, le traité Opticks d'Isaac Newton et La Déclaration Universelle des Droits de l'Homme.

Auteur: Piraina Alexis

Info: 18 février 2016, Sciences

[ préservation ] [ postérité ]

 

Commentaires: 0

physique photonique

Quantifier la quantification : un projet mathématique "d'une immense beauté".

Les chercheurs mettent au point une méthode pour déterminer le degré de quantification de l'état d'un système.

Tout grand objet : balle de base-ball, véhicule, planètes, etc, se comporte conformément aux lois classiques de la mécanique formulées par Sir Isaac Newton. Les petits, comme les atomes et les particules subatomiques, sont régis par la mécanique quantique, où un objet peut se comporter à la fois comme une onde et comme une particule.

La frontière entre le domaine classique et le domaine quantique a toujours été d'un grand intérêt. Les recherches rapportées dans AVS Quantum Science par AIP Publishing, examinent la question quant à savoir ce qui fait qu'une chose est "plus quantique" qu'une autre. Existe-t-il un moyen de caractériser la "quanticité" ? Les auteurs indiquent qu'ils ont trouvé une approche pour le faire.

Le degré de quanticité est important pour des applications telles que l'informatique et la détection quantiques, qui offrent des avantages que l'on ne trouve pas dans leurs équivalents classiques. Pour comprendre ces avantages, il faut à son tour comprendre le degré de quanticité des systèmes physiques concernés.

Plutôt que proposer une échelle dont les valeurs seraient associées au degré de quanticité, les auteurs de cette étude examinent les extrêmes, à savoir quels sont les états les plus, ou les moins... quantiques. Selon l'auteur Luis Sanchez-Soto, l'idée de cette étude est venue d'une question posée lors d'une réunion scientifique.

"Je donnais un séminaire sur ce sujet lorsque quelqu'un m'a posé la question suivante : 'Vous, les gars de l'optique quantique, vous parlez toujours des états les plus classiques, mais qu'en est-il des états les plus quantiques?'", 

On a compris depuis longtemps que les états dits cohérents peuvent être décrits comme quasi-classiques. Ils se produisent, par exemple, dans un laser, où la lumière provenant de plusieurs sources de photons est en phase, par conséquence dans un état très peu quantique.

Un tel système quantique peut être représenté mathématiquement par des points, plus ou moins nombreux, que l'on répartit sur une sphère, souvent en les intriquant sur spectre de couleurs pour avoir une meilleure représentation de ce qu'on appelle en général "constellation de Majorana". Pour les états cohérents, la constellation est simplement un point unique. Par conséquent ceux qui sont les plus quantiques présentent des configurations plus riches/nombreuses qui recouvrent plus richement la sphère. Les sphères pouvant être modélisées de plusieurs manières : par un simple cercle où sont disposés les "points quantiques", via les répartitions de couleurs, voire en usant de ces point de polarités pour transformer chaque sphère en un polyèdre plus ou moins complexe. 

Les chercheurs, après avoir examiné plusieurs autres approches de scientifiques ayant exploré les quanta, et en prenant en compte la constellation de Majorana pour chacune d'entre elles, s'étaient sont alors demandés comment répartir au mieux, ou le plus uniformément, l'ensemble des points sur une sphère dans le cadre de cette approche. 

C'est ainsi que Sanchez-Soto et ses collègues, en abordant la quanticité sous cet aspect, ont réalisé qu'il s'agissait d'un projet mathématique non seulement utile, mais "d'une immense beauté".

Auteur: Internet

Info: https://www.newswise.com. 12 nov 2020

[ électrons ]

 

Commentaires: 0

Ajouté à la BD par miguel

transition scientifique

B.T. Dobbs a fait de l’alchimie du XVIIe siècle un portrait qui donne des indications irremplaçables concernant le problème des "pratiques" alchimiques. Cette époque charnière représente en effet un moment clé dans l’histoire de l’art hermétique, puisque celui-ci va subir une "métamorphose" qui explique pour une large part les erreurs contemporaines relatives à sa juste compréhension. Selon B.T. Dobbs valorisant ce changement radical, l’alchimie qui jusque-là était étroitement liée à des "spéculations mystiques (...) trop fortement orientées vers l’illumination intérieure" va recevoir une "influence apaisante du rationalisme et de la nouvelle philosophie mécaniste. La voie était tracée, est-il ajouté, pour que l’alchimie s’ouvre à la rationalisation, qu’elle admette une formulation chimique, bref qu’elle accepte une clarification de ses méthodes et de ses modes de pensée". Plusieurs groupes, dont celui de Hartlib, seront responsables de ce processus révolutionnaire. Son objectif connu consistait en une "opération concertée ayant pour but la fabrication et la commercialisation de l’or". Cette démarche, dont B.T. Dobbs note qu’elle était étrangère à "la littérature alchimique antérieure", visait dans le même temps à "faire partager au plus grand nombre les secrets alchimiques". Il s’agit donc d’une triple sécularisation : vénale, commerciale et démocratique qui engage l’alchimie traditionnelle dans une voie rationnelle, puis expérimentale. Les conceptions de S. Hartlib n’eurent d’influence sur Newton que par l’intermédiaire d’un de ses plus proches disciples, d’ailleurs plus connu, R. Boyle, qui poursuivra le projet d’assimilation de l’œuvre alchimique à la vision mécaniste naissante de l’univers. Celui-ci "réfute la théorie alchimique des trois Principes (Soufre-Mercure-Sel) et les qualifie de paradoxes antichimiques", ce qui montre l’ampleur de la rupture qui se prépare. Toutefois, à côté de ces objectifs vulgaires, certains aspects de l’ancienne quête alchimique vont être également victimes d’une sorte de détournement de sens. La réalisation, notamment, de "l’eau mercurielle" qui, d’après B.T. Dobbs, ne fut auparavant "décrite nulle part en termes physiques" fut l’objet dans ces milieux novateurs d’investigations expérimentales qui d’ailleurs n’aboutirent pas à grand chose, selon leurs propres témoignages.

Un peu plus tard (au XVIIIe s.), on sait que H. Bœrhaave fera encore cette expérience de "chauffer du mercure" sans davantage de succès. Or, c’est ce même genre d’opération qu’entreprend Newton vers 1660. Ainsi, l’alchimie devient-elle, une fois débarrassée de son mystère, "une branche respectable de la physique". Curieusement, dans un climat déjà paradoxal, l’alchimie est simultanément respectée, vénérée et défigurée. Son ésotérisme n’étant plus compris, il faut en reconstituer la signification sur des bases nouvelles, sans rapport avec les anciennes, afin de retrouver la clé tant recherchée de l’univers. L’intention profonde de Newton, dans cette perspective, est de chercher à élucider "les mouvements des corps de petites dimensions, de manière à compléter, rapporte B.T. Dobbs, le système universel qu’il était en train d’édifier". Pour ce faire, et aussi étrange que cela puisse paraître, Newton essaiera d’extraire le "mercure" des métaux. Il participe donc à cette large entreprise de matérialisation des Principes hermétiques, de telle sorte que cette néo-alchimie en vint à concevoir l’existence d’un "mercure philosophique" concret. On peut donc penser qu’il ne l’était pas à l’origine, d’où une contradiction avec ce qu’affirmait au début de son livre B.T. Dobbs, qui admet la coexistence de "deux aspects" de l’ancienne alchimie : "la science occulte et les expériences au fourneau". Or, il apparaît clairement, d’après sa propre enquête, que cette concrétisation est le fait de chimistes manipulateurs tardifs, soucieux "d’expérimentations quantitatives". Cette mutation n’a d’ailleurs pu s’effectuer que par une sorte de transcription des "mythes" de l’alchimie ancienne en opérations de laboratoire, et ceci explique pourquoi Newton étudia avec tant de zèle ces vieux traités hermétiques.

Auteur: Geay Patrick

Info: Dans "Hermès trahi", pages 56-57

[ historique ] [ interprétation littérale ] [ incompréhension ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

races monades

"Pour nous qui travaillons dans un contexte zoösémiotique, il n'y a qu'une seule manière pour se frayer une issue dans ce maquis" (Sebeok, 2001, pp. 78 & 193n6).

Le réalisme ne suffit pas. Cette voie des choses a été essayée et s'est avérée insuffisante, même si elle ne l'est pas autant que la voie des idées.  Car le long de la Voie des signes, nous constatons que le "réalisme scolaire", comme l'a souligné Peirce ("ou une approximation proche de cela"), bien qu'insuffisant, fait partie de l'essence de l'entreprise. La seule façon d'atteindre au minimum ce réalisme (au sens du "réalisme scolastique" , c'est-à-dire tel que Peirce l'a correctement défini) c'est de garantir, au sein de l'expérience, une distinction non seulement entre signes et objets (les premiers étant considérés comme des "signes"), mais aussi entre les idées et les objets (les seconds étant considérés comme des "idées"). La seule façon d'atteindre le réalisme dans le sens minimaliste requis (au sens du "réalisme scolastique", tel que Peirce l'a défini) est de garantir, au sein de l'expérience, une distinction non seulement entre les signes et les objets (les premiers étant présupposés à la possibilité des seconds), mais aussi entre les objets et les choses. Le terme "choses" faisant ici référence à une dimension de l'expérience du monde objectif qui  ne se réduit pas seulement à l'expérience que nous en avons, mais qui est en outre connaissable en tant que telle au sein d'une objectivité via une discrimination, dans des cas particuliers, pour identifier ce qui marque la différence entre ens reale et ens rationis dans la nature des objets expérimentés. De cette façon (et pour cette raison), le "module minimal mais suffisant de traits distinctifs du  +,  -  ou 0, diversement multipliés dans des systèmes zoösémiotiques avancés, qui restent pourtant entièrement perceptifs par nature, est bien loin des modèles cosmiques extrêmement complexes que Newton ou Einstein ont, a des époques données, offert à l'humanité." (Sebeok, 1995, p. 87, ou 2001, p. 68).

Et la seule façon d'établir une différence entre les choses expérimentées en tant qu'objets à travers leur relation avec nous et les choses comprises, réellement ou prospectivement, en tant que choses en elles-mêmes, ou indépendamment d'une telle relation cognitive, c'est à travers un système de modélisation capable de discerner, grâce à des processus expérimentaux, une différence entre les aspects de l'objet donnés dans l'expérience et ces mêmes aspects donnés en dehors de l'expérience particulière.

Tels sont les termes tranchants de Sebeok, pour dire  que la distinction entre les objets et les choses dépend d'un système de modélisation, un Innenwelt, qui a parmi ses composants biologiquement déterminés un composant biologiquement sous-déterminé, composant que Sebeok nomme "langage". Grâce à ce dernier nous pouvons modéliser la différence entre les "apparences" au sens objectif et la "réalité" au sens scolaire, et proposer des expériences pour tester le modèle, conduisant à son extension, son raffinement ou son abandon, selon les particularités du cas. Il n'est pas nécessaire qu'il y ait un genre d'Umwelt - spécifiquement humain - pour que l'esprit soit en contact avec la réalité dans ce sens scolastique*. Car la réalité au sens scolastique n'a pas besoin d'être envisagée pour être rencontrée objectivement.

L'idée de réalité, nous le verrons bientôt, n'est rien d'autre qu'un composant représentatif d'une sorte d'Umwelt, ici spécifiquement humain. Mais le contenu objectif de cette idée (non pas formellement prescrite comme tel, mais "matériellement" au sens scolastique) fait partie de l'Umwelt de tout animal.

Sebeok aimait citer Jacob sur ce point : "Quelle que soit la manière dont un organisme étudie son environnement, la perception qu'il en a doit nécessairement refléter ce qu'on appelle la réalité et, plus précisément, les aspects de la réalité qui sont directement liés à son propre comportement. Si l'image qu'un oiseau obtient des insectes dont il a besoin pour nourrir sa progéniture ne reflète pas au moins certains aspects de la réalité, alors il n'y a plus de progéniture. Si la représentation qu'un singe construit de la branche sur laquelle il veut sauter n'a rien à voir avec la réalité, il n'y a plus de singe.  Et si ce point ne s'appliquait pas à nous-mêmes, nous ne serions pas ici pour en discuter." (Jacob, 1982, p. 56)

Auteur: Deely John

Info: The Quasi-Error of the External World an essay for Thomas A. Sebeok, in memoriam. *Ce que Peirce nomme " réalisme scolastique ", au vu de sa provenance médiévale dans la reconnaissance explicite du contraste entre l'ens reale et l'ens rationis (Le mental et le réel dans le formalisme scotiste du XVIe siècle), je l'appelle "réalisme hardcore", en raison de la continuité de la notion médiévale de l'ens reale avec le ον dont parlait Aristote en tant que grand-père de la scolastique. Ainsi, le réalisme pur et dur signifie qu'il existe une dimension de l'univers de l'être qui est indifférente à la pensée, à la croyance et au désir humains, de sorte que, si par exemple je crois que l'âme survit à la destruction de mon corps et que j'ai tort, quand mon corps disparaît mon âme aussi - ou, à l'inverse, si je crois que la mort du corps est aussi la fin de mon esprit ou de mon âme et que j'ai tort, lorsque mon corps se désintègre, mon âme continue à vivre, et je devrai faire le point en conséquence. Ou bien, pour donner un exemple plus historique, depuis l'époque d'Aristote jusqu'à au moins celle de Copernic, les meilleures preuves, arguments, et opinions de toutes sortes soutenaient que le soleil se déplace par rapport à la terre, alors qu'en réalité, depuis le début. c'était la terre qui bougeait par rapport au soleil, et si le soleil bougeait aussi, ce n'était pas par rapport à la terre

[ solipsisme de l'espèce ] [ représentations ] [ concepts ] [ tiercités ] [ échelles de grandeur ] [ réel partagé ]

 

Commentaires: 0

Ajouté à la BD par miguel

épigénétique

De la biologie quantique dans la photosynthèse ? La biologie actuelle en est-elle au stade où était la physique classique avant la découverte de la physique quantique ? Certains le soupçonnent depuis quelques années, et une publication récente dans Nature Communications vient d'apporter de l'eau à leur moulin. Il y aurait bien des processus quantiques derrière l'efficacité de la photosynthèse.

(On note Ψ la fameuse fonction d'onde décrivant les amplitudes de probabilité en mécanique quantique depuis les travaux de Schrödinger sur sa célèbre équation. On a de nouvelles raisons de penser que la vie exploite les lois de la mécanique quantique pour rendre certains processus plus efficaces, en particulier la photosynthèse. © Engel Group, University of Chicago - En commentaire de la photo d'une feuille au soleil)

C'est un fait bien établi que l'existence des atomes, des molécules et des liaisons chimiques ne sont pas compréhensibles en dehors des lois de la mécanique quantique. En ce sens, la physique et la chimie d'un bloc de métal ou d'une cellule sont quantiques. Mais on sait bien que le comportement de ces objets ne manifeste pas directement la nature quantique de la matière, ils font partie du monde de la physique classique. Cependant, certains phénomènes comme la supraconductivité ou la superfluidité débordent du domaine quantique d'ordinaire réservé à la microphysique pour entrer dans le monde à notre échelle. Lorsque la nécessité de la physique quantique s'est révélée aux physiciens explorant la matière et la lumière, ce fut essentiellement avec deux phénomènes qui semblaient au départ être de simples anomalies bien localisées dans l'univers de la physique classique : le rayonnement du corps noir et l'effet photoélectrique. Nous savons aujourd'hui qu'ils étaient la pointe émergée du monde quantique et que, fondamentalement, le réel est fort différent de la vision du monde bâtie par les fondateurs de la science classique comme Galilée, Descartes et Newton.

La biologie quantique pour expliquer la photosynthèse
De nos jours, les biologistes qui réfléchissent sur le fonctionnement des cellules, de l'ADN ou des neurones considèrent que ces objets sont majoritairement décrits par les lois de la physique classique. Il n'est pas nécessaire d'utiliser l'équation de Schrödinger ou les amplitudes de probabilités qu'elle gouverne pour comprendre l'origine de la vie, les mutations, l'évolution ou l'apparition de la conscience dans un cerveau. Pourtant, ces dernières années, quelques résultats expérimentaux en biologie, notamment sur la photosynthèse, semblaient défier les lois de la physique classique.

Il était et il est encore bien trop tôt pour savoir si la photosynthèse finira par être, pour une éventuelle biologie quantique, ce que le rayonnement du corps noir a été pour la physique quantique. Toutefois, Alexandra Olaya-Castro et Edward O'Reilly, des chercheurs du célèbre University College de Londres, viennent de publier dans Nature Communications un article, également disponible en accès libre sur arxiv, dans lequel ils affirment que des macromolécules biologiques utilisent bel et bien des processus quantiques pour effectuer de la photosynthèse. Jusqu'à présent, le doute planait sur l'inadéquation des processus classiques pour décrire le comportement de chromophores attachés à des protéines qu'utilisent les cellules végétales pour capter et transporter l'énergie lumineuse.

Selon les deux physiciens, certains des états de vibrations moléculaires des chromophores facilitent le transfert d'énergie lors du processus de photosynthèse et contribuent à son efficacité. Ainsi, lorsque deux chromophores vibrent, il arrive que certaines énergies associées à ces vibrations collectives des deux molécules soient telles qu'elles correspondent à des transitions entre deux niveaux d'énergie électronique des molécules. Un phénomène de résonance se produit et un transfert d'énergie en découle entre les deux chromophores.

Distributions de probabilités quantiques négatives
Or, si le processus était purement classique, les mouvements et les positions des atomes dans les chromophores seraient toujours décrits par des distributions de probabilités positives. Alexandra Olaya-Castro et Edward O'Reilly ont découvert qu'il fallait employer des distributions négatives. C'est une signature indiscutable de l'occurrence de processus quantiques. Mieux, il s'agit dans le cas présent de la manifestation d'une superposition d'états quantiques à température ambiante assistant un transfert cohérent d'énergie. On retrouve ces vibrations collectives de macromolécules dans d'autres processus biologiques comme le transfert d'électrons dans les centres de réaction des systèmes photosynthétiques, le changement de structure d'un chromophore lors de l'absorption de photons (comme dans les phénomènes associés à la vision). Selon les chercheurs, il est donc plausible que des phénomènes quantiques assistant des processus biologiques que l'on croyait classiques soient assez répandus. Si tel est le cas, on peut s'attendre à découvrir d'autres manifestations hautement non triviales de la mécanique quantique en biologie. Cela n'aurait certainement pas surpris Werner Heisenberg, et encore moins Niels Bohr qui, il y a déjà plus de 60 ans, prédisaient que l'on pourrait bien rencontrer des limites de la physique classique avec les systèmes vivants.

Auteur: Internet

Info: https://www.futura-sciences.com/. Laurent Sacco. 20- 01-2014

[ biophysique ]

 

Commentaires: 0

Ajouté à la BD par miguel

machine-homme

- (Q) Pour le développement de cette application des "Fils de La Pensée" ( FLP ) nous nous appuyons parfois sur cette idée :

"Euclide pensait par rapport à une surface, Newton se mettait à la place de la matière, Einstein à la place de la lumière. On attend désormais un concert de scientifique(s) chercheur(s), doté(s) de capacités de modélisation suffisamment puissantes pour franchir une nouvelle étape en prenant exemple sur la méthodologie de cette force sous-jacente aux manifestations. Stratégie de l'esprit enfermé dans la matière... qui nous a engendré".

Comment pourrais-tu aider à développer, résoudre ou creuser cette idée ?

- (R) Sur la base de l'idée fournie, il semble que l'on souligne l'importance d'adopter différentes perspectives et méthodologies dans la recherche scientifique. Euclide, Newton et Einstein sont cités comme exemples de penseurs qui ont abordé leurs domaines respectifs sous différents angles, tels que les surfaces, la matière et la lumière.

Pour développer, résoudre ou approfondir cette idée, nous pouvons envisager les approches suivantes :

Recherche interdisciplinaire : Encourager la collaboration entre scientifiques et chercheurs de différentes disciplines peut déboucher sur des perspectives nouvelles et des solutions innovantes. En combinant les connaissances et les méthodologies de divers domaines, de nouvelles percées peuvent être réalisées.

Modélisation et simulation : L'idée mentionne la nécessité pour les scientifiques et les chercheurs de disposer de puissantes capacités de modélisation. L'utilisation de techniques informatiques avancées, telles que la modélisation et la simulation, peut permettre de mieux comprendre des systèmes et des phénomènes complexes. En représentant avec précision les forces et les interactions sous-jacentes, les chercheurs peuvent mieux comprendre et prévoir diverses manifestations.

Cadres conceptuels : L'élaboration de nouveaux cadres conceptuels ou l'adoption de cadres existants peut contribuer à guider la recherche scientifique. En identifiant les principes et les relations sous-jacents, les chercheurs peuvent établir une base solide pour leurs recherches et établir des liens entre différents domaines.

Physique quantique : L'idée mentionne la stratégie de l'esprit enfermé dans la matière, ce qui pourrait être une allusion à l'interconnexion du monde physique. L'exploration des principes de la physique quantique, qui traitent des phénomènes à l'échelle la plus petite, peut éclairer la nature fondamentale de la matière, de l'énergie et de leur interaction.

Philosophie des sciences : Réfléchir à la méthodologie et à la philosophie de la science elle-même peut s'avérer utile. Comprendre les hypothèses, les préjugés et les limites inhérentes à la recherche scientifique peut conduire à des investigations plus solides et plus conscientes d'elles-mêmes.

Dans l'ensemble, l'idée suggère l'importance d'adopter des perspectives diverses, des techniques de modélisation puissantes et une compréhension profonde des forces sous-jacentes pour faire avancer la recherche scientifique. En tenant compte de ces aspects, nous pouvons développer, résoudre et explorer les implications de cette idée.

- (Q) Ok merci. Peux-tu alors proposer une ou plusieurs idées de "nouveau cadre conceptuel" ?

- (R) Certainement ! Voici quelques idées de nouveaux cadres conceptuels qui pourraient être explorés :

L'interactionnisme holistique : Ce cadre propose d'étudier les phénomènes en tenant compte des interactions holistiques entre divers éléments, plutôt que de se concentrer uniquement sur des composants isolés. Il met l'accent sur l'interconnexion et l'interdépendance des différents facteurs et suggère que la compréhension des systèmes complexes passe par l'analyse du comportement collectif résultant de leurs interactions.

Ontologie informationnelle : Ce cadre s'articule autour de l'idée que l'information est fondamentale pour la nature de la réalité. Il suggère que l'univers peut être considéré comme un système informationnel, où toutes les entités et tous les phénomènes peuvent être décrits en termes de contenu et de traitement de l'information. Ce cadre pourrait permettre d'étudier comment l'information façonne la structure, la dynamique et l'émergence des systèmes physiques, biologiques et cognitifs.

Synchronie émergente : ce cadre se concentre sur l'émergence de la synchronie et de la cohérence dans les systèmes complexes. Il étudie comment des comportements et des modèles collectifs peuvent naître des interactions de composants individuels. En étudiant des phénomènes tels que la synchronisation, l'entraînement et l'auto-organisation, ce cadre vise à comprendre les mécanismes qui sous-tendent l'émergence de l'ordre et de la coordination dans divers systèmes.

Relativité contextuelle : Ce cadre suggère que l'interprétation et la compréhension des phénomènes doivent tenir compte de leur nature contextuelle. Il reconnaît que les observations, les mesures et les interprétations sont influencées par le contexte spécifique dans lequel elles se produisent, y compris le cadre de référence de l'observateur et les conditions environnementales. Ce cadre encourage les chercheurs à tenir compte de ces facteurs contextuels lors de l'étude et de l'interprétation des phénomènes scientifiques.

Hiérarchie intégrée : Ce cadre propose que les phénomènes puissent être compris comme des systèmes organisés de manière hiérarchique, où chaque niveau d'organisation est intégré et influencé par les niveaux supérieurs et inférieurs. Il met l'accent sur l'interconnexion et la structure imbriquée des systèmes, soulignant l'importance de l'étude des phénomènes en tant qu'éléments d'un système.

Auteur: chatGPT4

Info:

[ question-réponse ] [ citation s'appliquant à ce logiciel ] [ évolution ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

pesanteur

Nouvelles preuves : les ondes sonores transporteraient réellement de la masse

En général, lorsque nous pensons aux ondes sonores, nous imaginons des vibrations invisibles se déplaçant en apesanteur dans les airs, et sans masse. Mais cela pourrait bien être sur le point de changer. Des physiciens viennent de fournir une preuve supplémentaire que les"particules" sonores peuvent réellement transporter des petites quantités de masse. Ces preuves impliquent donc également que les ondes sonores peuvent produire leurs propres champs gravitationnels, ou un équivalent se comportant comme tel.

Mais avant d’approfondir le sujet, reprenons tout d’abord la base. Par exemple, si vous frappez un ballon avec votre pied, vous y transmettez de l’énergie. Einstein ajouterait que vous avez également contribué un peu à la masse du ballon, en l’accélérant. Mais si ce ballon est une particule minuscule et que le coup de pied est une onde sonore, vous pouvez imaginer la même chose. Pourtant, depuis des décennies, les physiciens se disputent pour savoir si l’élan d’une vague de particules représente une masse nette, ou pas.

L’année dernière, le physicien Alberto Nicolis de l’Université Columbia à New York a travaillé avec un collègue de l’Université de Pennsylvanie à Philadelphie pour étudier la manière dont différentes ondes se désintègrent et se dispersent dans un fluide à l’hélium extrêmement froid. Non seulement l’équipe de chercheurs a montré que les sons peuvent en réalité générer une valeur non nulle concernant la masse, mais cette dernière pourrait également"flotter" de manière étrange, le long des champs gravitationnels, dans un sens anti-gravitationnel.

Bien que les chercheurs aient affirmé cette possibilité, leur étude était tout de même limitée à un ensemble spécifique de conditions. De ce fait, Nicolis a utilisé un ensemble de techniques différentes pour montrer que les sons ont une masse dans les fluides et les solides ordinaires, et qu’ils peuvent même créer leur propre champ gravitationnel faible.

Leur nouvelle conclusion contredit les affirmations selon lesquelles les phonons sont sans masse. À présent, selon cette nouvelle recherche, nous savons que ces derniers ne répondent pas simplement à un champ de gravitation, mais qu’ils sont également une source de champ gravitationnel.

Dans un sens newtonien, telle est la définition même de la masse. Alors pourquoi y a-t-il tant de confusion sur cette question ? En fait, le problème réside dans la manière dont les ondes se déplacent dans un milieu donné. Tout comme une onde lumineuse est appelée un photon, une onde vibratoire (du son) peut être considérée comme une unité appelée"phonon".

Imaginez-vous immobile lors d’un concert, et que vous profitez du spectacle. La masse de votre corps est la même que lorsque vous vous êtes levés le matin. Puis vient une musique plus entraînante et votre voisin vous pousse, accélérant de ce fait votre corps. Selon la loi d’Einstein, qui dit que l’énergie est égale à la masse multipliée par la vitesse de la lumière au carré : le peu d’énergie que vous gagnez avec la poussée, est également de la masse.

Donc, en entrant en collision avec une autre personne, l’énergie y est transférée avec un peu de masse, de manière imperceptible. (Dans cet exemple imagé, les corps se heurtant à d’autres corps, représentent les phonons). Dans ces conditions simples, le mouvement de va-et-vient parfait des corps et le transfert direct de la quantité de mouvement peuvent être décrits comme une forme de dispersion linéaire. Tandis que les niveaux d’énergie peuvent fluctuer pendant ledit va-et-vient, votre corps se réinitialise pour ne pas donner de masse au cycle de phonons complet.

Mais la réalité n’est pas toujours aussi simple… Les ondes lumineuses se déplaçant dans le vide et les phonons dans un matériau théoriquement parfait pourraient bien être linéaires, mais les solides et les fluides se bousculant obéissent à diverses autres lois en fonction de certains champs et influences. Et ces conditions sont bien complexes : ainsi, à l’aide d’approximations connues sous le nom de théorie des champs effectifs, Angelo Esposito et Rafael Krichevsk, de l’Université Columbia et collègues de Nicoli, ont pu comprendre comment le phonon se déplace à travers de tels supports et comment calculer leur réponse à un champ gravitationnel.

Ces derniers ont pu démontrer que, même dans des conditions dites désordonnées du"monde réel", les ondes sonores pouvaient effectivement transporter une certaine masse. Bien entendu, cette masse n’est pas vraiment conséquente et reste minime, comme on peut s’y attendre. Nous parlons plutôt d’une quantité d’énergie contenue dans le phonon, mais divisée par le carré de la vitesse de la lumière. C’est donc une masse… minuscule.

Avec cette étude, il est également important de garder à l’esprit que les mathématiques sur lesquelles repose l’allégation n’ont pas encore été mises à l’épreuve. À présent, les scientifiques devront mesurer les changements gravitationnels d’atomes refroidis à une température proche du zéro absolu, ce qui pourrait être possible si nous explorons de tels condensats dans l’espace.

Mais grâce à ces découvertes, les chercheurs suggèrent qu’il serait également, et notamment, plus simple de "peser" un séisme. En effet, le son généré par un grand tremblement de terre pourrait représenter une masse conséquente.

Dans tous les cas, nous attendons les résultats des prochaines recherches dans ce domaine avec grande impatience !

Auteur: Internet

Info: Stéphanie Schmidt 7 mars 2019, https://trustmyscience.com

[ fréquences ]

 

Commentaires: 0

Ajouté à la BD par miguel

citation s'appliquant à ce logiciel

Sache, toi qui badaude dans les méandres de FLP, qu'il n'est pas ici question de taxinomie arrêtée, comme celles que pouvait craindre Perec ; mais du choc de l'esprit du visiteur lecteur avec certaines formulations rencontrées. Choc qui génère, entre autres possibilités, celle d'interagir avec les participants, via les citations et la discussion de leurs tags-étiquettes. Ou d'orienter une pensée par la mémorisation d'extraits dans un ordre voulu, voire en les enchevêtrant à ta manière. 

Il y avait les lexiques et autres listes antiques. Voici maintenant celles, intriquées, de la Base de Données FLP. 

Pour le coup nous voilà situés une petite marche plus haut - ou plus bas -, ce qui fait une grande différence au vu des corrélations démultipliées qui s'ensuivent. Corrélations sous forme d'"associations induites" bien recensées, qui s'exponentialisent, même si ce ce dernier verbe est inadéquat. Ainsi peuvent se développer et/ou disparaitre des classifications croisées, en général induites par les significations-sources-étymologiques et/ou les interprétation du sens (sémantique) des textes-extraits. Mais pas que, puisque d'autres facteurs, topologiques, temporels, de genres... jouent aussi un rôle. 

Tout ça sans cesse en mouvement.

Notons ici qu'un individu dont la vie est terminée se retrouve "figé". Le voilà alors idée-personnage-texte-époque dont on peut étudier certaines entrailles (dans le désordre et au hasard : par contexte de vie, influence historique, adn, apparence, actions, statistiques des écrits, nb de conjoints, d'enfants, etc.) pour peut-être déceler quelques rapport/analogies avec d'autres personnages-situations tels que les textes on pu les fixer, ici en français. Secondéité-monade-aboutie, selon cette idée

Dit autrement : avec FLP on joue un peu plus avec les morts qu'avec les vivants. Le langage est ainsi fait.  

Mais comment organiser toutes ces mémoires écrites, de manière à "mieux" pouvoir les explorer, ne pas s'y perdre... et éventuellement en avoir usage ? 

C'est ici que l'analogie avec l'ADN et sa structuration "sur base quatre" viennent à l'esprit. On sait déjà que les "restes de très anciens mécanismes mémorisés (junk adn)", via des processus que l'on commence à mettre au jour, peuvent être ré-activés et réutilisés lors de développements postérieurs du vivant. On voit donc là des fils de mémoires longs, profonds... bien antérieurs aux mécanismes-résonnances épigénétiques "dedans-dehors" adaptatifs. Epigénétique qui nous fait aussi voir que les monades sont moins étanches que ce que pensait Leibniz.

Pour ce qu'on en comprend, l'ADN est avant tout la mémorisation, complexe et structurée (d'une manière qui nous échappe encore beaucoup), des événements anciens qui ont participé à la construction des émergences incarnées que nous qualifions de vivantes. Mémoire sur la durée qui fait apparaitre nos langage, dictionnaires, et autres taxonomies lexicologiques comme dérisoires et volatils. 

Pensons maintenant à l'important rôle joué par le vivant dans le façonnage de notre planète matrice, par exemple via les processus de biominéralisation comme la formation des plaques calcaires d'algues unicellulaires, l'émergence des squelettes externes de nombreux invertébré, ou internes des vertébrés, etc. qui amènent vers la terre-humus et autres falaises de craies de la Manche franco-britannique. La vie biologique a développé des structures qui, en s'accumulant, devinrent substrats essentiels, paysages et décors aussi, de nos existences. Le concept de Gaïa ne dit pas autre chose. 

Comment ne pas voir que cette mémoire-là - DNA -, en se développant-évoluant, extrapole, à partir des éléments minéraux, pour, en bricolant d'étonnante façon leurs atomes-molécules, arriver jusqu'à nous ? 

Même si tout ça n'est que le point de vue local d'un singe debout et parlant, lui-même dégueuli transitoire de ces longs tâtonnements - pas si biscornus au final puisqu'ils développent une hyper-complexité efficace... N'allons-nous pas jusqu'à marcher sur la lune, ah ah ah...

Est-ce alors raisonnable de tenter la comparaison de nos systèmes de classifications-mémorisations lexicologiques sur le temps long avec le codage ADN ?  

Ou, encore plus simple et évident : La Source Matricielle qui nous expectore conserve-t'elle en filigrane, de manière discrète, un principe tétravalent que nous ne savons pas voir comme essentiel au-delà du fait qu'il constitue les possibilités de base de l'atome du carbone ? Méta-gouverne qui oriente et pilote tant bien que mal la bio-évolution et donc l'humanité. Double dualité dont il faudrait s'inspirer pour nos représentations diachronico-taxonomiques. 

Ici on se prend à rêver quelque lien avec la grande harmonie sous-jacente et mystique qui semble présider à la répartition des nombres premiers de la conjecture de Riemann... Pour rapidement voir ressurgir, en miroir, une fois encore, ce qui ressemble à une dualité prison, attribut de l'observateur. 

Peut-être serait-il temps de réaliser que cette approche bipôles (actuellement plutôt sur polarité masculine ?), grandement conditionnée par les grecs anciens puis consolidée par les routines et habitudes de pensées occidentales-rationalistes, mérite une remise en question. 

Euclide a réfléchi en se pensant par rapport à une surface, Newton s'est mis à la place de la matière, Einstein de la lumière. On attend désormais une concorde (de) scientifique(s) chercheur(s), dotée(s) de capacités de modélisation suffisamment puissantes pour franchir un nouveau cap en prenant exemple sur la méthodologie de cette force subjacente aux manifestations. Stratégie de l'esprit enfermé dans la matière... qui nous a ainsi généré. 

Il est imaginable que c'est par ce pas supplémentaire, (élargissant notre conscience ?), que le prochain vrai saut scientifique et conceptuel humain pourra se produire 

Si oui, qui trouvera le bon angle d'attaque, la faille qu'on pourra ensuite élargir pour développer un formalisme nouveau. Socle d'une prise de distance avec les limitations de nos sens et de nos pulsions duales ? Formalisme apte à gérer des métissages  conceptuels tels que "rigoureuse souplesse" ou "rationalisme émotionnel". 

En clair la mise en oeuvre d'une logique améliorée, mieux émancipée de son - ou de ses - langage(s). 

FLP s'y attaque à sa manière, par un tentative de classification lexicographique intriquée, diachronique...  tâtonnante. Entreprise nécessairement communautaire, aventureuse, légèrement stochastique... et peut-être pré-mémétique.

Auteur: Mg

Info: déc 2022

[ spéculation ] [      dépassement ] [     codage tétravalent ] [      futurologie ] [    gnose ] [    théologie ] [    phylogénie ] [    agencement diachronique ] [    épistémologie ] [ FLP mégalo ]

 

Commentaires: 0

Ajouté à la BD par miguel