Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 156
Temps de recherche: 0.0579s

épigénétique

"Percer les secrets du vivant grâce à la biologie quantique"

En primeur pour notre magazine, Birgitta Whaley, qui dirige le Berkeley Quantum Information and Computation Center de l'université de Californie, a accepté d'expliquer en quoi les "mécanismes quantiques à l'oeuvre chez les organismes vivants" pouvaient révolutionner le monde. D'autant qu'ils ne sont qu'une cinquantaine de scientifiques à travers la planète à poursuivre ces travaux fondamentaux.

Sciences et Avenir : Quand on évoque l’information quantique, on pense en premier lieu à la physique et aux particules de matière ou de lumière. Or, vous travaillez sur le vivant ?

Birgitta Whaley : Nous étudions tout un éventail d'organismes, des plantes vertes aux bactéries, qu'il s'agisse d'unicellulaires ou de feuilles. Mais aussi des oiseaux ou d'autres animaux. Nous voulons apporter la preuve qu'il existe un comportement quantique chez ces organismes vivants, à toute petite échelle, impliquant des "grains de lumière" (photons).

Avez-vous découvert ce comportement quantique ? Oui, il est tout à fait évident que des effets quantiques sont au coeur, en particulier, de ce qu’on appelle la photosynthèse. Nous les observons dans les premiers stades de ce mécanisme essentiel à la vie qui permet l’absorption de la lumière, puis sa transformation en énergie électronique, les électrons déclenchant ensuite les réactions chimiques qui permettent la formation de glucides [constituants essentiels des êtres vivants].

Outre la connaissance fondamentale, pourquoi est-ce important de comprendre ce mécanisme ?

Parce qu’il est essentiel à la production de nourriture et donc à notre vie. Mais imaginez aussi que nous parvenions à réaliser une photosynthèse artificielle qui capture l’énergie solaire aussi bien que le font les plantes, dont le processus a été hautement optimisé après 3,6 milliards d’années d’évolution. Ce ne serait plus 15 % de rendement que l’on obtiendrait, comme cela se pratique avec le photovoltaïque aujourd’hui, mais presque 100 % !

Qu’ont donc réussi à faire les plantes, et pas nous ?

Chez les plantes vertes, des récepteurs composés de chlorophylle sont capables d’absorber des photons alors même que la lumière reçue est très faible. Chacun d’eux ne reçoit en moyenne qu’un photon toutes les dix secondes. Il faut que la plante soit vraiment très efficace pour réaliser cette absorption avec si peu de lumière. Il y a même des bactéries marines qui n’absorbent qu’un photon (dans l’infrarouge) toutes les vingt minutes.

Qu’est-il important de mesurer ?

Les détails de ce processus d’absorption, en particulier sa dynamique… Nous connaissons très bien la chlorophylle, nous savons quelle partie de la molécule absorbe le photon et à quel niveau. Le problème vient de ce que cette chlorophylle est enchâssée dans un échafaudage complexe de protéines- pigments qui se mettent à leur tour à vibrer, à entrer en rotation… Nos expériences suggèrent fortement que ces vibrations oeuvrent en conjonction avec l’excitation électronique déclenchée par l’arrivée du photon. Elles aident au transfert des électrons qui déclencheront ultérieurement des réactions chimiques. Ce mécanisme d’absorption, facilité par des effets quantiques, peut avoir jusqu’à 99 % d’efficacité. Un photon arrive, un électron est produit. Finement réglé, il répond à une nécessité de survie de l’organisme.

Quel genre d’appareillages utilisez-vous pour les mesures ?

Nous employons des faisceaux laser pulsés, qui permettent de préciser la dynamique d’excitation des molécules. Par exemple, avec trois pulses qui se succèdent [arrivée de photons d’une certaine fréquence], nous pouvons voir, lors du premier, la molécule réceptrice amorcer son passage vers un état " excité", puis, lors du deuxième pulse, la molécule devenir entièrement excitée, le troisième pulse permettant d’apporter des précisions sur la durée de cette excitation.

Cela ne semble pas évident…

En biologie, vous ne savez pas où s’arrête le système quantique et où commence son environnement. La plupart des spécialistes haussent les épaules en disant que tout cela est trop compliqué, qu’ils ne veulent même pas en entendre parler !

Dans combien de temps pensez-vous comprendre ce qui se passe ?

Peut-être dans vingt ans… Mais d’ici à dix ans, grâce à la biologie synthétique, nous devrions pouvoir élaborer une structure qui fasse progresser notre compréhension.

"COMPORTEMENT. La fascinante intelligence spatiale des oiseaux.

La migration des oiseaux et leur capacité à déterminer la bonne direction à prendre sont aussi un domaine "très tendance" en biologie quantique ! Birgitta Whaley le trouve d’autant plus fascinant que "les effets quantiques ne sont pas du tout évidents. Est peut-être impliquée ici ce qu’on nomme l’intrication quantique" [deux objets qui peuvent être spatialement séparés mais doivent être traités globalement, comme un seul]. La lumière est en effet absorbée par une molécule à l’arrière de la rétine de chaque oeil de l’oiseau, qui produit puis transfère un électron. On se demande alors quel est le comportement quantique des deux électrons (entre eux) qui pénètrent dans le cerveau de l’oiseau, ce qui lui délivre un message particulier. Mais il ne s’agit pour l’instant que "d’une belle hypothèse et il nous faudrait des données expérimentales".)

Auteur: Internet

Info: www.sciencesetavenir.fr, Dominique Leglu, 7.11.2016

[ biophysique ]

 

Commentaires: 0

Ajouté à la BD par miguel

sémiotique postmoderne

Le dossier actualisé

La prise de conscience que l'expérience humaine, étant avant tout une expérience animale, ne commence pas simplement avec l'ens reale mais avec un monde d'objets qui sont normalement (au moins dans les temps historiques, sinon préhistoriques) constitués de façon prédominante par l'entia rationis (et incluent l'entia realia formellement reconnue comme telle seulement comme une dimension virtuelle et indistincte de ses particularités) n'est pas sans précédent dans l'histoire de la philosophie. Mais la thématisation intégrale de cette prise de conscience est sans précédent, on peut donc dire qu'elle constitue l'essence de la postmodernité dans la mesure où nous devons la concevoir comme une époque philosophique distincte dans le sillage du développement philosophique principal qui va de Descartes au XVIIe siècle à Wittgenstein et Husserl au vingtième siècle. Heidegger a souligné la nécessité d'une telle thématisation sous la rubrique classique de l'"être", mais il n'est allé que jusqu'à poser la question à laquelle la sémiotique commence à répondre. Pourquoi, se demandait-il, dans les termes d'une intersémioticité qui résonne avec celle de von Uexküll, que les humains expérimentent les êtres comme présents à portée de main plutôt que prêt-à-l'emploi, ce qui est plus "proche" de nous et tout à fait comment les êtres sont donnés en grande proximités pour la plupart?  La réponse se trouve dans la différence, dans ce qui est distinctif, d'un Umwelt vécu sur la base d'un Innenwelt ayant le langage comme composante dans sa formation de représentations.  

Le monde extérieur est une espèce de représentation spécifiquement humaine. La quasi-erreur provient de la confusion systématique entre objets et "choses", ce qui conduit à une confusion de la "réalité extérieure". (comme c'est devenu habituel dans la philosophie) avec la notion plus fondamentale d'ens reale, qui n'est pas identique au "monde extérieur", ni le point de départ en tant que tel de la connaissance spécifique à l'espèce humaine, mais simplement une dimension reconnaissable vécue dans son objectivité. Le "monde extérieur" ne se trouve pas en dessous ou en dehors de la pensée et du langage, comme ont a eu tendance à imaginer, mais il est précisément donné, dans quelque mesure que ce soit, au sein de l'expérience objective, comme nous l'a appris la sémiotique dès les 30 premières années. 

Sebeok aimait citer, tout en la réévaluant constamment, l'affirmation de Bohr selon laquelle "Nous sommes suspendus dans le langage de telle manière que nous ne pouvons pas dire ce qui est en haut et ce qui est en bas" (French & Kennedy, 1985, p.302). Selon moi, c'est une affirmation dont la justesse et son interprétation la meilleure dépendentent du fait que nous sommes des animaux linguistiques et pas seulement des animaux perceptifs comme je l'ai l'ai soutenu assez longuement (Deely, 2002). 

En tant qu'animaux linguistiques, nous pouvons prendre conscience non seulement de la différence entre une chose et un objet, entre le monde objectif et l'environnement physique, mais aussi de la différence entre les deux. 

Nous pouvons également prendre conscience du statut du langage en tant que système de signes, et de sa dépendance envers d'autres signes dans la constitution des objets. Ce sont ces objets et leurs interconnexions qui, ensemble, forment notre expérience de la "réalité" (jusqu'ici semblable à celle de n'importe quel autre animal) ; mais dans cette sphère d'expérience objective, grâce au langage, nous pouvons aussi nous faire une idée de la "réalité" par l'établissement d'un sens intelligible qui n'est pas simplement donné dans la perception, mais qui est atteint à travers la sensation.  Et avec cette idée ainsi fondée expérimentalement, peut-être seulement avec cette idée, que l'animal humain commence à s'éveiller à son humanité. Notre espèce est attirée par cet sortrie de l' aborigène pour se lancer sur la longue route de la philosophie et de la science, pour finalement rencontrer - assez tard dans ce périple - ce carrefour dont l'une des bifurcations est la Voie des Signes. À ce moment-là, l'animal humain se rend compte que, si tous les animaux et peut-être toute la nature sont sémiosiques, l'animal humain seul est un animal sémiotique ; et dans cette prise de conscience, que peu ou personne n'a fait plus que Sebeok, inaugure, en philosophie du moins, la culture intellectuelle postmoderne- en fait, elle prend  ici son envol. La quasi-erreur du monde extérieur n'a plus besoin de nous tromper ou de nous déconcerter, car sa nature et son origine ont été exposées par la clarification  même de cette ouverture de la Voie des Signes. Nous voyons maintenant que nous avons mis au jour  un chemin qui mène "partout dans la nature, y compris dans les domaines où les humains n'ont jamais mis les pieds ", mais aussi vers une compréhension de laquelle la sémiotique nous donne les moyens d'y tendre plus intégralement. Appelons cela l'horizon interprétatif postmoderne, peut-être même la "coïncidence de la communication avec l'être" (Petrilli & Ponzio, 2001, p. 54). C'est le cœur de la sémiotique, qui défend contre la modernité cette conviction médiévale que la science moderne n'a jamais totalement abandonnée, malgré les philosophes : ens et verum convertuntur, "lcommunication et être sont coextensifs". Être pour la nature, c'est être intelligible pour l'animal dont le destin est de comprendre.

Auteur: Deely John

Info: The Quasi-Error of the External World an essay for Thomas A. Sebeok, in memoriam, conclusion. Trad Mg

[ sémiotique vs sémantique ]

 

Commentaires: 0

Ajouté à la BD par miguel

monde subatomique

Des physiciens ont découvert une force inattendue agissant sur les nanoparticules dans le vide

Ils ont découvert une nouvelle force inattendue qui agit sur les nanoparticules dans le vide, leur permettant d’être poussées par le " néant ".

Bien entendu, la physique quantique commence à préciser que ce " néant ", n’existe pas réellement : même le vide est rempli de petites fluctuations électromagnétiques. Cette nouvelle recherche est une preuve supplémentaire que nous commençons à peine à comprendre les forces étranges qui agissent au plus petit niveau du monde matériel, nous montrant comment le néant peut entraîner un mouvement latéral.

Alors comment est-ce que le vide peut porter une force ? L’une des premières choses que nous apprenons en physique classique est que dans un vide parfait (un lieu donc entièrement dépourvu de matière), la friction ne peut pas exister car l’espace vide ne peut pas exercer une force sur les objets qui le traversent.

Mais ces dernières années, les physiciens spécialisés dans le domaine quantique ont montré que le vide est en réalité rempli par de petites fluctuations électromagnétiques qui peuvent interférer avec l’activité des photons (les particules de lumière), et produire une force considérable sur les objets.

Il s’agit de l’effet Casimir, qui a été prédit en 1948 par le physicien néerlandais Hendrick Casimir*. À présent, la nouvelle étude a démontré que cet effet est encore plus puissant que ce que l’on imaginait auparavant. En effet, ce dernier ne peut être mesuré qu’à l’échelle quantique. Mais comme nous commençons à élaborer des technologies de plus en plus petites, il devient évident que ces effets quantiques pourraient fortement influencer certaines de nos technologies de manière globale.

Ces études sont importantes car nous développons des nanotechnologies qui travaillent avec des distances et des tailles si petites, que ce type de force peut dominer tout le reste ", explique le chercheur principal Alejandro Manjavacas de l’Université du Nouveau-Mexique, aux États-Unis. " Nous savons que ces forces de Casimir existent, alors ce que nous essayons de faire, c’est de trouver l’impact général qu’elles ont sur de très petites particules ", ajoute-t-il.

Afin de découvrir de quelle manière l’effet Casimir pourrait avoir un impact sur les nanoparticules, l’équipe a analysé ce qui s’est passé avec des nanoparticules tournant près d’une surface plane, dans le vide. Ils ont ensuite découvert que l’effet Casimir pouvait effectivement pousser ces nanoparticules latéralement, même si elles ne touchent pas la surface.

Pour imager la chose, imaginez une minuscule sphère tournant sur une surface qui est constamment bombardée de photons. Alors que les photons ralentissent la rotation de la sphère, ils provoquent également un déplacement de cette dernière dans une direction latérale :

(Photo : En rouge, la rotation de la sphère. En noir, la distance de la sphère par rapport à la surface plane et en bleu, l’effet de Casimir latéral.)

Dans le domaine de la physique classique, il faudrait un frottement entre la sphère et la surface pour atteindre ce type de mouvement latéral, mais le monde quantique ne suit pas les mêmes règles : la sphère peut être poussée sur une surface, même si elle ne la touche pas. " La nanoparticule subit une force latérale comme si elle était en contact avec la surface, bien qu’elle soit en réalité séparée de celle-ci ", explique Manjavacas. " C’est une réaction étrange, mais qui peut avoir un impact considérable pour les ingénieurs ", ajoute-t-il.

Cette nouvelle découverte pourrait bien jouer un rôle important dans la manière dont nous développerons des technologies de plus en plus miniaturisées à l’avenir, y compris des dispositifs tels que les ordinateurs quantiques.

Les chercheurs affirment qu’ils pourraient contrôler la direction de la force en changeant la distance entre la particule et la surface, ce qui pourrait s’avérer utile pour les ingénieurs et les scientifiques travaillant sur des méthodes de manipulation de la matière, à l’échelle nanoscopique. 

L’étude a déjà été publiée dans le Physical Review Letters et les résultats doivent à présent être reproduits et vérifiés par d’autres équipes. Mais le fait que nous ayons maintenant la preuve qu’une nouvelle force intrigante pourrait être utilisée pour diriger des nanoparticules dans le vide est très intéressant et met en lumière un tout nouvel élément du monde quantique et ses forces encore largement incomprises. 



*( L'effet Casimir, prédit en 1948 par le physicien néerlandais Hendrick Casimir, est un phénomène quantique où deux plaques métalliques parfaitement conductrices placées dans le vide s'attirent l'une vers l'autre avec une force inversement proportionnelle au carré de leur distance.12 Cet effet résulte de la pression exercée par les fluctuations quantiques du vide sur les plaques.

Explication de l'effet

Selon la théorie quantique des champs, le vide n'est pas complètement vide mais contient des fluctuations d'énergie sous forme de particules virtuelles qui apparaissent et disparaissent constamment. Entre deux plaques rapprochées, ces fluctuations sont restreintes par les conditions aux limites imposées par les plaques conductrices. Cela crée une différence de pression de radiation entre l'intérieur et l'extérieur des plaques, générant une force attractive entre elles.

Observation expérimentale

Bien que prédit théoriquement en 1948, l'effet Casimir n'a été observé expérimentalement pour la première fois qu'en 1997, confirmant ainsi l'existence de cette force quantique dans le vide. Cette découverte a renforcé la compréhension de la nature quantique du vide et de ses effets mesurables. (Source : anthropic) 

Auteur: Internet

Info: https://trustmyscience.com/ - Stéphanie Schmidt, 12 avril 2017

[ éther ] [ vacuité source ]

 

Commentaires: 0

Ajouté à la BD par miguel

évolution biologique

Une nouvelle étude de Yale sur la levure montre comment des facteurs non génétiques sont impliqués dans l'évolution en temps réel.

Dans l'étude, publiée dans la revue Cell Reports du 27 octobre, des chercheurs de l'Institut de biologie systémique de Yale ont montré comment les mécanismes épigénétiques - des modifications du phénotype d'un organisme non causées par des altérations de sa séquence d'ADN - contribuent à l'évolution du réseau de gènes chez la levure qui est responsable de la régulation de l'utilisation du sucre galactose. L'étude a montré qu'un changement épigénétique dans l'activité des gènes se transmettait à travers des centaines de générations de levure, et elle a des implications plus larges concernant le rôle de l'épigénétique dans l'évolution.

"La nature est futée", a déclaré Murat Acar, auteur principal de l'article et professeur associé de biologie moléculaire, cellulaire et du développement, ainsi que de physique. "Elle trouve toujours une solution chaque fois qu'elle est mise au défi par quelque chose. Vous voulez avoir une sorte de gagnant parmi votre population pour surmonter cet environnement difficile".

Jusqu'à récemment, l'explication de l'évolution reposait uniquement sur des mutations génétiques spontanées stimulant des adaptations avantageuses dans les organismes, selon David Moreno Fortuno, associé postdoctoral à l'Institut de biologie des systèmes et l'un des co-auteurs de l'article. Il a expliqué que cette théorie est connue sous le nom de néodarwinisme parce que la nature des gènes n'avait pas encore été découverte à l'époque de Darwin.

La théorie darwinienne de l'évolution contraste avec l'idée de Jean-Baptiste Lamarck, autrefois largement discréditée, selon laquelle l'évolution consiste à transmettre de petits changements qui sont acquis au cours de la vie d'un organisme, selon le PBS. Lamarck a publié sa théorie au début du 19ème siècle en France, et l'exactitude de cette théorie est toujours débattue aujourd'hui, surtout au vu de la résurgence, au cours des deux dernières décennies, de l'étude des influences épigénétiques - ou pas - sur l'évolution.

Les chercheurs ont utilisé un marquage fluorescent dans les cellules de levure pour suivre l'expression des gènes codant du galactose, des cellules plus brillantes correspondant à une plus grande expression de ces gènes. Ils ont observé les niveaux de fluorescence sur une période de sept jours et ont sélectionné à plusieurs reprises les cellules les plus faibles de la population. Les chercheurs nomment cette séparation des cellules plus faibles de la population générale de "pression sélective". Par rapport à la population de levure d'origine, ils ont constaté une diminution dans le temps de la quantité d'expression de ces marqueurs au sein de la population expérimentale.

 "Cette diminution s'est maintenue, même lorsque  la pression sélective fut supprimée pendant plus de 200 générations", a déclaré M. Fortuno.

Du fait que le génome de la levure soit si petit - seulement 12 millions de paires de bases contre 3 milliards pour l'homme - l'analyse de l'ensemble du génome de l'organisme pour les mutations génétiques est beaucoup plus facile à réaliser dans les cellules de levure.

Certaines des cellules de levure qui avaient modifié l'expression du gène codant pour le galactose ne présentèrent aucune mutation dans le réseau de gènes spécifié. Les chercheurs ont donc pu exclure les contributions génétiques à leurs observations.

"En fin de compte, nous avons vu que les théories darwiniennes de l'évolution génétique ne sont pas en mesure d'expliquer ces résultats par elles-mêmes", a déclaré M. Acar. "Il est nécessaire d'y inclure la théorie évolutionniste lamarckienne pour expliquer tout le spectre de nos résultats".

M. Fortuno a abordé les implications potentielles de l'étude, en prédisant que les cellules cancéreuses malignes sont similaires aux cellules de levure dans la mesure où les deux types de cellules sont en "évolution constante". Il a ajouté que la compréhension du rôle des mécanismes épigénétiques dans les génomes des cellules de levure pourrait ouvrir des pistes de recherche pour développer des traitements contre le cancer ou déterminer le stade du cancer dont souffre un patient.

Il note également que certains scientifiques pensent que la culture est un mécanisme épigénétique. Bien que la culture soit non génétique, il est possible qu'elle ait un impact mesurable sur nos marques épigénétiques si ces experts ont raison.

Le document indique également que les mécanismes génétiques et épigénétiques "n'ont pas à s'exclure mutuellement". 

"En réponse à une condition environnementale particulière, les deux types de mécanismes peuvent jouer un rôle et se compléter l'un l'autre", peut-on lire dans le document.

Le document explique également que les mécanismes épigénétiques peuvent provoquer des adaptations plus rapides à un environnement changeant, ils agissent généralement sur une échelle de temps plus courte que les mécanismes génétiques. À l'inverse, les mécanismes génétiques sont en jeu sur des périodes plus longues et entraînent des changements plus permanents dans un organisme.

M. Acar souligne que cette étude n'est qu'une première étape vers une meilleure compréhension du rôle des facteurs épigénétiques et qu'il attend avec impatience de voir des expériences similaires être réalisées sur d'autres organismes.

"Ce n'est qu'alors que nous verrons si ces résultats peuvent être généralisés, qu'ils soient darwiniens, lamarckiens ou hybrides - une théorie unifiée de l'évolution régissant l'évolution des organismes", a-t-il déclaré.

Les cellules de levure se reproduisent de manière asexuée toutes les 90 à 100 minutes.

Auteur: Jalbert Jonathan

Info: https://yaledailynews.com/ NOV 12, 2020

[ biophysique ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-animal

Chaque entrée du livre est indexée à un terme (Corps, Génie, Imprévisibles, Justice) et à une question provocatrice ("Les singes savent-ils singer ?" "Les oiseaux font-ils de l'art ?" "Peut-on conduire un rat à l'infanticide ?" "Les animaux font-ils des compromis ?"), ces couplages étranges se trouvent eux-mêmes rapportés aux cas empiriques (des éléphants thaïlandais qui peignent des esquisses devant les touristes, des pingouins aux identités sexuelles multiples, des pies menteuses, des orangs-outans qui lancent leurs selles à la tête des scientifiques, des perroquets qui ne répètent pas ce que l'on voudrait…) indifféremment extraits de corpus de recherches éthologiques ou de Youtube. L'auteure ne répond pas aux questions posées en début de chaque chapitre mais au contraire nous propose de la suivre dans ses hésitations, elle donne ainsi à voir différentes situations où ces questions reçoivent d'autres réponses que celles envisagées par les scientifiques (cf. V comme Versions) ces derniers étant bien souvent incapables de les recevoir pour la double raison qu'elles échappent aux dispositifs d'établissement de la preuve mais surtout qu'ils n'attendent aucune réponse qui puisse être formulée par les animaux eux-mêmes.

Parmi la foule d'exemples qui sont avancés, je proposerais d'en extraire simplement deux d'entre eux, pas les plus drôles, dont je laisse le plaisir de la découverte aux lecteurs du livre, mais sans doute ceux qui nous (êtres humains) concernent le plus. Le premier exemple se trouve à la lettre "S comme Séparations", sous-titré de "Peut-on mettre un animal en panne ?" ; y est examiné le régime de production de preuves qui a conduit à la formulation de la théorie de l'attachement par le psychologue Harry Harlow. "Le poison de l'héritage" d'Harry Harlow tient selon Vincianne en la manière dont le laboratoire expérimental a produit les preuves d'une des plus grandes évidences sensibles que nous avons en commun avec beaucoup d'animaux : l'affection. Pour parvenir à démontrer la nécessité vitale du lien tactile, Harlow a répété avec des rates, puis avec de petits macaques rhésus, des procédures de séparations d'avec leurs petits. De là, le type de questions qu'il pose sont les suivantes : que se passe-t-il si l'on affame la mère et qu'on lui donne le choix entre se nourrir et rejoindre son petit ? Que se passe-t-il si la mère est remplacée par un mannequin en tissu ? Que se passe-t-il si le mannequin est en métal et fournit du lait ? "L'expérience de séparation ne s'arrête pas à séparer des êtres les uns des autres, elle consiste à détruire, à démembrer et, surtout à enlever. Comme si c'était le seul acte qui puisse être accompli […] Apparaît alors le véritable fil qui guide cette histoire : celui d'une routine qui s'emballe et devient folle. Séparer les mères et leurs petits, puis séparer les mères d'elles-mêmes, dans leur propre corps, enlever les ovaires, les yeux, le bulbe olfactif". Cette fois-ci rien de drôle, bien au contraire. La science expérimentale apparaît comme une machine non plus simplement "à rendre bête" mais plus littéralement comme un appareil de torture. Le fait qu'à aucun moment Harry Harlow interroge ce que les dispositifs eux-mêmes induisent, que jamais ne soit imaginé qu'ils puissent largement "causer" le désespoir qu'ils sont précisément censés permettre d'enregistrer, fait dire à l'auteure que la théorie de Harlow ne tient qu'à une chose : "un exercice systématique et aveugle de l'irresponsabilité."

Le choix de donner à lire le court texte qui suit, extrait du roman Ennemonde de Jean Giono, est une tentative de poursuivre la déambulation (et le rire) de Vinciane Despret, parce que ni l'indignation à distance ni la tristesse ne le permettent. Le pari de la forme de poíêsis qu'elle propose dans son livre étant celui de la création possible de sens entre des formes de vie, pourquoi pas donc "fabuler" avec les errants de Giono et imaginer quelles étranges compositions communes pourraient en surgir ? 

"Le tueur s'installe dans la cour de la ferme. L'animal du sacrifice est amené malgré ses cris : chose étrange, il suffit au tueur de frotter ses couteaux l'un sur l'autre pour que le cochon se taise, d'un coup. Quand c'est un bon tueur. Mais généralement c'est un bon tueur, si on l'a choisi parmi les errants. Certains fermiers font venir des bouchers de profession. Les bouchers de profession ne sont pas de bons tueurs. Les bêtes n'acceptent pas la mort qu'ils apportent ; elles acceptent celle qu'apportent les errants ; si le boucher arrive à la ferme, serait-ce en simple visite d'amitié, la porcherie, la bergerie et même l'écurie sont en émoi. L'errant arrive avec ses couteaux : tout reste calme ; il y a juste un peu de gémissements, quand le grand moment approche. Si on cherche à savoir ce qu'il y a au fond de cet étrange comportement, on s'aperçoit qu'il s'agit purement et simplement de cérémonie ; qu'on soit promis au saucisson ou à la résurrection, la mort est le moment précis où le naturel revient au galop. Or, le boucher, c'est de la technique pure, rien ne compte pour lui à part les rapports poids de chair, poids d'argent ; l'errant vient du fond des âges, il vit, bras dessus, bras dessous avec la faim. On est sûr qu'avec lui les rites seront respectés : et, de fait, tout se passe avec une rapidité, une facilité, une politesse à faire envie. Déjà la bête saigne dans le seau, comme un baril dont on a le plus simplement du monde ouvert le robinet."

Auteur: Eliçabe Rémi

Info: A propos du livre de Vinciane Despret,  "Que diraient les animaux, si... on leur posait les bonnes questions ?" Paris, La Découverte, coll. "Les Empêcheurs de penser en rond", 2012

[ éthique ] [ morale ]

 

Commentaires: 0

Ajouté à la BD par miguel

spéculations

Les expériences d'Alain Aspect ont confirmé la réalité du phénomène d'intrication quantique (expériences sur photons intriqués). Celles-ci montrent qu'au niveau quantique la notion d'espace n'a plus de sens puisque quelle que soit la "distance", l'action sur un photon A se communique instantanément à son photon intriqué B (en violation de la limite de c = vitesse de la lumière). Cette propriété explique pourquoi les mécaniciens quantiques affirment que la physique quantique est une PHYSIQUE NON LOCALE (elle exclut la réalité objective de l'espace).

Mais cela va encore plus loin: l'intrication nie aussi le temps et les schémas de causalité classique : l'action sur un photon A modifie par "rétroaction" les propriétés du photon B intriqué, dans le passé. Cela signifie que la physique quantique ne prend pas en compte le temps et les schémas de consécution de la mécanique classique (causalité présent-futur). Comment une physique qui n’intègre pas l'espace et le temps est-elle possible ?

La réponse tient en ces termes: NOUS sommes les "porteurs" de l'espace et du temps en tant que conscience, et ceux-ci n'ont aucune réalité objective. C'est là un magnifique triomphe rétrospectif de ce que Kant avait déjà affirmé au XVIIIe siècle dans La Critique de la raison pure. Mais la nouvelle physique gravit une marche de plus: outre la "conscience transcendantale" dont parlait Kant, il faut ajouter l'information, c'est-à-dire un univers d'objets mathématiques purement intelligibles qui, dans leurs rapports à la conscience, produisent le "monde phénoménal", celui que nous percevons. La "réalité perçue" est un vaste simulacre ou comme l'écrivait David Bohm, le lieu d'une fantastique "magie cosmique".

Des consciences exogènes l'ont déjà compris et utilisent leur maîtrise de l'information pour interférer avec notre monde. La science informatique, en digitalisant la matière (c'est-à-dire en remontant aux sources mathématiques de la réalité) a, sans le savoir, reproduit via la technologie de nos ordinateurs, le mode de production "phénoménal" de notre monde.

Ces indications sont en mesure, me semble-t-il, d’aider le lecteur à investir les thèses de mon ami Philippe Guillemant qui sont d’une importance considérable. Il ne s’agit nullement de résumer sa pensée, ni de jouer au physicien que je ne suis pas, mais de fournir quelques degrés de l’escalier qui mènent à la compréhension de ses travaux. En tant que philosophe, il m’apparaît aussi légitime de mettre ces nouvelles connaissances en lien avec des doctrines philosophiques du passé, spécialement celles de Platon et de Kant. Philippe Guillemant ne se contente pas de nous dire que l’espace et le temps sont des cadres de la conscience puisqu’il montre que la conscience est active et se révèle capable de réécrire ou de modifier les données qui constituent la trame la plus intime de la réalité. Il rejette l’idée d’un "ordinateur quantique géant" qui produirait le réel phénoménal et relie cette production à l’activité de la conscience. Il ne m’appartient ici de discuter les raisons de ce "basculement", mais celui-ci me paraît décisif et permet de trancher le débat qui consiste à savoir si l’étoffe de la réalité est de nature algorithmique ou mathématique.

Si on rejette le modèle de l’ordinateur quantique, on ne peut se rallier qu’à la seconde hypothèse qui permet de résoudre un des plus anciens problèmes de l’épistémologie depuis la naissance de la physique mathématique : comment se fait-il que nos opérations sur des objets mathématiques soient en si grande "adhérence" avec le monde de la physique ? Comment expliquer que le travail sur une "écriture mathématique" puisse, bien avant sa confirmation expérimentale, "découvrir" des objets du monde physique comme l’antimatière, les trous noirs, le boson de Higgs, etc. ? Cette question, qu’Albert Einstein, avait appelé le "mystère du miracle des mathématiques" trouve ici un début de résolution si nous posons que la réalité est d’essence mathématique.

L’information pure que Pythagore, Platon et plus tard John Dee avaient identifiée à des formes intelligibles de type mathématique est cette "brique" fondamentale qui rend possible, par sa manipulation, toutes les apparences de notre monde. Certes, nous ne sommes pas au bout de nos peines car entre cette base ontologique (le réel est constitué d’essences mathématiques en interaction avec des consciences actives) et la mise en lumière du modus operandi de cette maîtrise de l’information pour produire un monde phénoménal ou interférer avec lui (comme le font à mon sens les OVNIS), il reste encore du chemin à parcourir. Je n’oublie pas cependant que Philippe Guillemant propose une solution à cette question en centrant son analyse sur la capacité pour la conscience, par excitation du vide quantique (véritable "mer d’informations"), de "travailler" sur l’information et sur les manifestations phénoménales qu’elles permettent de produire.

Mais quel prodigieux changement de perspective nous offre ce nouveau cadre ! La cosmologie antique nous parlait de mondes emboîtés dans des sphères physiques (mondes sublunaire, supralunaire, cercles concentriques décrivant des régions dans les espaces éthérés) ; le physique "classique" nous a ensuite parlé d’échelles physiques de plus en plus petites jusqu’au mur de Planck. Avec cette nouvelle approche, le véritable "emboîtement" est celui par lequel on décrit des niveaux de densité de l’information plus ou moins élevés selon une échelle qui n’est plus physique mais informationnelle : J’ai l’intime conviction que la résolution du mystère des OVNIS se trouve dans la considération de cette échelle des densités. Nous occupons, en tant que conscience humaine, un certain étage sur cette échelle, et nos "visiteurs" sont en mesure de pénétrer à notre étage tout en jouant à l’envi avec les paramètres qui définissent la structure de notre monde.

Auteur: Solal Philippe

Info: Les ovnis, la conscience et les mathématiques, 18/03/2015

[ niveaux de réalité ] [ extraterrestres ] [ inconscient ] [ projectionnistes ] [ paranormal ] [ mondes vibratoires ] [ astral ]

 

Commentaires: 0

Ajouté à la BD par miguel

particules élémentaires

Les imprévisibles effets de l'interaction forte continuent de surprendre les physiciens

Après plus d'un siècle de collision de particules, les physiciens ont une assez bonne idée de ce qui se passe au cœur de l'atome. Les électrons bourdonnent dans des nuages probabilistes autour d'un noyau de protons et de neutrons, chacun contenant un trio de particules bizarres appelées quarks. La force qui maintient tous les quarks ensemble pour former le noyau est la force forte, la bien nommée. C'est cette interaction forte qui doit être surmontée pour diviser l'atome. Et cette puissante force lie les quarks ensemble si étroitement qu'aucun quark n'a jamais été repéré en solo.

Ces caractéristiques des quarks, dont beaucoup peuvent être expliquées dans un cours de sciences au lycée, ont été établies comme des faits expérimentaux. Et pourtant, d'un point de vue théorique, les physiciens ne peuvent pas vraiment les expliquer.

Il est vrai qu'il existe une théorie de la force forte, et c'est un joyau de la physique moderne. Elle se nomme chromodynamique quantique (QCD), " chromo " faisant référence à un aspect des quarks appelé poétiquement " couleur ". Entre autres choses, la QCD décrit comment la force forte s'intensifie lorsque les quarks se séparent et s'affaiblit lorsqu'ils se rassemblent, un peu comme une bande élastique. Cette propriété est exactement à l'opposé du comportement de forces plus familières comme le magnétisme, et sa découverte dans les années 1970 a valu des prix Nobel. D'un point de vue mathématique, les quarks ont été largement démystifiés.

Cependant, les mathématiques fonctionnent mieux lorsque la force entre les particules est relativement faible, ce qui laisse beaucoup à désirer d'un point de vue expérimental. Les prédictions de la CDQ furent confirmées de manière spectaculaire lors d'expériences menées dans des collisionneurs qui rapprochèrent suffisamment les quarks pour que la force forte entre eux se relâche. Mais lorsque les quarks sont libres d'être eux-mêmes, comme c'est le cas dans le noyau, ils s'éloignent les uns des autres et exercent des pressions sur leurs liens de confinement, et la force forte devient si puissante que les calculs stylo papier sont mis en échec. Dans ces conditions, les quarks forment des protons, des neutrons et une multitude d'autres particules à deux ou trois quarks, généralement appelées hadrons, mais personne ne peut calculer pourquoi cela se produit.

Pour comprendre les bizarreries dont les quarks sont capables, les physiciens ne peuvent que lancer des simulations numériques de force brute (qui ont fait des progrès remarquables ces dernières années) ou regarder les particules ricocher dans de bonnes expériences de collisionnement à l'ancienne. Ainsi, près de 60 ans après que les physiciens aient formalisé le quark, la particule continue de surprendre.

Quoi de neuf et digne de mention

Pas plus tard que l'été dernier, la collaboration du LHCb au Grand collisionneur de hadrons en Europe a repéré des signes de deux variétés jusqu'alors inédites de quarks, les tétraquarks, furtivement observés à travers les tunnels souterrains du collisionneur. Cataloguer la diversité des comportements des quarks aide les physiciens à affiner leurs modèles pour simplifier les complexités de la force forte en fournissant de nouveaux exemples de phénomènes que la théorie doit rendre compte.

Les tétraquarks ont été découverts pour la première fois au LHC à l'été 2014, après plus d'une décennie d'indices selon lesquels les quarks pourraient former ces quatuors, ainsi que des groupes de deux ou trois. Cette découverte a alimenté un débat qui s'est enflammé malgré une question apparemment ésotérique: faut-il considérer quatre quarks comme une "molécule" formée de deux hadrons doubles quarks faiblement attirés connus sous le nom de mésons, ou s'assemblent-ils en paires plus inhabituelles connues sous le nom de diquarks?

Au cours des années qui suivirent, les physiciens des particules accumulèrent des preuves de l'existence d'une petite ménagerie de tétraquarks exotiques et de " pentaquarks " à cinq quarks. Un groupe se détacha en 2021, un tétraquark " à double charme " qui vécut des milliers de fois plus longtemps que ses frères exotiques (à 12 sextillionièmes de seconde comme le Methuselah). Il a prouvé qu'une variété de quark — le quark charme — pouvait former des paires plus résistantes que la plupart des suppositions ou des calculs minutieux l'avaient prédit.

À peu près à la même époque, les chercheurs ont mis au point une nouvelle façon de tamiser le maelström qui suit une collision proton-proton à la recherche d'indices de rencontres fortuites entre des composites de quarks. Ces brefs rendez-vous permettent de déterminer si un couple donné de hadrons attire ou repousse, une prédiction hors de portée du QCD. En 2021, les physiciens ont utilisé cette technique de "femtoscopie" pour apprendre ce qui se passe lorsqu'un proton s'approche d'une paire de quarks " étranges ". Cette découverte pourrait améliorer les théories sur ce qui se passe à l'intérieur des étoiles à neutrons.

L'année dernière, les physiciens ont appris que même les quarks de l'atome d'hélium, très étudié, cachent des secrets. Les atomes d'hélium dénudés ont inauguré le domaine de la physique nucléaire en 1909, lorsque Ernest Rutherford (ou plutôt ses jeunes collaborateurs) les projeta sur une feuille d'or et découvrit le noyau. Aujourd'hui, les atomes d'hélium sont devenus la cible de projectiles encore plus petits. Au début de l'année 2023, une équipe a tiré un flux d'électrons sur des noyaux d'hélium (composés de deux protons et de deux neutrons) et a été déconcertée de constater que les cibles remplies de quarks gonflaient bien plus que ce que la CDQ leur avait laissé supposer.








Auteur: Internet

Info: https://www.quantamagazine.org/, Charlie Wood, 19 fev 2024

[ fermions ] [ bosons ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

recherche fondamentale

Personne ne prenait au sérieux les expériences quantiques de John F. Clauser. 50 ans plus tard, il reçoit un prix Nobel.

Le 4 octobre, John F. Clauser, 80 ans, s'est réveillé dans sa maison californienne pour apprendre qu'il avait reçu le prix Nobel de physique. Il le recevra lors d'une cérémonie à Stockholm, en Suède, le 10 décembre, avec Anton Zeilinger et Alain Aspect, pour leurs travaux sur l'intrication quantique. 

Un moment de fête pour Clauser, dont les expériences révolutionnaires sur les particules de lumière ont contribué à prouver des éléments clés de la mécanique quantique.

"Tout le monde veut gagner un prix Nobel", a déclaré M. Clauser. "Je suis très heureux."

Mais son parcours jusqu'à l'obtention du plus grand prix scientifique n'a pas toujours été simple. 

Dans les années 1960, Clauser était étudiant en physique à l'université Columbia. Par hasard, il découvrit à la bibliothèque de l'université un article qui allait façonner sa carrière et l'amener à poursuivre les travaux expérimentaux qui lui ont valu le prix Nobel.

L'article, écrit par le physicien irlandais John Stewart Bell et publié dans la revue Physics en 1964, se demandait si la mécanique quantique donnait ou non une description complète de la réalité. Le phénomène d'intrication quantique constituant le cœur de la question.

L'intrication quantique se produit lorsque deux ou plusieurs particules sont liées d'une certaine manière, et quelle que soit la distance qui les sépare dans l'espace, leurs états restent liés. 

Par exemple, imaginez une particule A qui s'envole dans une direction et une particule B dans l'autre. Si les deux particules sont intriquées - ce qui signifie qu'elles partagent un état quantique commun - une mesure de la particule A déterminera immédiatement le résultat de la mesure de la particule B. Peu importe que les particules soient distantes de quelques mètres ou de plusieurs années-lumière - leur liaison à longue distance est instantanée. 

Cette possibilité avait été rejetée par Albert Einstein et ses collègues dans les années 1930. Au lieu de cela, ils soutenaient qu'il existe un "élément de réalité" qui n'est pas pris en compte par la mécanique quantique. 

Dans son article de 1964, Bell soutenait qu'il était possible de tester expérimentalement si la mécanique quantique échouait à décrire de tels éléments de la réalité. Il appelait ces éléments non pris en compte des "variables cachées".

Bell pensait en particulier à des variables locales. Ce qui signifie qu'elles n'affectent la configuration physique que dans leur voisinage immédiat. Comme l'explique Clauser, "si vous placez des éléments localement dans une boîte et effectuez une mesure dans une autre boîte très éloignée, les choix de paramètres expérimentaux effectués dans une boîte ne peuvent pas affecter les résultats expérimentaux dans l'autre boîte, et vice versa."

Clauser décida de tester la proposition de Bell. Mais lorsqu'il voulut faire l'expérience, son superviseur l'exhorta à reconsidérer sa décision. 

"Le plus difficile au départ a été d'obtenir l'opportunité", se souvient Clauser. "Tout le monde me disait que ce n'était pas possible, donc à quoi bon !".

Le laboratoire quantique 

En 1972, Clauser a finalement eu l'occasion de tester la proposition de Bell alors qu'il occupait un poste postdoctoral au Lawrence Berkeley National Laboratory en Californie. Il s'associa à un étudiant en doctorat, Stuart Freedman. Ensemble, ils mirent sur pied un laboratoire rempli d'équipement optique. 

"Personne n'avait fait cela auparavant", a déclaré Clauser. "Nous n'avions pas d'argent pour faire quoi que ce soit. Nous avons dû tout construire à partir de rien. Je me suis sali les mains, ai été immergé dans l'huile, il y avait beaucoup de fils et j'ai construit beaucoup d'électronique."

Clauser et Freedman ont réussi à créer des photons intriqués en manipulant des atomes de calcium. Les particules de lumière, ou photons, s'envolaient dans des filtres polarisants que Clauser et Freedman pouvaient faire tourner les uns par rapport aux autres. 

La mécanique quantique prédit qu'une plus grande quantité de photons passerait simultanément les filtres que si la polarisation des photons était déterminée par des variables locales et cachées.

L'expérience de Clauser et Freedman mis en évidence que les prédictions de la mécanique quantique étaient correctes. "Nous considérons ces résultats comme des preuves solides contre les théories de variables cachées locales", ont-ils écrit en 1972 dans Physical Review Letters.

Des débuts difficiles

Les résultats de Clauser et Freedman furent confirmés par d'autres expériences menées par Alain Aspect et Anton Zeilinger. 

"Mes travaux ont eu lieu dans les années 70, ceux d'Aspect dans les années 80 et ceux de Zeilinger dans les années 90", a déclaré Clauser. "Nous avons travaillé de manière séquentielle pour améliorer le domaine".

Mais l'impact de l'expérience révolutionnaire de Clauser n'a pas été reconnu immédiatement.

"Les choses étaient difficiles", se souvient Clauser. "Tout le monde disait : "Belle expérience, mais vous devriez peut-être sortir et mesurer des chiffres et arrêter de perdre du temps et de l'argent et commencer à faire de la vraie physique"."

Il a fallu attendre 50 ans pour que Clauser reçoive le prix Nobel pour son travail expérimental. Son collègue, Stuart Freedman, est décédé en 2012. 

"Mes associés sont morts depuis longtemps. Mon seul titre de gloire est d'avoir vécu assez longtemps". a déclaré Clauser

Lorsqu'on lui a demandé s'il avait des conseils à donner aux jeunes chercheurs compte tenu de sa propre difficulté initiale, Clauser a répondu : "Si vous prouvez quelque chose que tout le monde pense vrai, et que vous êtes le premier à le faire, vous ne serez probablement pas reconnu avant 50 ans. C'est la mauvaise nouvelle. La bonne, c'est que j'ai eu beaucoup de plaisir à faire ce travail." 


Auteur: Internet

Info: https://www.livescience.com, Jonas Enande, 9 déc 2022

[ agrément moteur ] [ délectation ] [ observateur dualisant ]

 

Commentaires: 0

Ajouté à la BD par miguel

analyse holistique

Un type de raisonnement que l'AI ne peut remplacer

L'ingénieur en logiciel et philosophe William J. Littlefield II fait remarquer dans un essai récent qu'il existe trois types de raisonnement. Dont deux d'entre eux que nous avons probablement tous appris à l'école : le raisonnement déductif et inductif. Les ordinateurs peuvent très bien faire les deux.

Le raisonnement déductif : Les chiens sont des chiens. Tuffy est un chien. Tuffy est donc un chien.

Les premiers ordinateurs, dit Littlefield, utilisaient généralement le raisonnement déductif (qu'il considère comme un raisonnement "descendant"). Ce qui permet à de puissants ordinateurs de battre les humains à des jeux comme les échecs et le Go en calculant beaucoup plus de mouvements logiques à la fois qu'un humain ne peut le faire.

Le raisonnement inductif, en revanche, est un raisonnement "ascendant", qui va d'une série de faits pertinents à une conclusion, par exemple :

Un club a organisé 60 compétitions de natation, 20 dans chaque lieu ci-dessous :

Lorsque le Club organise des compétitions de natation à Sandy Point, nous obtenons en moyenne 80 % de votes d'approbation.

Lorsque le Club organise des compétitions de natation à Stony Point, nous obtenons en moyenne 60 % des suffrages.

Lorsque le Club organise des compétitions de natation à Rocky Point, nous obtenons une approbation moyenne de 40 %.

Conclusion : Les membres du club préfèrent les plages de sable fin aux autres types de plages.

Ici aussi l'avènement de nouvelles méthodes comme les réseaux neuronaux a permis à de puissants ordinateurs d'assembler une grande quantité d'information afin de permettre un tel raisonnement inductif (Big Data).

Cependant, le Flop IBM de Watson en médecine (supposée aider à soigner le cancer on vit l'AI incapable de discerner les infos pertinentes dans une grande masse de données) suggère que dans les situations où - contrairement aux échecs - il n'y a pas vraiment de "règles", les machines ont beaucoup de difficulté à décider quelles données choisir. Peut-être qu'un jour une encore plus grande masse de données résoudra ce problème. Nous verrons bien.

Mais, selon Littlefield, le troisième type de raisonnement, le raisonnement abductif, fonctionne un peu différemment :

"Contrairement à l'induction ou à la déduction, où nous commençons par des cas pour tirer des conclusions sur une règle, ou vice versa, avec l'abduction, nous générons une hypothèse pour expliquer la relation entre une situation et une règle. De façon plus concise, dans le raisonnement abductif, nous faisons une supposition éclairée." William J. Littlefield II, "La compétence humaine que l'IA ne peut remplacer"

Le raisonnement abductif, décrit à l'origine par un philosophe américain Charles Sanders Peirce (1839-1914), est parfois appelé "inférence vers la meilleure explication", comme dans l'exemple qui suit :

"Un matin, vous entrez dans la cuisine et trouvez une assiette et une tasse sur la table, avec de la chapelure et une noix de beurre dessus, le tout accompagné d'un pot de confiture, un paquet de sucre et un carton vide de lait. Vous en concluez que l'un de vos colocataires s'est levé la nuit pour se préparer une collation de minuit et qu'il était trop fatigué pour débarrasser la table. C'est ce qui, à votre avis, explique le mieux la scène à laquelle vous êtes confronté. Certes, il se peut que quelqu'un ait cambriolé la maison et ait pris le temps de manger un morceau pendant sur le tas, ou qu'un colocataire ait arrangé les choses sur la table sans prendre de collation de minuit, mais juste pour vous faire croire que quelqu'un a pris une collation de minuit. Mais ces hypothèses vous semblent présenter des explications beaucoup plus fantaisistes des données que celle à laquelle vous faites référence." Igor Douven, "Abduction" à l'Encyclopédie Stanford de Philosophie

Notez que la conclusion n'est pas une déduction stricte qu'il n'y a pas non plus suffisamment de preuves pour une induction. Nous choisissons simplement l'explication la plus simple qui tient compte de tous les faits, en gardant à l'esprit la possibilité que de nouvelles preuves nous obligent à reconsidérer notre opinion.

Pourquoi les ordinateurs ne peuvent-ils pas faire ça ? Littlefield dit qu'ils resteraient coincés dans une boucle sans fin :

Une part de ce qui rend l'enlèvement difficile, c'est que nous devons déduire certaines hypothèses probables à partir d'un ensemble vraiment infini d'explications....

"La raison pour laquelle c'est important, c'est que lorsque nous sommes confrontés à des problèmes complexes, une partie de la façon dont nous les résolvons consiste à bricoler. Nous jouons en essayant plusieurs approches, en gardant notre propre système de valeurs fluide pendant que nous cherchons des solutions potentielles. Plus précisément, nous générons des hypothèses. Où 'un ordinateur peut être coincé dans une boucle sans fin, itérant sur des explications infinies, nous utilisons nos systèmes de valeurs pour déduire rapidement quelles explications sont à la fois valables et probables. Peirce savait que le raisonnement abductif était au cœur de la façon dont nous nous attaquons à de nouveaux problèmes ; il pensait en particulier que c'était la façon dont les scientifiques découvrent les choses. Ils observent des phénomènes inattendus et génèrent des hypothèses qui expliquent pourquoi ils se produisent." William J. Littlefield II, "La compétence humaine que l'IA ne peut remplacer"

En d'autres termes, le raisonnement abductif n'est pas à proprement parler une forme de calcul, mais plutôt une supposition éclairée - une évaluation des probabilités fondée sur l'expérience. Il joue un rôle important dans la création d'hypothèses dans les sciences :

"Par exemple, un élève peut avoir remarqué que le pain semble se moisir plus rapidement dans la boîte à pain que dans le réfrigérateur. Le raisonnement abductif amène le jeune chercheur à supposer que la température détermine le taux de croissance des moisissures, comme l'hypothèse qui correspondrait le mieux aux données probantes, si elle est vraie.
Ce processus de raisonnement abductif est vrai qu'il s'agisse d'une expérience scolaire ou d'une thèse de troisième cycle sur l'astrophysique avancée. La pensée abductive permet aux chercheurs de maximiser leur temps et leurs ressources en se concentrant sur une ligne d'expérimentation réaliste.
L'enlèvement est considéré comme le point de départ du processus de recherche, donnant une explication rationnelle, permettant au raisonnement déductif de dicter le plan expérimental exact." Maryn Shuttleworth, "Abductive Reasining" Chez Explorable.com

Comme on peut le voir, le raisonnement abductif fait appel à une certaine créativité parce que l'hypothèse suggérée doit être développée comme une idée et non seulement additionnée à partir d'informations existantes. Et la créativité n'est pas quelque chose que les ordinateurs font vraiment.

C'est l'une des raisons invoquées par le philosophe Jay Richards dans The Human Advantage : L'avenir du travail américain à l'ère des machines intelligentes, comme quoi l'IA ne mettra pas la plupart des humains au chômage. Au contraire, elle changera la nature des emplois, généralement en récompensant la créativité, la flexibilité et une variété d'autres caractéristiques qui ne peuvent être calculées ou automatisées.

Auteur: Internet

Info: https://mindmatters.ai/2019/10/a-type-of-reasoning-ai-cant-replace/, 10 Oct. 2019

[ optimisme ] [ informatique ]

 
Commentaires: 3
Ajouté à la BD par miguel

nano-monde relatif

Une expérience quantique montre que la réalité objective n'existe pas

Les faits alternatifs se répandent comme un virus dans la société. Aujourd'hui, il semble qu'ils aient même infecté la science, du moins le domaine quantique. Ce qui peut sembler contre-intuitif. Après tout, la méthode scientifique est fondée sur les notions de fiabilité d'observation, de mesure et de répétabilité. Un fait, tel qu'établi par une mesure, devrait être objectif, de sorte que tous les observateurs puissent en convenir.

Mais dans un article récemment publié dans Science Advances, nous montrons que, dans le micro-monde des atomes et des particules régi par les règles étranges de la mécanique quantique, deux observateurs différents ont droit à leurs propres faits. En d'autres termes, selon nos  meilleures théories des éléments constitutifs de la nature elle-même, les faits peuvent en fait être subjectifs.

Les observateurs sont des acteurs puissants dans le monde quantique. Selon la théorie, les particules peuvent se trouver dans plusieurs endroits ou états à la fois - c'est ce qu'on appelle une superposition. Mais curieusement, ce n'est le cas que lorsqu'elles ne sont pas observées. Dès que vous observez un système quantique, il choisit un emplacement ou un état spécifique, ce qui rompt la superposition. Le fait que la nature se comporte de cette manière a été prouvé à de multiples reprises en laboratoire, par exemple dans la célèbre expérience de la double fente.

En 1961, le physicien Eugene Wigner a proposé une expérience de pensée provocante. Il s'est demandé ce qui se passerait si l'on appliquait la mécanique quantique à un observateur qui serait lui-même observé. Imaginez qu'un ami de Wigner lance une pièce de monnaie quantique - qui se trouve dans une superposition de pile ou face - dans un laboratoire fermé. Chaque fois que l'ami lance la pièce, il obtient un résultat précis. On peut dire que l'ami de Wigner établit un fait : le résultat du lancer de la pièce est définitivement pile ou face.

Wigner n'a pas accès à ce fait de l'extérieur et, conformément à la mécanique quantique, il doit décrire l'ami et la pièce comme étant dans une superposition de tous les résultats possibles de l'expérience. Tout ça parce qu'ils sont " imbriqués " - connectés de manière effrayante au point que si vous manipulez l'un, vous manipulez également l'autre. Wigner peut maintenant vérifier en principe cette superposition à l'aide d'une "expérience d'interférence", un type de mesure quantique qui permet de démêler la superposition d'un système entier, confirmant ainsi que deux objets sont intriqués.

Lorsque Wigner et son ami compareront leurs notes par la suite, l'ami insistera sur le fait qu'ils ont observé des résultats précis pour chaque lancer de pièce. Wigner, cependant, ne sera pas d'accord lorsqu'il observera l'ami et la pièce dans une superposition. 

Voilà l'énigme. La réalité perçue par l'ami ne peut être réconciliée avec la réalité extérieure. À l'origine, Wigner ne considérait pas qu'il s'agissait d'un paradoxe, il affirmait qu'il serait absurde de décrire un observateur conscient comme un objet quantique. Cependant, il s'est ensuite écarté de cette opinion. De plus et, selon les canons officiels de mécanique quantique, la description est parfaitement valide.

L'expérience

Le scénario demeura longtemps une expérience de pensée intéressante. Mais reflètait-t-il la réalité ? Sur le plan scientifique, peu de progrès ont été réalisés à ce sujet jusqu'à très récemment, lorsque Časlav Brukner, de l'université de Vienne, a montré que, sous certaines hypothèses, l'idée de Wigner peut être utilisée pour prouver formellement que les mesures en mécanique quantique sont subjectives aux observateurs.

Brukner a proposé un moyen de tester cette notion en traduisant le scénario de l'ami de Wigner dans un cadre établi pour la première fois par le physicien John Bell en 1964.

Brukner a ainsi conçu deux paires de Wigner et de ses amis, dans deux boîtes distinctes, effectuant des mesures sur un état partagé - à l'intérieur et à l'extérieur de leur boîte respective. Les résultats pouvant  être récapitulés pour être finalement utilisés pour évaluer une "inégalité de Bell". Si cette inégalité est violée, les observateurs pourraient avoir des faits alternatifs.

Pour la première fois, nous avons réalisé ce test de manière expérimentale à l'université Heriot-Watt d'Édimbourg sur un ordinateur quantique à petite échelle, composé de trois paires de photons intriqués. La première paire de photons représente les pièces de monnaie, et les deux autres sont utilisées pour effectuer le tirage au sort - en mesurant la polarisation des photons - à l'intérieur de leur boîte respective. À l'extérieur des deux boîtes, il reste deux photons de chaque côté qui peuvent également être mesurés.

Malgré l'utilisation d'une technologie quantique de pointe, il a fallu des semaines pour collecter suffisamment de données à partir de ces seuls six photons afin de générer suffisamment de statistiques. Mais finalement, nous avons réussi à montrer que la mécanique quantique peut effectivement être incompatible avec l'hypothèse de faits objectifs - nous avions violé l'inégalité.

La théorie, cependant, repose sur quelques hypothèses. Notamment que les résultats des mesures ne sont pas influencés par des signaux se déplaçant à une vitesse supérieure à celle de la lumière et que les observateurs sont libres de choisir les mesures à effectuer. Ce qui peut être le cas ou non.

Une autre question importante est de savoir si les photons uniques peuvent être considérés comme des observateurs. Dans la proposition de théorie de Brukner, les observateurs n'ont pas besoin d'être conscients, ils doivent simplement être capables d'établir des faits sous la forme d'un résultat de mesure. Un détecteur inanimé serait donc un observateur valable. Et la mécanique quantique classique ne nous donne aucune raison de croire qu'un détecteur, qui peut être conçu comme aussi petit que quelques atomes, ne devrait pas être décrit comme un objet quantique au même titre qu'un photon. Il est également possible que la mécanique quantique standard ne s'applique pas aux grandes échelles de longueur, mais tester cela reste un problème distinct.

Cette expérience montre donc que, au moins pour les modèles locaux de la mécanique quantique, nous devons repenser notre notion d'objectivité. Les faits dont nous faisons l'expérience dans notre monde macroscopique semblent ne pas être menacés, mais une question majeure se pose quant à la manière dont les interprétations existantes de la mécanique quantique peuvent tenir compte des faits subjectifs.

Certains physiciens considèrent que ces nouveaux développements renforcent les interprétations qui autorisent plus d'un résultat pour une observation, par exemple l'existence d'univers parallèles dans lesquels chaque résultat se produit. D'autres y voient une preuve irréfutable de l'existence de théories intrinsèquement dépendantes de l'observateur, comme le bayésianisme quantique, dans lequel les actions et les expériences d'un agent sont au cœur de la théorie. D'autres encore y voient un indice fort que la mécanique quantique s'effondrera peut-être au-delà de certaines échelles de complexité.

Il est clair que nous avons là de profondes questions philosophiques sur la nature fondamentale de la réalité.

Quelle que soit la réponse, un avenir intéressant nous attend.

Auteur: Internet

Info: https://www.livescience.com/objective-reality-not-exist-quantum-physicists.html. Massimiliano Proietti et Alessandro Fedrizzi, 19 janvier 2022

 

Commentaires: 0

Ajouté à la BD par miguel