Citation
Catégorie
Tag – étiquette
Auteur
Info
Rechercher par n'importe quelle lettre



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits... Recherche mots ou phrases tous azimuts... Outil de précision sémantique et de réflexion communautaire... Voir aussi la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats ... Lire la suite >>
Résultat(s): 485
Temps de recherche: 0.0339s

surmoi

La censure va avoir une autre stratégie : comme il ne fait pas de doute, il va prendre, je dirais, le biais de rendre le sujet douteux, c’est-à-dire que le sujet est mis en position, s’il insistait, d’être confronté à un autre qui est en position de le soupçonner.

Quelle est la différence entre, un sujet "soupçonné" ou un sujet "supposé" ? Eh bien, je dirais – qu’un sujet supposé c’est un sujet qui est éventuellement supposé pouvoir vous surprendre, – un sujet soupçonné, à l’encontre, c’est un sujet dont fondamentalement rien ne saurait surprendre venant de lui, puisqu’il y a, par rapport au sujet soupçonné, une prévention, une présomption plus exactement, et que rien de lui ne saurait surprendre : quoi qu’il dise, ça sera intégré quelque part et ça n’aura rien de surprenant.

Si vous voulez, vous voyez par là que nous sommes très proches, ce censeur, il est très proche du "non-dupe" dont nous a parlé Lacan en son temps, il en est très proche parce qu’il est dans la position : "tu ne m’auras pas, on ne me la fait pas, quoi que tu dises je sais où situer ce que tu as à dire et dans cette position de méfiance, de soupçon, je t’ai à l’œil, je ne serai pas surpris."

[...] Freud dit qu’une des fonctions de la censure est de dépouiller de son intensité ce qu’il appelle "le signifiant de haute valeur psychique".

Ce signifiant de haute valeur psychique autour duquel je vais centrer ce travail, c’est - je vous le signale en passant - le signifiant qui est la cause du rêve, c’est le signifiant que le sujet a rencontré dans la journée et auquel ayant été confronté il est resté coi, bouche bée, sans répondant et avec l’esprit d’escalier qui caractérise ce sujet qui n’a pas pu répondre, il lui faut le temps d’incubation de la journée et il n’arrive à répondre que dans la nuit avec l’aide d’un rêve à ce signifiant qui l’a, pour l’instant interloqué avant de voir de plus près de quoi il retourne.

Le problème de la censure, c’est que sa fonction c’est surtout de prévenir le sujet contre le fait qu’il puisse accéder à cet état de fading, de sidération par ce signifiant de haute valeur psychique qui est donc dépouillé de son efficace.

Encore un mot de ce censeur, ou ce "non-dupe", vous pouvez imaginer que c’est dans la mesure où le fait de ne pas pouvoir être surpris nécessite chez lui le développement - je crois qu’on peut le dire- d’une intelligence importante, puisqu’il aura réponse à tout, rien ne saurait le surprendre.

Auteur: Didier-Weill Alain

Info: La topologie et le temps, intervention lors du séminaire de Jacques Lacan, 8 mai 1979

[ étonnement ] [ refoulement ] [ dénigrement ] [ effets ]

 
Commentaires: 4
Ajouté à la BD par Coli Masson

lassitude

Dans l’ennui, je dirais, ce qui nous arrive, c’est que nous accédons à une perception douloureuse de la répétition, la répétition se donne à nous sous le biais du monotone et par cette dimension du monotone, ce qui se produit, si vous y pensez bien, vous verrez que ça coïncide avec quelque chose... je m’excuse d’aller un peu vite, mais je crois qu’on peut le dire quand même ...ça correspond avec quelque chose de l’ordre de l’usure de la métaphore paternelle.

Les métaphores s’usent : regardez un mot d’esprit, il fait de l’effet un temps, un mot d’esprit s’use, une fois usé, effectivement il est monotone. Je dirais que l’usure de la métaphore, l’effet de cette usure... et cette usure se produit justement sous l’effet de l’impact de ces signifiants qui persistent dans le Réel et qui sont corrodants sur la métaphore ...cette usure, je dirais qu’elle est liée à l’apparition du déchet dans notre univers. [...]

L’usure de la métaphore, vous pouvez repérer qu’elle est lié à l’apparition dans notre univers du déchet,

– que ce déchet soit de l’ordre subjectif avec ce qu’on appelle la culpabilité ou le péché,

– ou que ce déchet soit même l’apparition de ce déchet qu’est notre corps propre dans la mesure ou notre corps dans la perspective de cet ennui ou de cette monotonie, ce qui lui arrive, c’est qu’il peut se mettre parfois à être, je dirais, soumis à une loi qui serait la loi exclusive du réel, je veux dire la loi de la pesanteur, je veux dire par là que lorsque notre corps se mettrait à se manifester par le fait qu’il pèse parce qu’il ne serait soumis qu’à la loi de la pesanteur, eh bien, vous avez là, l’accentuation de la fonction de ce déchet qu’est notre corps tout à l’opposé, si vous voulez, quand le corps est soumis à cet autre Réel qui est celui du signifiant qui l’allège, ce qui fait que vous voyez certaines personnes marcher dans la rue qui semblent ne pas peser, qui semblent être comme une plume, quel que soit leur poids, c’est quelque chose de cette nature et on peut dire que ce déchet qu’est le corps quand il se met à peser, eh bien, nous pouvons l’opposer à ce qui arrive au corps quand brusquement il s’allège, il s’allège par exemple dans la fête ou dans le repas totémique, ou tout simplement dans l’amour, dans le coup de foudre, la foudre sidération, ce que représente pour un homme ce signifiant de haute intensité psychique qu’est la femme, ce signifiant sidérant, il faut reconnaître qu’il a le pouvoir, en suscitant l’amour - et puis le terme de ce terme de femme fatale nous fait peut-être sentir que par cette fatalité, ce que l’homme rencontre de fatal, c’est quelque chose de l’ordre du signifiant du Nom du Père - eh bien, qu’est-ce qui se passe quand on perd la tête dans l’amour, ou le corps c’est que vous devenez tellement légers ou allégés que comme à la limite, comme le maniaque vous perdez votre lest, vous devenez fous, ne pesez plus rien, vous perdez le corps, la tête.

Et alors ce que je voulais vous signaler, c’est que cette consomption ou cette consumation du reste qu’est cette consumation du corps quand il ne pèse plus, eh bien, repérez que justement dans le repas totémique ou dans les fêtes qui sont étudiées dans les sociétés magiques, les restes, corrélativement à l’incorporation du père, il y a cette cérémonie, ce qui a été peu retenu par Freud, qui consiste à brûler les restes.

Auteur: Didier-Weill Alain

Info: La topologie et le temps, intervention lors du séminaire de Jacques Lacan, 8 mai 1979

[ causes ] [ calcification ]

 
Commentaires: 2
Ajouté à la BD par Coli Masson

complexité

Epigénétique. Sous ce nom, se cache un tremblement de terre qui fait vaciller la statue la plus emblématique du monde du vivant : le génome. Depuis un demi-siècle, l'ADN était considéré comme un coffre-fort protégeant les plans de l'être humain. Des instructions portées par un collier de 3 milliards de bases lues par d'infatigables nanomachines fabriquant nuit et jour des protéines. C'était trop simple ! "Il y a une deuxième couche d'informations qui recouvre le génome. C'est l'épigénome", résume Marcel Méchali de l'Institut de génétique humaine de Montpellier. En fait, le message génétique n'est pas gravé pour toujours dans les chromosomes. "Des protéines et des molécules viennent se greffer sur l'ADN de base et modifient sa lecture. Cela dépend de l'environnement, de l'air que vous respirez et peut-être même des émotions que vous ressentez à un moment donné. De plus, ces informations sont transmissibles d'une génération à l'autre", poursuit Marcel Méchali. Le poids des régulateurs Tout comme le cerveau, qui n'est pas tout à fait le même après la lecture d'un livre ou à la suite d'une conversation animée, l'ADN est une structure plastique. "Des jumeaux qui partagent le même génome ne réagissent pas de la même façon aux agressions extérieures ou aux médicaments", indique Marcel Méchali. En résumé, l'expression d'un gène varie au fil du temps, d'un individu à l'autre et même d'une cellule à sa voisine. Les experts résument la nouvelle donne d'une phrase : "Ce ne sont pas les gènes qui comptent, mais les facteurs qui assurent leur régulation." Ces régulateurs qui contestent le pouvoir des gènes sont innombrables et souvent inattendus. Des molécules, des protéines, des micro-ARN et même des "pseudo-gènes". "La lecture du génome s'effectue dans des usines à transcription. Elles sont très localisées, mais très riches au plan chimique", ajoute Peter Fraser du Babraham Institute de Cambridge en Angleterre. Guerre des sexes Ce concept remet en cause de très nombreux dogmes, à commencer par celui de la non-transmission des caractères acquis. Certains généticiens pensent ainsi qu'une partie de nos maladies, voire de nos comportements est la conséquence du mode de vie de nos grands-parents. Récemment, le chercheur britannique Marcus Pembrey a démontré, en réanalysant d'anciennes données épidémiologiques, que les préférences alimentaires de préadolescents suédois du début du siècle dernier ont influencé la santé de leurs descendants sur au moins deux générations. Ce chercheur très atypique est connu pour une formule qui résume bien la situation : "Il y a des fantômes qui rôdent dans nos gènes." Darwin et Lamarck vont se retourner dans leur tombe en entendant ces discours, qui brouillent les frontières entre l'inné et l'acquis. Dans ce contexte, les chercheurs s'intéressent aux premiers instants qui suivent la fécondation de l'ovocyte par un spermatozoïde. Une question taraude la communauté scientifique : comment l'ovule décide-t-il d'être un XX (femme) ou un XY (homme) ? En d'autres termes, quand démarre la guerre des sexes ? A l'Institut Curie à Paris, Edith Heard, spécialiste de la biologie du développement, s'intéresse aux mécanismes d'inactivation du chromosome X chez les mammifères. Elle répond simplement à cette question : "Dès les premiers jours." Là encore, ce sont des facteurs aléatoires qui lancent les dés de la sexualité. En fait, ce sont des collisions entre des molécules dans les toutes premières cellules qui font de l'homme un Mozart ou une Marilyn Monroe."C'est la loi du hasard", résume Edith Heard. Minuscules mais puissants Reste enfin la question qui tue. Pourquoi l'homme et le chimpanzé, qui partagent plus de 99 % de leurs gènes, sont-ils si différents l'un de l'autre ? Certains chercheurs, comme l'Américaine Katherine Pollard, se sont lancés dans la quête du "gène de l'humanité" pour l'instant introuvable. D'autres voient dans ces différences la confirmation que ce ne sont pas les gènes qui comptent, mais toutes leurs variations. En réalité, la cellule est un indescriptible chaos. Elle contient, entre autres, des centaines de minuscules fragments d'ARN d'une puissance extravagante. Ils sont capables de bloquer un gène 10.000 fois plus gros. Comme si une mouche posée sur le pare-brise du TGV Paris-Marseille interdisait son départ. Une chose est sûre, ce nouvel horizon de la biologie va générer des océans de données qu'il faudra stocker, analyser et interpréter. Un défi presque surhumain, qui conduira peut-être à la découverte du gène de l'obstination.

Auteur: Perez Alain

Info: les échos, 27,09,2010, La nouvelle révolution génétique

[ sciences ] [ hyper-complexité ] [ adaptation ]

 

Commentaires: 0

physique fondamentale

On m’a dit que je gaspillais mon temps 

Malgré son emploi du temps surchargé du à son prix Nobel de physique 2022 partagé avec l’Américain John F. Clauser et ­l’Autrichien Anton Zeilinger, le physicien nous a reçus et livré un entretien inédit sur ses recherches, avec la passion qui l’anime.

AM - Vous venez de recevoir le prix Nobel de physique 2022 pour vos travaux sur l’intrication qui ont permis d’appréhender le cœur de la théorie quantique. Avant de nous expliquer vos recherches, pouvez-vous nous donner un aperçu de la "physique quantique" ?

AA - La physique quantique a été développée au début du XXe siècle pour rendre compte des propriétés du monde microscopique : les atomes, les électrons… Ce que la physique classique n’arrivait pas à faire. À la fin du XIXe siècle, on savait, par exemple, que la matière était formée de charges positives et négatives qui s’attirent. Mais pourquoi, alors, cette matière ne s’effondrait-elle pas sur elle-même ? La physique classique ne pouvait apporter aucune explication.

Pour le comprendre, il a fallu recourir à la physique quantique, notamment à l’un de ses premiers concepts : la dualité onde/particuleAinsi, un objet, par exemple la lumière, que nous décrivons comme une onde, doit aussi être considérée comme formée de grains, à savoir les photons. Réciproquement, des objets dont nous pensons que ce sont des particules – un électron, un atome, un neutron – doivent aussi, dans certaines circonstances, être considérés comme des ondes. C’est la base de ce qu’on appelle "la première révolution quantique". Cela a permis de comprendre la stabilité de la matière, la conduction du courant électrique ou la façon dont la matière émet ou absorbe la lumière.

Et puis dans les années 1940-1960, ce fut l’invention du transistor et du laser qui s’appuyaient sur cette théorie quantique. Ces deux technologies n’ont pas été élaborées par un bricoleur dans un garage en Californie, mais par les plus grands physiciens de l’époque qui ont eu des prix Nobel. Une fois qu’on a le transistor, on a les circuits intégrés à la base des ordinateurs.

AA - Et qu’appelle-t-on deuxième révolution quantique ?

AA - Elle a été lancée par un article d’Albert Einstein, de Boris Podolsky et de Nathan Rosen en 1935. Ils découvrent dans les équations mathématiques de la physique quantique des états où deux particules qui ont interagi, mais qui n’interagissent plus, semblent continuer à former un tout inséparable. C’est ce que l’on appellera l’"intrication". Dès le début, le physicien Niels Bohr s’était opposé aux conclusions d’Einstein. Son homologue John Bell a alors proposé, en 1964, de faire des expérimentations pour trancher la discussion.

Il a ensuite fallu plusieurs décennies pour que les autres physiciens réalisent la portée des travaux de Bell. Quand j’ai commencé ma thèse en 1974, nombre d’entre eux pensaient que l’intrication n’était pas différente de la dualité onde/particule. Puis, on a pris conscience de sa nouveauté. C’est pourquoi je parle d’une "deuxième révolution quantique", d’abord sur le plan de la recherche fondamentale, mais également sur les nouvelles applications que cela a suscitées, comme la cryptographie ou les ordinateurs quantiques.

AM - Comment a-t-on validé ce phénomène "d’intrication" ?

AA - Il fallait créer une paire de photons et une méthode pour montrer que, même éloignés, les deux photons demeuraient corrélés. Le photon, c’est de la lumière et la lumière a une polarisation. Un polariseur est un instrument d’optique qui a deux sorties associées à l’orientation de son axe : tout l’objet du test est de regarder comment les résultats dépendent de cette orientation. Si les polariseurs sont parallèles, vous avez une corrélation parfaite, vous trouvez les mêmes résultats des deux côtés. Imaginez que je lance deux pièces à 10 mètres de distance l’une de l’autre, ça a l’air aléatoire, mais si j’ai pile d’un côté, j’ai pile de l’autre, et si j’ai face d’un côté, j’ai face de l’autre. C’est la corrélation prévue pour les photons intriqués. Et cette corrélation est si forte qu’on ne peut en rendre compte que par la physique quantique.

AM - Quelles expériences ont été réalisées pour établir cette intrication ?

AA - La première expérience a été faite par John Clauser et Stuart Freedman en 1964. Celles que j’ai faites dix ans plus tard et celles qu’Anton Zeilinger a effectuées seize ans après moi ont des niveaux de raffinement différents, mais portent sur des objets identiques : il s’agit de deux photons émis par la même source et qui s’éloignent l’un de l’autre dans des directions opposées. J’ai mis cinq ans à fabriquer ma source. J’ai commencé en 1974 et les premières paires de photons intriqués ont été obtenues vers 1979-1980. Pour ce faire, je prends des atomes, je tape dessus avec des lasers, je les "excite" de façon contrôlée, et ils n’ont pas d’autre choix que d’émettre les deux photons dont j’ai besoin.

Après l’émission des photons et avant leur détection, il faut que les deux polariseurs soient éloignés l’un de l’autre et que leur orientation soit déterminée au dernier moment afin qu’ils ne s’influencent pas. Ainsi, mes deux polariseurs sont distants de 6 mètres de la source et je change leur orientation pendant le temps de vol des photons qui est de 20 nanosecondes… Comment tourner un appareil en 20 milliardièmes de seconde ? C’est impossible, mais j’ai eu l’idée de construire une espèce d’aiguillage capable de le faire et l’expérience a réussi.

AM - D’où vient votre passion pour la physique ?

Je suis originaire du village d’Astaffort (Lot-et-Garonne) à une époque où les champs étaient labourés avec le cheval ou les bœufs, mais j’étais fasciné par le moindre objet technique, par exemple les outils des artisans. Je me souviens de la visite, à Fumel, d’un haut-fourneau qui fournissait de la fonte transformée en tuyaux comme ceux que j’avais vu poser dans mon village pour installer l’eau courante. À l’école primaire, les instituteurs et institutrices faisaient ce que l’on appelait des "leçons de choses". J’étais aussi un grand lecteur de Jules Verne.

Arrivé au lycée d’Agen, je me réjouissais à l’idée de faire de la physique-chimie, mais on ne commençait qu’en seconde. J’ai eu alors un professeur formidable, Maurice Hirsch, qui nous faisait des expériences extraordinaires. Il a décuplé mon intérêt pour la physique et m’a enseigné des méthodes que j’ai conservées toute ma vie.

AM - Quels conseils donneriez-vous aux jeunes qui souhaiteraient se lancer dans votre discipline ?

AA - Il est clair qu’il y a un problème de moyens financiers. La loi de programmation de la recherche fait des propositions intéressantes, mais quand on regarde les budgets associés, ils sont inférieurs à ce que l’Académie des sciences avait estimé être le minimum pour que la recherche française puisse rester au niveau des concurrents étrangers. Les crédits de base, y compris ceux de l’Agence nationale de la recherche, sont décevants, même s’ils ne sont pas négligeables. Heureusement, on peut obtenir des crédits européens pour des projets innovants jugés au meilleur niveau, mais seul un petit nombre de chercheurs peut en bénéficier.

On me demande souvent si, aujourd’hui, on pourrait faire la même chose que ce que j’ai fait dans les années 1970-1980. Certainement pas de la même façon, mais un chercheur titulaire peut se lancer dans un projet de recherche original. Au pire, sa carrière sera freinée mais, moi aussi, je courais ce risque. Comme j’avais un poste permanent, je pouvais me lancer dans une recherche à long terme sans craindre de perdre mon emploi d’enseignant-chercheur.

On m’a dit que je gaspillais mon temps, que mon sujet n’avait aucun intérêt, mais je gardais mon emploi. Il en est toujours de même. Si un scientifique du CNRS ou de l’université se lance dans une recherche ­désapprouvée par les comités, il peut persévérer s’il accepte un certain retard de carrière. Bien sûr, si au bout de dix ans son travail n’a débouché sur rien, il doit se remettre en cause, les comités n’avaient peut-être pas tort.



 

Auteur: Aspect Alain

Info: Interviewé par Anna Musso pour https://www.humanite.fr, 8 Novembre 2022

[ nano-monde ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

classique - quantique

Conversation avec A A sur les mystères les plus profonds de la physique quantique

A A est spécialiste de physique quantique. En 2022, il a obtenu le prix Nobel de physique pour ses travaux sur le phénomène d'" intrication quantique ", qui est au cœur de nombreuses technologies quantiques de nos jours.

Il a aussi plus largement contribué au domaine, souvent en explorant d'autres situations où les prédictions de la physique quantique sont très éloignées de notre intuition du monde physique. À cause de cette étrangeté, la physique quantique est souvent considérée comme inaccessible.

Dans cet entretien, sans prétendre tout expliquer de la mécanique quantique, Elsa Couderc et Benoît Tonson, chefs de rubrique Sciences et Technologies à The Conversation, espéraient transmettre ce qui fait le sel de la physique quantique et qui attise les passions encore aujourd'hui. Monsieur Aspect a bien voulu se prêter au jeu et revenir avec eux sur quelques étapes marquantes de sa carrière, les limites du monde quantique et l'essor des technologies quantiques aujourd'hui, entre recherche publique et recherche industrielle.

The Conversation : Pour aborder les travaux qui vous ont valu le prix Nobel, il faut revenir un peu en arrière, aux débuts de la théorie quantique. En effet, au tout début du XXe siècle, deux pères fondateurs de la physique quantique, Albert Einstein et Nils Bohr, s'écharpaient sur l'interprétation de la nouvelle théorie. Un des points de désaccord était lié au phénomène d'" intrication quantique ". L'intrication quantique, c'est le fait que deux particules séparées dans l'espace partagent des propriétés - à un point tel que l'on ne peut pas décrire complètement l'une sans décrire l'autre : il faut les décrire comme un tout. Einstein avait un problème avec cette idée, car cela signifiait pour lui que deux particules intriquées pourraient échanger de l'information instantanément sur de très grandes distances, c'est-à-dire plus rapidement que la vitesse de la lumière.

Avec vos expériences, vous avez montré qu'Einstein avait tort de ne pas admettre cette idée - ce que dit bien le titre de votre récent livre, paru chez Odile Jacob, Si Einstein avait su. Vous avez réalisé ces travaux à la fin des années 1970 et au début des années 1980, mais votre passion pour le sujet reste intacte. Pouvez-vous nous expliquer pourquoi ?

A A : Cette expérience m'a passionné parce qu'elle met vraiment en jeu la conception du monde d'Einstein.

Pour compléter le cours de l'histoire que vous soulignez, entre le débat Einstein-Bohr et mes travaux, il y a eu, en 1964, un physicien appelé John Bell. Bell a écrit des équations qui formalisent le désaccord historique entre Einstein et Bohr. À la suite des travaux de John Bell, John Clauser puis moi, puis d’autres encore, avons travaillé expérimentalement sur leur désaccord. J'ai eu l'honneur de montrer qu'Einstein avait tort dans une certaine mesure, mais j'ai mis ainsi en relief son immense mérite d'avoir mis le doigt sur une propriété extraordinaire de la physique quantique, l'intrication, dont les gens n'avaient probablement pas réalisé toute l'importance auparavant.

Mais j'ai beau avoir démontré qu'Einstein avait eu tort sur un sujet bien particulier, il reste pour moi un héros absolu ! Je l'admire énormément pour ses contributions à la physique quantique entre 1900 et 1925 et pour son article de 1935. Il faut ajouter que la clarté de tout ce qu'il a écrit est incroyable. John Bell l'avait aussi remarqué et avait résumé les choses ainsi :

Bohr était incohérent, peu clair, obscur à dessein, mais il avait raison. Einstein était cohérent, clair, terre-à-terre, mais il avait tort. (Bohr was inconsistent, unclear, willfully obscure, and right. Einstein was consistent, clear, down-to-earth, and wrong). " Propos de John Bell, rapportés par Graham Farmelo, le 11 juin 2010, dans le New York Times.

The Conversation : Vous avez fait d'autres travaux importants par la suite. Est-ce que vous pouvez nous parler de vos préférés ?

A A : D'une part, à la fin des années 1980, j'ai travaillé avec Claude Cohen-Tannoudji au développement d'une méthode pour refroidir les atomes - qui est sa spécialité.

Comme la température est associée à la vitesse d'agitation des atomes, pour les refroidir, il faut en fait les ralentir. Notre méthode s'appelle le refroidissement " en dessous du recul du photon " parce qu'on a réussi à ralentir l'agitation thermique par de toutes petites quantités - plus petites que ce que l'on croyait possible avec les lois de la physique quantique, de l'ordre du milliardième de degré. Ainsi, je suis heureux et fier d'avoir un peu contribué au prix Nobel de Claude Cohen-Tannoudji, comme mes amis Jean Dalibard et Christophe Salomon en ce qui concerne un autre volet de son travail.

Une autre première mondiale me tient à cœur. C'est un sujet dont nous avons eu l'idée avec mon collaborateur Philippe Bouyer, en sortant d'une conférence au début des années 2000. Les chercheurs en physique de la matière condensée cherchaient depuis la fin des années 1950 à observer directement un phénomène appelé " localisation d'Anderson ", qui concerne des électrons dans un matériau désordonné. Le conférencier avait dit quelque chose du style " Il serait intéressant de mettre des atomes dans un milieu désordonné " (un milieu désordonné est un endroit où règne le désordre, par exemple avec des obstacles irréguliers). Avec Philippe, on s'est regardés dans la voiture et on s'est dit : " Cette expérience, que nous avons développée au laboratoire, nous pourrions la modifier pour essayer d'observer la localisation d'Anderson des atomes dans un désordre optique ». En effet, le but du groupe de recherche d'optique atomique, que j'ai monté à l'Institut d'optique, est de faire avec des atomes ce que l'on sait faire avec les photons ou les électrons. Par exemple, le groupe - dont je ne fais plus partie bien sûr, je suis à la retraite - essaye aujourd'hui de refaire mon expérience sur l'intrication quantique avec des atomes.

Pour revenir à la localisation d'Anderson, grâce au potentiel que nous créons avec des lasers, nous avons réussi à coincer des atomes ultrafroids (un milliardième de degré) dans un paysage désordonné, ce qui nous a permis d'observer directement la localisation d'Anderson. Nous avons aussi pu photographier une " fonction d'onde atomique ", c'est-à-dire la " forme " d'un atome bloqué dans notre structure de lasers. Cet article est très cité par la communauté de la matière condensée qui s'intéresse à ce sujet - ils ont été tellement étonnés de voir directement une fonction d'onde photographiée ! La localisation d'Anderson est un phénomène quantique très subtil, et je suis particulièrement fier de notre travail sur ce sujet.

The Conversation : Vous avez beaucoup travaillé sur les propriétés de particules individuelles, sur le refroidissement par exemple, ou celles de duos de particules pour l'intrication. Que se passe-t-il quand il y a de nombreuses particules ? Plus spécifiquement, pourquoi les lois de la physique ne semblent-elles pas les mêmes à petite et grande échelle, alors que les grandes structures sont constituées de petites particules ?

A A : Je vais vous donner la réponse standard à cette question - mais je dois préciser qu'à mon avis, cette réponse standard ne fait que reculer le problème d'un cran.

Voici la réponse standard : il est clair que, quand on a beaucoup de particules, on n'observe plus les propriétés quantiques. Sinon, on pourrait observer le fameux chat de Schrödinger, qui est à la fois vivant et mort - et on ne l'observe pas. On dit que c'est à cause de la " décohérence ".

La décohérence, c'est le fait que, quand des objets quantiques sont en interaction avec le monde extérieur, leurs propriétés quantiques disparaissent plus ou moins vite, d'une façon plus ou moins nette, mais de façon inévitable. Une partie de l'information quantique va en quelque sorte se diluer dans le monde extérieur, et donc les particules n'ont plus toutes leurs caractéristiques quantiques. Or, on peut montrer théoriquement que plus vous avez un grand nombre de particules, plus il faut que les perturbations de l'extérieur soient petites pour conserver les caractéristiques quantiques. En d'autres termes, pour pouvoir observer des propriétés quantiques avec un grand nombre de particules, il faut donc les isoler davantage du monde extérieur.



C'est l'objectif de tous les gens qui essayent aujourd'hui de construire un ordinateur quantique, dans lequel il faut avoir des centaines, des milliers, des dizaines de milliers de ce que l'on appelle des " bits quantiques ". Ce sont des particules quantiques que l'on arrive à intriquer sans qu'elles interagissent avec le monde extérieur.

The Conversation : Pour faire cet ordinateur quantique, est-ce que la difficulté est purement technologique, celle d'isoler davantage du monde extérieur, ou bien est-ce qu'il y a une limite intrinsèque, un nombre de particules que l'on ne peut plus intriquer ? Où est la limite entre le monde quantique et le monde classique ?

A A : Aujourd'hui, on a réussi à observer le phénomène d'intrication avec 1 000 particules, peut-être quelques milliers. Mais, de l'autre côté, dans n'importe quel objet à notre échelle, il y a 1023 particules (1 suivi de 23 zéros, soit cent mille milliards de milliards). Il y a une vingtaine d'ordres de grandeur entre les deux échelles, c'est un intervalle absolument gigantesque. D'où la question : et s'il y avait une limite absolue entre les deux mondes ? Ce serait une nouvelle loi de la physique, mais pour l'instant, on ne connaît pas cette limite.

Découvrir une telle loi serait formidable, même si, selon où cette limite se place, elle pourrait balayer nos espoirs de développer des ordinateurs quantiques.

Il se trouve que je suis cofondateur d'une start-up française, Pasqal, qui essaye de construire un ordinateur quantique qui soit une machine facile à utiliser pour les utilisateurs. Du coup, j'ai très envie que l'ordinateur quantique tienne ses promesses. Mais, d'un autre côté, si, en essayant de développer cet ordinateur quantique, on trouve qu'il y a une limite fondamentale entre monde quantique et monde macroscopique, je serais très heureux en tant que physicien ! En fait, je pense que je serais gagnant dans les deux cas : soit l'ordinateur quantique marche, et je suis gagnant parce qu'il y a une application à des phénomènes que j'ai étudiés il y a longtemps ; soit on aura trouvé une nouvelle loi de la physique, et ce serait absolument extraordinaire.

The Conversation : Est-ce que vous pouvez nous en dire un petit peu plus sur cette idée de limite fondamentale entre monde quantique et monde classique ?

A A : Non, pour l'instant, on n'en sait pas plus que ce que je vous ai dit, c'est-à-dire que la décohérence est le fait qu'il y a une partie de l'" information quantique " qui fuite vers l'extérieur, et que cela détruit les superpositions quantiques. Et que plus le nombre de particules intriquées est grand et plus la décohérence va être nocive -- donc il faut isoler les systèmes de plus en plus si on veut qu'ils restent quantiques.

Cependant, il y aurait tout de même peut-être une échappatoire à la décohérence, dont rêvent les physiciens.

En effet, on décrit les particules quantiques grâce à leur " état " - c'est-à-dire ce qui décrit tous les aspects de la particule. Quand vous avez de nombreuses particules intriquées, vous imaginez bien que décrire l'ensemble de particules peut devenir un peu long. Pour un grand nombre de particules, l'" espace des états ", c'est-à-dire l'ensemble de toutes les possibilités, est d'une taille absolument extraordinaire. Il suffit d'avoir 200 ou 300 bits quantiques intriqués pour que le nombre d'états possibles soit plus grand que le nombre de particules dans l'univers. Dans cet espace des états, on n'est pas à l'abri d'un coup de chance, comme on dit, qui nous fournirait un endroit protégé de la décohérence - un petit sous-ensemble de l'espace des états qui ne souffrirait pas de la décohérence. Si cet endroit existe, quelques états particuliers dans l'immense espace des états ne seraient pas détruits par les interactions avec le monde extérieur.

Il y a des efforts sérieux en ce sens. Quand vous entendez parler de bit quantique " topologique " par exemple, c'est bien de cela qu'il s'agit. Mais jusqu'à présent, on tâtonne encore dans ce domaine.

The Conversation : Pourquoi parlez-vous de la décohérence comme de quelque chose qui cache le problème, qui le repousse d'un cran ?

A A : En physique, il y a des choses que l'on peut expliquer rigoureusement à partir des lois fondamentales. Mais il y en a d'autres, qui sont absolument fonctionnelles - on sait qu'elles décrivent correctement les phénomènes que l'on observe - mais qu'on ne sait pas encore les démontrer à partir des premiers principes. Il faut les ajouter " à la main ", comme on dit. C'est le cas de la décohérence, mais c'est aussi le cas du second principe de la thermodynamique. La décohérence est une théorie fonctionnelle pour expliquer la perte des caractéristiques quantiques, mais on ne sait pas encore complètement la démontrer en toute généralité.

The Conversation : Quelles sont les frontières de la recherche fondamentale en mécanique quantique aujourd'hui, les grandes questions que se posent les chercheuses et les chercheurs ?

A A:  Je vais d'abord préciser que cela fait douze ans que je ne dirige plus de groupe de recherche... Je m'intéresse à ces questionnements, mais je ne contribue plus à les formuler.

Cela étant, il me semble qu'il faut distinguer entre les problèmes à très long terme et ceux à plus court terme. Dans les problèmes à très long terme, on sait par exemple qu'il y a un problème entre la relativité générale et la physique quantique. C'est un problème de théoriciens, bien en dehors de mon domaine de compétences.

En revanche, dans les perspectives à plus court terme, et que je comprends, il y a les gens qui essayent d'observer le régime quantique avec des objets " macroscopiques ", en l'occurrence une membrane extrêmement tendue, qui vibre donc à une fréquence très élevée, et sur laquelle on commence à observer la quantification du mouvement oscillatoire. On touche là au problème que l'on a évoqué précédemment, celui de la limite entre monde quantique et monde macroscopique, puisqu'on commence à pouvoir étudier un objet qui est de dimension macroscopique et qui pourtant présente des phénomènes quantiques.

C'est une voie de recherche qui a l'avantage de ne pas être à l'échelle de décennies, mais plutôt à l'échelle des années, et qui peut nous aider à mieux comprendre cette limite entre le monde quantique et le monde classique. Pour cela, plusieurs systèmes sont envisagés, pas seulement les membranes, également des micromiroirs qui interagissent avec des photons.

The Conversation : Quelle taille font ces membranes ?

A A : Ces membranes peuvent être par exemple faites de matériaux 2D, un peu comme le graphène (réseau bidimensionnel d'atomes de carbone) : elles peuvent faire quelques millimètres de diamètre quand on les regarde par le dessus, mais seulement un atome d'épaisseur.

Ceci étant, ce n'est pas tant leur taille, mais leur fréquence de vibration qui est importante ici - c'est ça qui leur permet d'exhiber des propriétés quantiques. Les fréquences de vibration sont tellement élevées, comme quand on tend une corde de guitare, que l'on atteint des gammes de millions de hertz, soit des millions de vibrations par seconde. Quand le " quantum de vibration " (défini par Einstein en 1905 comme la fréquence multipliée par la constante de Planck) devient comparable à l'énergie thermique typique, c'est-à-dire quand la membrane vibre assez haut, l'agitation thermique vous gêne moins et vous pouvez observer des effets quantiques, à condition de refroidir suffisamment le système.

The Conversation : Y a-t-il d'autres avancées que vous suivez particulièrement et qui repoussent les limites fondamentales de la physique quantique ?

A A : Il faut bien sûr parler de tous ces efforts pour réaliser l'ordinateur quantique, qui suivent des voies toutes très intéressantes d'un point de vue de la physique fondamentale.

Il y a les voies qui utilisent des atomes neutres, ou des ions, ou des photons, pour fabriquer des bits quantiques. Ce sont des objets quantiques qui nous sont donnés par la nature. Par ailleurs, en matière condensée, que je connais personnellement moins bien, il y a des bits quantiques artificiels, basés sur des circuits supraconducteurs. Les matériaux supraconducteurs sont des matériaux bien particuliers, dans lesquels l'électricité peut se propager sans résistance - encore un phénomène quantique. Certains circuits, conçus spécialement, présentent des états quantiques spécifiques que l'on peut exploiter comme bits quantiques. À l'heure actuelle, on ne sait rendre des matériaux supraconducteurs qu'à très basse température.

L'avantage des objets quantiques naturels comme les photons, les ions et les atomes, c'est qu'ils sont parfaits par définition : tous les atomes de rubidium sont les mêmes, tous les photons de même fréquence sont les mêmes. Pour un expérimentateur, c'est une bénédiction.

Dans le domaine de la matière condensée, au contraire, les scientifiques fabriquent des circuits quantiques de façon artificielle, avec des supraconducteurs. Il faut les réaliser suffisamment bien pour que les circuits soient vraiment quantiques, tous identiques et avec les mêmes performances.

Et, en fait, quand on regarde l'histoire de la physique, on s'aperçoit qu'il y a des phénomènes qui sont démontrés avec des objets quantiques naturels. À partir du moment où on trouve que le phénomène est suffisamment intéressant, en particulier pour des applications, les ingénieurs arrivent progressivement à développer des systèmes artificiels qui permettent de reproduire le phénomène d'une façon beaucoup plus simple ou contrôlée. C'est pour cela je trouve que c'est intéressant de commencer par essayer l'ordinateur quantique avec des objets quantiques naturels, comme le fait Antoine Browaeys ici, à l'Institut d'optique, ou la start-up Quandela avec des photons.

The Conversation : On observe un fort engouement pour les technologies quantiques, dont certaines sont déjà opérationnelles, par exemple les gravimètres quantiques ou les simulateurs quantiques : quels sont les " avantages quantiques " déjà démontrés par les technologies opérationnelles aujourd'hui ?

A A : En ce qui concerne les gravimètres, c'est-à-dire les appareils qui mesurent la gravitation, la performance des gravimètres quantiques n'est pas meilleure que le meilleur des gravimètres classiques... sauf qu'au lieu de peser une tonne et d'avoir besoin de le déplacer avec une grue là où vous voulez aller mesurer la gravitation, c'est un appareil qui fait quelques dizaines de kilos et on peut le déplacer facilement sur les flancs d'un volcan pour savoir si le magma a des mouvements soudains, ce qui peut être un signe précurseur d'éruption. Dans ce cas-là, les performances ultimes des gravimètres quantiques ne sont pas meilleures que les performances ultimes des meilleurs systèmes classiques, mais la miniaturisation apporte des avantages certains.

The Conversation : Et pour l'ordinateur quantique ?

A A : En ce qui concerne l'ordinateur quantique, il faut d'abord définir le terme " avantage quantique ". Lorsqu'on vous annonce un avantage quantique obtenu en résolvant un problème que personne ne s'était jamais posé, on peut douter de l'intérêt. Par exemple, si vous faites passer un faisceau laser à travers un verre de lait, la figure lumineuse qui est derrière est une figure extrêmement compliquée à calculer. Ce calcul prendrait des années avec un ordinateur classique. Est-ce que je vais dire pour autant que mon verre de lait est un calculateur extraordinaire parce qu'il me donne le résultat d'un calcul infaisable ? Bien sûr que non. Certaines annonces d'avantage quantique relèvent d'une présentation analogue.

Par contre, ici à l'Institut d'optique, Antoine Browaeys a un simulateur quantique qui a répondu à un problème posé depuis longtemps : un problème de physiciens appelé le " problème d'Ising ". Il s'agit de trouver la configuration d'énergie minimale d'un ensemble de particules disposées régulièrement sur un réseau. Avec les ordinateurs classiques, on peut répondre au problème avec 80 particules maximum, je dirais. Tandis qu'avec son simulateur quantique, Antoine Browaeys a résolu le problème avec 300 particules. Il a incontestablement l'" avantage quantique ".

Il faut bien voir cependant que les physiciens qui étudiaient le problème avec des ordinateurs classiques ont été stimulés ! Ils ont alors développé des approximations qui permettent d'approximer le résultat à 300 particules, mais ils n'étaient pas certains que leurs approximations étaient correctes. Quant à Browaeys, il avait trouvé un résultat, mais il n'avait rien pour le vérifier. Quand ils ont constaté qu'ils ont trouvé la même chose, ils étaient tous contents. C'est une compétition saine -- c'est l'essence de la méthode scientifique, la comparaison de résultats obtenus par diverses méthodes.

J'en profite pour dire qu'il y a une deuxième acception du terme " avantage quantique ". Elle se situe sur le plan énergétique, c'est-à-dire qu'on a de bonnes raisons de penser qu'on pourra faire, avec des ordinateurs quantiques, des calculs accessibles aux ordinateurs classiques, mais en dépensant moins d'énergie. Dans le contexte actuel de crise de l'énergie, c'est un avantage quantique qui mérite d'être creusé. On sait ce qu'il faudrait faire en principe pour exploiter cet avantage énergétique : il faudrait augmenter la cadence des calculs : passer d'une opération toutes les secondes ou dixièmes de seconde à mille par seconde. C'est vraiment un problème technologique qui paraît surmontable.

En somme, l'avantage quantique, ça peut être soit la possibilité de faire des calculs inaccessibles aux ordinateurs classiques, soit la possibilité de répondre à des problèmes auxquels on pourrait répondre avec un ordinateur classique, mais en dépensant moins d'énergie.

The Conversation : Certaines technologies quantiques ne sont pas encore suffisamment matures pour être largement utilisables - par exemple l'ordinateur quantique. Pourtant, de grandes entreprises annoncent ces derniers mois des avancées notables : Google en décembre 2024 et Amazon Web Services en février 2025 sur les codes correcteurs d'erreurs, Microsoft en février aussi avec des qubits " topologiques ". Quel regard portez-vous sur cette arrivée des géants du numérique dans le domaine ?

A A : L'arrivée des géants du numérique, c'est tout simplement parce qu'ils ont énormément d'argent et qu'ils veulent ne pas rater une éventuelle révolution. Comme nous tous, ils ne savent pas si la révolution de l'ordinateur quantique aura lieu ou non. Mais si elle a lieu, ils veulent être dans la course.

En ce qui concerne les annonces, je veux être très clair en ce qui concerne celle de Microsoft au sujet des bits quantiques " topologiques ". Cette annonce est faite par un communiqué de presse des services de communication de Microsoft, et elle n'est vraiment pas étayée par l'article publié par les chercheurs de Microsoft dans Nature, qui est une revue scientifique avec évaluation par les pairs - c'est-à-dire des chercheurs qui savent de quoi il en retourne et qui ne laissent pas publier des affirmations non justifiées.

Le communiqué de presse prétend qu'ils ont observé les fameux " fermions de Majorana " - un candidat au poste de bit quantique " topologique ", c'est-à-dire dans le fameux sous-ensemble de l'espace des états qui serait protégé de la décohérence.

De leur côté, les chercheurs, dans l'article, disent qu'ils ont observé un phénomène qui pourrait - qui pourrait ! - être interprété, peut-être, par des fermions de Majorana. C'est extrêmement différent. De plus, le communiqué de presse évoque déjà le fait qu'ils vont avoir une puce dans laquelle il y aura un million de fermions de Majorana, alors qu'on n'est même pas sûr d'en avoir un seul. Je vous laisse apprécier !

The Conversation : Cette implication de la recherche privée risque-t-elle de déplacer l'engouement de la recherche publique vers d'autres sujets ? Quel regard portez-vous sur l'équilibre entre recherche publique et recherche privée ?

A A : Il y a des choses qui sont à la mode à un moment, puis qu'on oublie. Mais c'est normal, car il y a une forme de sélection naturelle des idées dans la recherche. Par exemple, en ce qui concerne les bits quantiques, cela fait quinze ans que la Commission européenne me demande sur quel type de bit quantique focaliser les efforts - on les a répertoriés tout à l'heure : photons, atomes, ions, circuits supraconducteurs, silicium... Je leur réponds, encore aujourd'hui, que je suis incapable de le leur dire. C'est le rôle de la puissance publique de financer le long terme.

Il faut laisser les chercheurs avancer et, à un moment donné, il y aura probablement une ou deux pistes qui se révéleront meilleures que les autres. Et bien sûr, on ralentira la recherche sur les autres. C'est ça, la sélection naturelle des idées.

The Conversation : Les acteurs privés ont d'ailleurs tous misé sur des candidats différents pour leurs bits quantiques...

A A : C'est vrai, mais une des caractéristiques du privé, c'est d'être très réactif. Donc le jour où ils réaliseront que leur choix de bit quantique n'est pas le bon, ils vont instantanément arrêter et passer à un choix qui s'est révélé meilleur. D'ailleurs, sur le plan de l'ingénierie, je dois dire que ce qui se fait dans le privé est tout à fait remarquable du point de vue de la réactivité. La recherche académique est meilleure pour laisser mûrir les idées, ce qui est une phase indispensable.

Il faut reconnaître que ces acteurs privés mettent beaucoup plus d'argent que le public, en revanche, ils n'ont pas le long terme devant eux. Or, il ne suffit pas de déverser des sommes énormes d'argent pour accélérer la recherche.

La recherche demande aussi une maturation des idées ; et ce n'est pas parce que vous avez dix fois plus d'argent que vous allez dix fois plus vite. Il y a à la fois des évolutions dans les idées et, parfois aussi, des évolutions technologiques inattendues. J'ai pu observer ces effets de maturation et de paliers lors de ma longue expérience d'évaluation des systèmes de recherche en France, en Allemagne et dans d'autres pays.

De ce point de vue, il est primordial que la recherche publique conserve des financements non fléchés, qu'on appelle " blancs ". Je pense qu'il n'est pas illégitime qu'un État qui met beaucoup d'argent dans la recherche signale que, sur tel et tel sujet, il aimerait que les gens travaillent et qu'il mette de l'argent là-dedans. Le point essentiel, c'est de laisser la place à d'authentiques sujets blancs, proposés par les chercheurs alors qu'ils ne figuraient dans aucun programme. C'est grâce à un projet non fléché que nous avons pu observer la localisation d'Anderson, par exemple. On ne peut pas tout prévoir sur le long terme.

Et puis il faut aussi que l'information circule pour que d'autres chercheurs s'emparent des avancées, et puissent les adopter. D'où l'importance des publications, qui sont l'occasion de partager ses résultats avec les autres chercheurs ; et d'où les réserves que l'on doit avoir sur la confidentialité, même s'il est clair que cette confidentialité est nécessaire dans certains domaines spécifiques.

Auteur: Aspect Alain

Info: https://theconversation.com/, mars 2025

[ niveaux vibratoires ] [ corrélé - décorrélé ] [ capitalisme ] [ consumérisme ] [ infra-monde ] [ nouveau paradigme ] [ génies ] [ approches différentes ] [ méthodes distinctes ]

 

Commentaires: 0

Ajouté à la BD par miguel