Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 139
Temps de recherche: 0.0633s

homme-machine

Enfin, même si on découvrait des phénomènes quantiques dans le cerveau, leur caractère strictement imprévisible ne permettrait pas d'expliquer notre conception du libre arbitre. Comme l'a bien montré le philosophe Daniel Dennett, l'aléatoire pur ne confère à nos cerveaux "aucune forme valable de liberté" ("any kind of freedom worth having"). Souhaitons-nous vraiment que nos corps soient secoués de mouvements aléatoires et incontrôlables engendrés au niveau subatomique, qui rapprocheraient nos décisions des convulsions et des tics des patients souffrants du syndrome de Gilles de La Tourette, la fameuse "Danse de Saint-Guy" ? Rien n'est plus éloigné de notre conception de la liberté. La maladie de Tourette ne rend pas libre, bien au contraire. Jamais un coup de dés n'engendrera d'esprit libre.
Lorsque nous parlons du "libre arbitre", nous pensons à une forme beaucoup plus intéressante de liberté. Notre croyance en un libre arbitre résulte d'une observation élémentaire : dans des circonstances normales, nous prenons nos décisions en toute indépendance, en nous laissant seulement guider par nos idées, nos croyances et notre expérience passée, et en contrôlant nos pulsions indésirables. Nous exerçons notre libre arbitre chaque fois que nous avons la possibilité d'examiner les choix qui s'offrent à nous, d'y réfléchir posément et d'opter pour celui qui nous parait le meilleur. Une part de hasard entre dans nos choix volontaires, mais elle n'en constitue pas un élément indispensable. La plupart du temps, nos actions volontaires n'ont rien d'aléatoire : elles résultent d'un examen attentif des options disponibles, suivi du choix délibéré de celle qui emporte notre préférence.
Cette conception du libre arbitre n'a nul besoin de la physique quantique - elle pourrait être simulée par un ordinateur standard. Elle exige simplement un espace de travail qui recueille les informations en provenance des sens et de la mémoire, en fasse la synthèse, évalue les conséquences de chaque option, y consacre autant de temps que nécessaire et utilise cette réflexion pour guider notre choix. Voilà ce que nous appelons une décision volontaire, délibérée, prise "en toute conscience". En bref, l'intuition du libre arbitre doit être décomposée.
Elle recouvre, d'une part, l'idée que nos décisions sont fondamentalement indéterminées, non contraintes par la physique (une idée fausse) ; et d'autre part, celle que nous les prenons en toute autonomie (une idée respectable). Nos états cérébraux sont nécessairement déterminés par des causes physiques, car rien de ce qui est matériel n'échappe aux lois de la nature. Mais cela n'exclut pas que nos décisions soient réellement libres, si l'on entend par là qu'elles s'appuient sur une délibération consciente, autonome, qui ne rencontre aucun obstacle et qui dispose du temps suffisant pour évaluer le pour et le contre avant de s'engager. Quand toutes ces conditions sont remplies, nous avons raison de dire que nous avons exercé notre libre arbitre et pris une décision volontaire - même si celle-ci est toujours, en dernière analyse, déterminée par nos gènes, notre histoire et les fonctions de valeurs qui sont inscrites dans nos circuits neuronaux. Les fluctuations de l'activité spontanée de ces réseaux rendent nos décisions imprévisibles, y compris à nos propres yeux. Cependant, ce caractère imprévisible ne devrait pas être retenu comme l'un des critères essentiels du libre arbitre, ni ne devrait être confondu avec l'indétermination fondamentale de la physique quantique. Ce qui compte pour qu'une décision soit libre, c'est l'autonomie de la délibération.
Une machine pourvue d'un libre arbitre n'est absolument pas une contradiction dans les termes, juste une définition de ce que nous sommes.

Auteur: Dehaene Stanislas

Info: Le code de la conscience

[ miroir ]

 

Commentaires: 0

futur

Au cours des siècles, selon les civilisations, la science, la religion et l'art se sont disputés la première place. En occident, longtemps, la religion a prédominé, entravant l'art et la science. Puis une époque est arrivée où la religion a décliné et c'est la science qui a pris le dessus. Maintenant, on peut dire que l'avenir appartient aux artistes, oui, de plus en plus tout le monde les aime, les applaudit, et c'est à travers les artistes, les musiciens, les poètes, les peintres, les sculpteurs que le ciel veut maintenant se manifester. Pour quelle raison? Pour l'homme rien n'est plus essentiel que l'art. Cela remonte à l'enfance de l'humanité. Et d'ailleurs quelles sont les premières manifestations de l'enfant? Il ne s'occupe ni de philosophie, ni de science, ni de morale, mais il est un artiste, il fait des mimiques, il crie. Les mauvaises langues disent qu'il pleure. Mais non, moi je rétablis les choses et je dis qu'il est en train de chanter, du moins il s'exerce, en attendant que son larynx et ses poumons soient au point! Et puis, regardez comment il danse dès qu'il parvient à peine à se tenir sur ses jambes, comment il dessine et peint avant même d'avoir appris à lire et à écrire. Donnez-lui des cubes ou du sable, et voilà des maisons et des châteaux, il devient architecte.
L'histoire de l'humanité a d'abord été marquée par l'art. La religion a pris ensuite la prépondérance, puis la science a réussi à s'imposer. Mais de nouveau, dans l'avenir, c'est l'art, je le répète, qui aura la prépondérance. Pourquoi l'art? Pourquoi pas la religion ou la science?
Depuis des siècles, la religion, ou plutôt les représentants de la religion, n'ont pas été vraiment à la hauteur de leur tâche, abandonnant les buts spirituels pour des buts matériels: l'autorité, le prestige, le pouvoir, l'argent. Au lieu d'enseigner aux hommes la vraie foi, ils leur ont enseigné le fanatisme; au lieu de les libérer ils n'ont trop souvent cherché qu'à les asservir et les exploiter. Jésus disait aux pharisiens et aux scribes: malheur à vous, scribes et pharisiens hypocrites, parce que vous fermez aux hommes le royaume des cieux; vous n'y entrez pas vous-mêmes et vous n'y laissez pas entrer ceux qui veulent entrer. Ce reproche est valable pour la majorité du clergé de toutes les religions. C'est pourquoi de plus en plus les humains quittent les églises et les temples. Quant à la science, elle s'oriente vers des recherches tellement poussées qu'elle est devenue une affaire de spécialistes. Même s'ils voient l’intérêt des découvertes scientifiques, la plupart des gens ne peuvent pas vraiment les comprendre et en faire leur centre d’intérêt. Seul l'art peut maintenant toucher véritablement les humains et les éveiller à la vraie vie. Cela n'est pas qu'on n'ait aucune critique à faire concernant les formes qu'il a prises aujourd'hui, au contraire, on peut même dire qu'il est loin de ce que les initiés entendent par le mot art, c'est-à-dire une activité qui réunit la véritable science et la véritable religion. Mais c'est l'art qui sauvera le monde, un art conscient, éclairé par les vérités de la sagesse et de l'amour. Dans l'avenir, c'est aux artistes que l'on donnera la première place, car le véritable artiste est à la fois un prêtre, un philosophe et un savant. Oui, car le rôle de l'artiste, c'est de réaliser dans le plan physique ce que l'intelligence conçoit comme vrai, ce que le cœur sent comme bon, afin que le monde supérieur, le monde de l'esprit, puisse descendre s'incarner dans la matière.

Auteur: Aïvanhov Omraam Mikhaël

Info: Création artistique et création spirituelle.

[ beaux-arts ] [ triade ] [ réflexion ] [ supputation ]

 

Commentaires: 0

émission tv

Dès le début, dès le générique de ce "Fort Boyard", on pressent que ça va être gênant de regarder ça jusqu’au bout. Quel est cette espèce de fortin saugrenu et laid dont se rapproche la caméra, posé en pleine mer, semblable à une grosse boucle de ceinturon à la dérive ? Qu’est-ce qui s’y déroule de si excitant, tous les vendredis soirs, sur Antenne 2 ? Cela faisait longtemps que je me le demandais, mais je passais toujours sur une autre chaîne avant d’avoir la réponse parce que je me doutais que celle-ci n’aurait pas plus d’intérêt que ma question. Cette fois je suis resté, et je me suis forcé à regarder, du début à la fin, sans sourciller, cette chose morbide entre toutes, et quasiment impensable, qu’on appelle un jeu télévisé.

Les jeux ne sont pas mon fort, en tout cas pas ceux-là. En limitant le jeu au jeu, on essaie toujours de vous convaincre que la vie n’est pas un Jeu. Voilà encore un truc de contrat social. Jeu est un autre !  Je me doute bien que celui-ci, "Les clés de Fort-Boyard", n’est pas le pire de tous : un rouage entre mille, dans la grande Machine à divertir d’après la fin d tout. Mais puisqu’il semble condenser quelques-uns des ingrédients essentiels qu’il faut pour me déplaire, allons-y.

L’architecture sombre et sauvage du décor, pour commencer ; les remous antipathiques de l’océan autour de ces murailles isnistres de cachot ; le romantisme aquatique à son plus haut degré de stupidité iodée autour du romantisme de l’enfermement ; l’animateur et l’animatrice, aussi, avec leur enthousiasme farineux et leurs promesses à faire dresser les cheveux sur la tête ("Vivre en une heure les aventures romanesques de toute une vie !") ; le barde à fausse barbe, également, malheureux figurant dans sa vigie de pacotille payé pour proposer des devinettes ineptes ("Bien pendue, elle est bavarde" : mais oui, c’est la langue, vous êtes formidable !) ; et puis tous ces périls sans danger, toutes ces bêtes féroces qui ne vous feront aucun mal, ces mygales qui ne piquent pas, ces tigres qui resteront à tourner comme des idiots démobilisés derrière leurs barreaux mais qu’on vous montre, comme une nostalgie de jungle, comme un souvenir de l’aventure perdue, comme un échantillon de risque, donc d’Histoire, terminés ; à la façon dont on vous esquisse également des nostalgies de sexe sous la forme d’un bref combat de femmes dans la boue (jolies visions de fesses, intéressants aperçus de cuisses et de cellulite) ; ou encore, au détour d’un labyrinthe, sous les apparences de cette fille nue dont vous n’apercevrez qu’un bout de sein furtivement dressé dans l’obscurité…

C’est ça, un jeu télé, à la fin du XXe siècle ? Oui ; mais j’oubliais l’essentiel, c’est-à-dire les candidats bien sûr. Quatre ou cinq garçons et filles en pleine santé, amis des sports et du grand air, quatre ou cinq asperges dynamiques sélectionnées parce qu’elles ont des têtes à avoir inventé le saut à l’élastique. Rien n’est plus déprimant à contempler, et rien en même temps n’est plus comique, que ces jeunes damnés du Tertiaire, démoniaques et souriants représentants des classes moyennes, incarnations de la nouvelle France profonde jaillie enfin en pleine lumière, sataniques employés de banque ou attachés commerciaux en train de cavaler à travers ce Luna Park de cauchemar, pour exécuter avec un esprit de sérieux épouvantable leur misérable parcours du combattant et récupérer je ne sais combien de clés qui leur feront gagner un monceau d’or. Rien n’est plus instructif non plus : il n’y a pas que la face cachée du spectacle qui soit captivante ; inutile d’espérer rien comprendre à celle-ci si on néglige de contempler, de temps en temps, sa face exhibée, la face montrée de la grande Terreur, l’effrayante et souriante et pathétique face visible de la Tyrannie, avec son armée carnavalesque de sergents recruteurs. Comme dit en ce moment un slogan pour un autre jeu : "On commence par gratter et on finit à la télé." C’est valable littéralement et dans tous les sens, dans un monde où Eros et Thanatos, désormais, portent des nez rouges.

Auteur: Muray Philippe

Info: Dans "Exorcismes spirituels, tome 2 : Mutins de Panurge", éd. Les Belles lettres, Paris, 1998, pages 414-415

[ critique ] [ caricature ] [ reflet du monde ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

magouille sémantique

Manipulation du savoir : L'intersection de la fenêtre d'Overton et de l'activisme académique

Les frontières de la science sont-elles devenues poreuses avec l'activisme académique ? C'est la question centrale que soulève Jean-François Le Drian dans son nouvel ouvrage, "Activismes" paru chez VA Éditions, et au cours de cette entrevue. Au fil de la discussion, l'auteur dévoile les dessous d'une manipulation subtile du savoir, où l'intersection de la fenêtre d'Overton et de l'activisme académique joue un rôle déterminant. Il décrit avec précision comment de simples idées peuvent être élevées au rang de concepts scientifiquement acceptables, affectant ainsi l’intégrité de la recherche authentique et de la méthodologie scientifique. Cet échange éclairant met en lumière le combat essentiel pour préserver l'authenticité et l'objectivité de la science face à une mer montante de pseudoscience et d'idéologies activiste.

(Q) Pour nos lecteurs qui ne sont pas familiers avec la fenêtre d'Overton, pourriez-vous brièvement expliquer ce concept et comment il peut être utilisé pour changer la perception du public sur certaines idées ?

(R) Pour expliquer ce concept, il est préférable de l’illustrer avec un exemple. Si je vous disais que les djinns existent, peuvent nous posséder, nous adresser des injonctions, vous seriez dans un premier temps tenter de ranger cette thèse dans la catégorie des superstitions et des lubies et vous auriez certainement raison.

Si un philosophe se met à distinguer entre la propriété des pensées et la paternité des pensées et décide d’étudier en employant un jargon académique la possibilité d’une paternité extérieure des pensées, l’impensable devient tout à coup pensable.

Justement, dans mon livre, j’explique comment un philosophe reconnu par ses pairs en arrive à affirmer que la psychologie est nécessairement culturelle et que par conséquent certaines théories psychologiques peuvent valablement affirmer la possibilité d’une paternité extérieure des pensées.

Ici on passe de l’impensable au pensable puis au possible. Il ne reste plus qu’à faire porter ces idées par les activistes de la folie pour les rendre acceptables, le stade suivant étant de loger ces représentations dans le registre du " souhaitable ".

Ainsi, un idéologue activiste doté d’un doctorat peut donc tout à fait, s’il s’y prend bien, faire entrer l’idée la plus absurde dans le registre de l’acceptable voire parfois même du non discuté.

(Q) Dans votre texte, vous mettez en lumière la manière dont certaines idées reçoivent un "sceau académique" sans une vérification empirique rigoureuse. Comment les institutions académiques, selon vous, ont-elles été transformées en vecteurs de diffusion d'idées influencées par l'activisme ?

(R) Selon moi, l’une des grandes erreurs de notre temps consiste à accorder trop d’importance à la sociologie de la connaissance au détriment de la philosophie des sciences. Au lieu de s’intéresser au contenu, la tendance consiste à s’attacher aux intentions présumées du créateur d’idées, de thèses, à son " habitat social ".

Il est malheureusement facile de construire des théories qui font rentrer tous les faits et qui par conséquents ne devraient pas être qualifiées de théories scientifique. C’est le cas de certaines théories dites " normatives " dont le degré de scientificité est généralement très faible.

Le simple usage d’un jargon spécialisé usité au sein d’une mouvance universitaire permettra à un universitaire militant d’obtenir une reconnaissance par ses pairs qui aux yeux du public vaudra reconnaissance du caractère scientifique d’une thèse qui en réalité ne possèdera le plus souvent qu’un caractère normatif.

(Q) Vous évoquez la saturation de l'espace académique avec des "hadiths scientifiques". Comment ce mécanisme fonctionne-t-il et quels sont ses effets sur la recherche authentique ?

(R) Les hadiths scientifiques sont des scripts normatifs sans degré de scientificité auxquels on attache une connotation scientifique le plus souvent parce que leurs inventeurs disposent d’un titre académique et que le hadith possède un vernis académique qui lui confère une apparence de scientificité.

(Q) Face à la montée d'un tel activisme, que recommanderiez-vous aux chercheurs pour préserver l'intégrité de leurs travaux et s'assurer qu'ils ne sont pas noyés dans un "océan de pseudoscience" pour reprendre vos termes ?

(R) La première chose est de bannir le raisonnement téléologique, celui qui consiste à décider à l’avance du résultat à atteindre et à ajuster son raisonnement à ses intentions. Un " vrai " chercheur devrait parfois pouvoir aboutir à des conclusions qui lui déplaisent et qui contredisent ses croyances préexistantes.

Il faut revenir à la méthode qui consiste à chercher continuellement à falsifier, à réfuter ses propres convictions. Aujourd’hui, même dans les milieux universitaires, on procède de manière inverse en produisant les rationalisations ou en sélectionnant les faits qui viendront soutenir une idéologie préexistante.

Le biais de confirmation est exactement le contraire de la méthode scientifique. Malheureusement, il affecte autant les départements de sociologie et de sciences politiques que le grand public.

Auteur: Internet

Info: https://www.journaldeleconomie.fr/, 17 Octobre 2023, par La Rédaction

[ instrumentalisation ] [ onomasiologique ] [ science molle ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

identité

Pour  J-P Winter, la vague de dysphorie de genre qui frappe les adolescents est une épidémie facilitée par l’effacement de l’autorité – parents, profs, médecins… Face à la parole sacralisée, il est interdit d’interdire. Mais si écouter un enfant est une chose, le croire en est une autre.

GM : - Les sciences sociales et après elles la politique se sont saisies de la question du genre à partir des années 1980-1990 comme s’il s’agissait d’une nouveauté radicale. Les tensions entre les rôles sociaux (le genre) et la biologie (le sexe) ne sont-elles pas aux origines de la psychanalyse ?

JPW : -. Bien sûr ! Et ce depuis Freud, le premier à avoir théorisé le fait que le sujet quel qu’il soit n’est pas nécessairement adapté à son anatomie. Il a réfléchi à la question sous l’angle de la bisexualité psychique en postulant qu’être d’anatomie homme ou femme ne signifie pas que, psychiquement, on se range mécaniquement du côté masculin ou du côté féminin. Il peut y avoir une distorsion entre les deux. C’est d’ailleurs très souvent le cas, et accepter que, selon la formule qu’il emprunte à Napoléon, "l’anatomie, c’est le destin" demande une maturation. On ne rejoint pas son "destin" d’un coup de baguette magique. La réalité reste le socle biologique. Quand la distorsion est spectaculaire, le sujet peut être amené à se fabriquer une réalité de substitution, et c’est là que les choses se compliquent.

- Comment ?

- Je pars de Freud ainsi que de travaux pionniers de Robert Stoller qui travaille sur les premiers cas de transsexualité (Sexa and Gender: On the Development of Masculinity and Femininity, et Sex and Gender: the Transsexual Experiment, tous deux publiés en 1968). C’est à lui que l’on doit la première théorie du genre, qui affirme que le sexe et la sexualité ne sont pas la même chose. Le sexe, ce sont les chromosomes XX ou XY. La sexualité, c’est le fait que vous êtes un homme pour une femme, un homme qui "sait" qu’il y a des femmes. Stoller dit qu’il y a un substrat biologique à la certitude de ne pas être né dans le bon corps et que dans certains cas très limités, c’est ce qui conduit à conduit à un malaise que l’on appelle dysphorie de genre.

- Y a-t-il un fondement biologique dans ces cas ?

Oui, mais c’est très rare. On ne peut pas penser la sexualité indépendamment du fait qu’il va falloir, dès les premiers mots, peut-être même dès la naissance, faire l’homme ou faire la femme. Je choisis mon expression à dessein. Il n’y a pas d’essentialité de l’homme ni d’essentialité de la femme. Les extrêmes essentialisent l’homme. Ainsi, si on est d’anatomie homme et qu’on se "sait" être une femme, on demandera à la chirurgie de faire en sorte de conformer l’anatomie à cette réalité-là qu’on "connaît". Mais la majorité des gens, pour l’instant en tout cas, sont poussés à "faire" l’homme ou la femme auquel la biologie les arraisonne, à faire semblant. Cela s’appelle la parade.

Pourriez-vous donner des exemples ?

- Chez les femmes, par exemple, c’est le maquillage, c’est la séduction, sachant qu’il y a toujours un coin de notre psychisme où nous savons que nous nous identifions à un discours convenu qui varie dans le temps et dans l’espace.

Les enfants, j’en ai connu beaucoup, dans leur premier âge, qui jouent avec cela, c’est-à-dire qu’ils cherchent. Un petit garçon, par exemple, peut dire "Moi, je suis une fille" et se déguiser en fille. Cela ne veut pas dire qu’il y croit, mais cela signifie qu’il essaie d’explorer un mode de jouissance qui n’est pas le sien. Mais cela dit aussi qu’il teste son entourage sur le mode du "est-ce que vous me croyez si je vous dis que je suis une fille ?". Et la réponse sera très importante.

- Quand vous dites "enfants", vous pensez aussi aux adolescents ?

Oui ! La période de l’adolescence, c’est le retour de ce qui a été mal assimilé dans l’enfance, qui se métabolise. L’adolescence est le temps d’un immense travail psychique, où on renoue avec les expériences du début de la vie. Dès lors que ces enfants sont identifiés à leur parole, le résultat sera que leur imagination – c’est vraiment, le cœur de la problématique –deviendra la norme du réel. C’est valable dans les histoires de transsexualité, mais aussi dans toutes les affaires de wokisme et dans les théories du complot de manière générale. Le seul fait que j’imagine quelque chose fait que ça devient réel. Je suis un garçon anatomiquement homme, j’imagine que je suis une fille, et la réalité devient cela, c’est mon réel. Et donc je vais demander à la chirurgie de faire advenir mon réel, ma conviction absolue, qui veut que si j’ai l’apparence d’un garçon, en fait je suis une fille. Ce réel-là, qui est mon imaginaire, l’emporte sur mon corps (...) 

Auteur: Winter Jean-Pierre

Info: Interview de Gil Mihaely sur Causeur le 28 mai 2022. "Transgenres. Il faudrait peut-être aussi écouter les gens qui reprochent à leurs parents de les avoir crus"

[ femmes-hommes ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

analyse holistique

Un type de raisonnement que l'AI ne peut remplacer

L'ingénieur en logiciel et philosophe William J. Littlefield II fait remarquer dans un essai récent qu'il existe trois types de raisonnement. Dont deux d'entre eux que nous avons probablement tous appris à l'école : le raisonnement déductif et inductif. Les ordinateurs peuvent très bien faire les deux.

Le raisonnement déductif : Les chiens sont des chiens. Tuffy est un chien. Tuffy est donc un chien.

Les premiers ordinateurs, dit Littlefield, utilisaient généralement le raisonnement déductif (qu'il considère comme un raisonnement "descendant"). Ce qui permet à de puissants ordinateurs de battre les humains à des jeux comme les échecs et le Go en calculant beaucoup plus de mouvements logiques à la fois qu'un humain ne peut le faire.

Le raisonnement inductif, en revanche, est un raisonnement "ascendant", qui va d'une série de faits pertinents à une conclusion, par exemple :

Un club a organisé 60 compétitions de natation, 20 dans chaque lieu ci-dessous :

Lorsque le Club organise des compétitions de natation à Sandy Point, nous obtenons en moyenne 80 % de votes d'approbation.

Lorsque le Club organise des compétitions de natation à Stony Point, nous obtenons en moyenne 60 % des suffrages.

Lorsque le Club organise des compétitions de natation à Rocky Point, nous obtenons une approbation moyenne de 40 %.

Conclusion : Les membres du club préfèrent les plages de sable fin aux autres types de plages.

Ici aussi l'avènement de nouvelles méthodes comme les réseaux neuronaux a permis à de puissants ordinateurs d'assembler une grande quantité d'information afin de permettre un tel raisonnement inductif (Big Data).

Cependant, le Flop IBM de Watson en médecine (supposée aider à soigner le cancer on vit l'AI incapable de discerner les infos pertinentes dans une grande masse de données) suggère que dans les situations où - contrairement aux échecs - il n'y a pas vraiment de "règles", les machines ont beaucoup de difficulté à décider quelles données choisir. Peut-être qu'un jour une encore plus grande masse de données résoudra ce problème. Nous verrons bien.

Mais, selon Littlefield, le troisième type de raisonnement, le raisonnement abductif, fonctionne un peu différemment :

"Contrairement à l'induction ou à la déduction, où nous commençons par des cas pour tirer des conclusions sur une règle, ou vice versa, avec l'abduction, nous générons une hypothèse pour expliquer la relation entre une situation et une règle. De façon plus concise, dans le raisonnement abductif, nous faisons une supposition éclairée." William J. Littlefield II, "La compétence humaine que l'IA ne peut remplacer"

Le raisonnement abductif, décrit à l'origine par un philosophe américain Charles Sanders Peirce (1839-1914), est parfois appelé "inférence vers la meilleure explication", comme dans l'exemple qui suit :

"Un matin, vous entrez dans la cuisine et trouvez une assiette et une tasse sur la table, avec de la chapelure et une noix de beurre dessus, le tout accompagné d'un pot de confiture, un paquet de sucre et un carton vide de lait. Vous en concluez que l'un de vos colocataires s'est levé la nuit pour se préparer une collation de minuit et qu'il était trop fatigué pour débarrasser la table. C'est ce qui, à votre avis, explique le mieux la scène à laquelle vous êtes confronté. Certes, il se peut que quelqu'un ait cambriolé la maison et ait pris le temps de manger un morceau pendant sur le tas, ou qu'un colocataire ait arrangé les choses sur la table sans prendre de collation de minuit, mais juste pour vous faire croire que quelqu'un a pris une collation de minuit. Mais ces hypothèses vous semblent présenter des explications beaucoup plus fantaisistes des données que celle à laquelle vous faites référence." Igor Douven, "Abduction" à l'Encyclopédie Stanford de Philosophie

Notez que la conclusion n'est pas une déduction stricte qu'il n'y a pas non plus suffisamment de preuves pour une induction. Nous choisissons simplement l'explication la plus simple qui tient compte de tous les faits, en gardant à l'esprit la possibilité que de nouvelles preuves nous obligent à reconsidérer notre opinion.

Pourquoi les ordinateurs ne peuvent-ils pas faire ça ? Littlefield dit qu'ils resteraient coincés dans une boucle sans fin :

Une part de ce qui rend l'enlèvement difficile, c'est que nous devons déduire certaines hypothèses probables à partir d'un ensemble vraiment infini d'explications....

"La raison pour laquelle c'est important, c'est que lorsque nous sommes confrontés à des problèmes complexes, une partie de la façon dont nous les résolvons consiste à bricoler. Nous jouons en essayant plusieurs approches, en gardant notre propre système de valeurs fluide pendant que nous cherchons des solutions potentielles. Plus précisément, nous générons des hypothèses. Où 'un ordinateur peut être coincé dans une boucle sans fin, itérant sur des explications infinies, nous utilisons nos systèmes de valeurs pour déduire rapidement quelles explications sont à la fois valables et probables. Peirce savait que le raisonnement abductif était au cœur de la façon dont nous nous attaquons à de nouveaux problèmes ; il pensait en particulier que c'était la façon dont les scientifiques découvrent les choses. Ils observent des phénomènes inattendus et génèrent des hypothèses qui expliquent pourquoi ils se produisent." William J. Littlefield II, "La compétence humaine que l'IA ne peut remplacer"

En d'autres termes, le raisonnement abductif n'est pas à proprement parler une forme de calcul, mais plutôt une supposition éclairée - une évaluation des probabilités fondée sur l'expérience. Il joue un rôle important dans la création d'hypothèses dans les sciences :

"Par exemple, un élève peut avoir remarqué que le pain semble se moisir plus rapidement dans la boîte à pain que dans le réfrigérateur. Le raisonnement abductif amène le jeune chercheur à supposer que la température détermine le taux de croissance des moisissures, comme l'hypothèse qui correspondrait le mieux aux données probantes, si elle est vraie.
Ce processus de raisonnement abductif est vrai qu'il s'agisse d'une expérience scolaire ou d'une thèse de troisième cycle sur l'astrophysique avancée. La pensée abductive permet aux chercheurs de maximiser leur temps et leurs ressources en se concentrant sur une ligne d'expérimentation réaliste.
L'enlèvement est considéré comme le point de départ du processus de recherche, donnant une explication rationnelle, permettant au raisonnement déductif de dicter le plan expérimental exact." Maryn Shuttleworth, "Abductive Reasining" Chez Explorable.com

Comme on peut le voir, le raisonnement abductif fait appel à une certaine créativité parce que l'hypothèse suggérée doit être développée comme une idée et non seulement additionnée à partir d'informations existantes. Et la créativité n'est pas quelque chose que les ordinateurs font vraiment.

C'est l'une des raisons invoquées par le philosophe Jay Richards dans The Human Advantage : L'avenir du travail américain à l'ère des machines intelligentes, comme quoi l'IA ne mettra pas la plupart des humains au chômage. Au contraire, elle changera la nature des emplois, généralement en récompensant la créativité, la flexibilité et une variété d'autres caractéristiques qui ne peuvent être calculées ou automatisées.

Auteur: Internet

Info: https://mindmatters.ai/2019/10/a-type-of-reasoning-ai-cant-replace/, 10 Oct. 2019

[ optimisme ] [ informatique ]

 
Commentaires: 3
Ajouté à la BD par miguel

nano-monde relatif

Une expérience quantique montre que la réalité objective n'existe pas

Les faits alternatifs se répandent comme un virus dans la société. Aujourd'hui, il semble qu'ils aient même infecté la science, du moins le domaine quantique. Ce qui peut sembler contre-intuitif. Après tout, la méthode scientifique est fondée sur les notions de fiabilité d'observation, de mesure et de répétabilité. Un fait, tel qu'établi par une mesure, devrait être objectif, de sorte que tous les observateurs puissent en convenir.

Mais dans un article récemment publié dans Science Advances, nous montrons que, dans le micro-monde des atomes et des particules régi par les règles étranges de la mécanique quantique, deux observateurs différents ont droit à leurs propres faits. En d'autres termes, selon nos  meilleures théories des éléments constitutifs de la nature elle-même, les faits peuvent en fait être subjectifs.

Les observateurs sont des acteurs puissants dans le monde quantique. Selon la théorie, les particules peuvent se trouver dans plusieurs endroits ou états à la fois - c'est ce qu'on appelle une superposition. Mais curieusement, ce n'est le cas que lorsqu'elles ne sont pas observées. Dès que vous observez un système quantique, il choisit un emplacement ou un état spécifique, ce qui rompt la superposition. Le fait que la nature se comporte de cette manière a été prouvé à de multiples reprises en laboratoire, par exemple dans la célèbre expérience de la double fente.

En 1961, le physicien Eugene Wigner a proposé une expérience de pensée provocante. Il s'est demandé ce qui se passerait si l'on appliquait la mécanique quantique à un observateur qui serait lui-même observé. Imaginez qu'un ami de Wigner lance une pièce de monnaie quantique - qui se trouve dans une superposition de pile ou face - dans un laboratoire fermé. Chaque fois que l'ami lance la pièce, il obtient un résultat précis. On peut dire que l'ami de Wigner établit un fait : le résultat du lancer de la pièce est définitivement pile ou face.

Wigner n'a pas accès à ce fait de l'extérieur et, conformément à la mécanique quantique, il doit décrire l'ami et la pièce comme étant dans une superposition de tous les résultats possibles de l'expérience. Tout ça parce qu'ils sont " imbriqués " - connectés de manière effrayante au point que si vous manipulez l'un, vous manipulez également l'autre. Wigner peut maintenant vérifier en principe cette superposition à l'aide d'une "expérience d'interférence", un type de mesure quantique qui permet de démêler la superposition d'un système entier, confirmant ainsi que deux objets sont intriqués.

Lorsque Wigner et son ami compareront leurs notes par la suite, l'ami insistera sur le fait qu'ils ont observé des résultats précis pour chaque lancer de pièce. Wigner, cependant, ne sera pas d'accord lorsqu'il observera l'ami et la pièce dans une superposition. 

Voilà l'énigme. La réalité perçue par l'ami ne peut être réconciliée avec la réalité extérieure. À l'origine, Wigner ne considérait pas qu'il s'agissait d'un paradoxe, il affirmait qu'il serait absurde de décrire un observateur conscient comme un objet quantique. Cependant, il s'est ensuite écarté de cette opinion. De plus et, selon les canons officiels de mécanique quantique, la description est parfaitement valide.

L'expérience

Le scénario demeura longtemps une expérience de pensée intéressante. Mais reflètait-t-il la réalité ? Sur le plan scientifique, peu de progrès ont été réalisés à ce sujet jusqu'à très récemment, lorsque Časlav Brukner, de l'université de Vienne, a montré que, sous certaines hypothèses, l'idée de Wigner peut être utilisée pour prouver formellement que les mesures en mécanique quantique sont subjectives aux observateurs.

Brukner a proposé un moyen de tester cette notion en traduisant le scénario de l'ami de Wigner dans un cadre établi pour la première fois par le physicien John Bell en 1964.

Brukner a ainsi conçu deux paires de Wigner et de ses amis, dans deux boîtes distinctes, effectuant des mesures sur un état partagé - à l'intérieur et à l'extérieur de leur boîte respective. Les résultats pouvant  être récapitulés pour être finalement utilisés pour évaluer une "inégalité de Bell". Si cette inégalité est violée, les observateurs pourraient avoir des faits alternatifs.

Pour la première fois, nous avons réalisé ce test de manière expérimentale à l'université Heriot-Watt d'Édimbourg sur un ordinateur quantique à petite échelle, composé de trois paires de photons intriqués. La première paire de photons représente les pièces de monnaie, et les deux autres sont utilisées pour effectuer le tirage au sort - en mesurant la polarisation des photons - à l'intérieur de leur boîte respective. À l'extérieur des deux boîtes, il reste deux photons de chaque côté qui peuvent également être mesurés.

Malgré l'utilisation d'une technologie quantique de pointe, il a fallu des semaines pour collecter suffisamment de données à partir de ces seuls six photons afin de générer suffisamment de statistiques. Mais finalement, nous avons réussi à montrer que la mécanique quantique peut effectivement être incompatible avec l'hypothèse de faits objectifs - nous avions violé l'inégalité.

La théorie, cependant, repose sur quelques hypothèses. Notamment que les résultats des mesures ne sont pas influencés par des signaux se déplaçant à une vitesse supérieure à celle de la lumière et que les observateurs sont libres de choisir les mesures à effectuer. Ce qui peut être le cas ou non.

Une autre question importante est de savoir si les photons uniques peuvent être considérés comme des observateurs. Dans la proposition de théorie de Brukner, les observateurs n'ont pas besoin d'être conscients, ils doivent simplement être capables d'établir des faits sous la forme d'un résultat de mesure. Un détecteur inanimé serait donc un observateur valable. Et la mécanique quantique classique ne nous donne aucune raison de croire qu'un détecteur, qui peut être conçu comme aussi petit que quelques atomes, ne devrait pas être décrit comme un objet quantique au même titre qu'un photon. Il est également possible que la mécanique quantique standard ne s'applique pas aux grandes échelles de longueur, mais tester cela reste un problème distinct.

Cette expérience montre donc que, au moins pour les modèles locaux de la mécanique quantique, nous devons repenser notre notion d'objectivité. Les faits dont nous faisons l'expérience dans notre monde macroscopique semblent ne pas être menacés, mais une question majeure se pose quant à la manière dont les interprétations existantes de la mécanique quantique peuvent tenir compte des faits subjectifs.

Certains physiciens considèrent que ces nouveaux développements renforcent les interprétations qui autorisent plus d'un résultat pour une observation, par exemple l'existence d'univers parallèles dans lesquels chaque résultat se produit. D'autres y voient une preuve irréfutable de l'existence de théories intrinsèquement dépendantes de l'observateur, comme le bayésianisme quantique, dans lequel les actions et les expériences d'un agent sont au cœur de la théorie. D'autres encore y voient un indice fort que la mécanique quantique s'effondrera peut-être au-delà de certaines échelles de complexité.

Il est clair que nous avons là de profondes questions philosophiques sur la nature fondamentale de la réalité.

Quelle que soit la réponse, un avenir intéressant nous attend.

Auteur: Internet

Info: https://www.livescience.com/objective-reality-not-exist-quantum-physicists.html. Massimiliano Proietti et Alessandro Fedrizzi, 19 janvier 2022

 

Commentaires: 0

Ajouté à la BD par miguel

mimétisme

La surexposition a déformé la science des neurones miroirs

Après une décennie passée à l’écart des projecteurs, les cellules cérébrales autrefois censées expliquer l’empathie, l’autisme et la théorie de l’esprit sont en train d’être affinées et redéfinies.

Au cours de l'été 1991, le neuroscientifique Vittorio Gallese étudiait la représentation du mouvement dans le cerveau lorsqu'il remarqua quelque chose d'étrange. Lui et son conseiller de recherche, Giacomo Rizzolatti, de l'Université de Parme, suivaient les neurones qui devenaient actifs lorsque les singes interagissaient avec certains objets. Comme les scientifiques l'avaient déjà observé, les mêmes neurones se déclenchaient lorsque les singes remarquaient les objets ou les ramassaient.

Mais ensuite, les neurones ont fait quelque chose auquel les chercheurs ne s'attendaient pas. Avant le début officiel de l'expérience, Gallese a saisi les objets pour les montrer à un singe. À ce moment-là, l’activité a augmenté dans les mêmes neurones qui s’étaient déclenchés lorsque le singe avait saisi les objets. C’était la première fois que quelqu’un observait des neurones coder des informations à la fois pour une action et pour un autre individu effectuant cette action.

Ces neurones firent penser à un miroir aux chercheurs : les actions observées par les singes se reflétaient dans leur cerveau à travers ces cellules motrices particulières. En 1992, Gallese et Rizzolatti ont décrit pour la première fois ces cellules dans la revue Experimental Brain Research , puis en 1996 les ont nommées " neurones miroirs " dans Brain.

Les chercheurs savaient qu’ils avaient trouvé quelque chose d’intéressant, mais rien n’aurait pu les préparer à la réaction du reste du monde. Dix ans après la découverte, l’idée d’un neurone miroir était devenue un des rare concept neuroscientifique capable de captiver l’imagination du public. De 2002 à 2009, des scientifiques de toutes disciplines se sont joints aux vulgarisateurs scientifiques pour faire sensation sur ces cellules, leur attribuant davantage de propriétés permettant d'expliquer des comportements humains aussi complexes que l'empathie, l'altruisme, l'apprentissage, l'imitation, l'autisme et la parole.

Puis, presque aussi rapidement que les neurones miroirs ont émergé les doutes scientifiques quant à leur pouvoir explicatif. En quelques années, ces cellules de célébrités ont été classées dans le tiroir des découvertes prometteuses pas à la hauteur des espérances.

Pourtant, les résultats expérimentaux originaux sont toujours valables. Les neurones du cortex prémoteur et des zones cérébrales associées reflètent des comportements. Même s'ils n'expliquent pas facilement de vastes catégories de l'expérience humaine, les neurones miroirs " sont vivants et actifs ", a déclaré Gallese.

Aujourd'hui, une nouvelle génération de neuroscientifiques sociaux relance les travaux pour étudier comment les neurones dotés de propriétés miroir dans tout le cerveau codent le comportement social.

L'ascension et la chute

Les neurones miroirs ont d'abord fasciné par le fait qu'ils n'étaient pas du tout à leur place. Dans une zone du cerveau dédiée à la planification motrice, on trouvait des cellules aux propriétés uniques qui réagissaient pendant la perception. En outre, les chercheurs de Parme ont interprété leurs résultats comme une preuve de ce que l'on appelle la "compréhension de l'action" dans le cerveau : Ils affirmaient que les singes pouvaient comprendre ce que faisait un autre individu et que cette intuition était résolue dans une seule cellule.

Le neurone miroir était donc un " moyen immédiatement accessible pour expliquer un mécanisme bien plus complexe ", a déclaré Luca Bonini, professeur de psychobiologie à l'Université de Parme qui n'a pas participé à l'étude originale. Galvanisés par cette interprétation, les chercheurs ont commencé à projeter leur " compréhension " sur un nombre illimité de cellules qui semblaient semblables à des miroirs.

Cette fanfare enthousiaste faussa l’étude des neurones miroirs et perturba la carrière des chercheurs.

Au début des années 2000, le spécialiste des sciences cognitives Gregory Hickok de l'Université de Californie à Irvine a découvert que les neurones des zones motrices du cerveau liées à la production de la parole devenaient actifs lorsque les participants écoutaient la parole. Bien que cette découverte ne soit pas choquante – " c’est exactement ainsi que fonctionne le système ", déclara Hickok – d’autres scientifiques ont commencé à visualiser ses résultats sous l'angle des neurones miroir. Il savait que cette théorie ne pouvait pas s'appliquer à son travail. D’autres encore ont suggéré que lorsque les auditeurs percevaient la parole, les neurones du cortex moteur " reflétaient " ce qu’ils entendaient.

(Photo : Gregory Hickok étudie les circuits neurologiques impliqués dans la parole. Ses doutes sur la théorie des neurones miroirs l'ont amené à devenir l'adversaire scientifique de Vittorio Gallese et lui ont valu un contrat pour le livre Le Mythe des neurones miroirs – " dont le titre n'était vraiment pas juste ", selon Gallese.)

Pour bien se positionner, Hickok commença par dire au début de ses exposés de recherche que son travail n'avait rien à voir avec les neurones miroirs – un choix qui le plaça par inadvertance au centre du débat. En 2009, le rédacteur en chef du Journal of Cognitive Neuroscience invita Hickok à rédiger une critique de cette théorie. Il utilisa la parole comme test pour réfuter l'affirmation grandiose selon laquelle les neurones miroirs du cortex moteur permettaient à un singe de comprendre les actions d'un autre. Si, selon Hickok, il existe un mécanisme neuronal unique qui code la production d’une action et la compréhension de cette action, alors les dommages causés à ce mécanisme devraient empêcher les deux de se produire. Hickok a rassemblé un dossier d'études montrant que les dommages causés aux zones de production de la parole ne perturbaient pas la compréhension de la parole. Les données, écrit-il, " démontrent sans équivoque que la théorie des neurones miroirs sur la perception de la parole est incorrecte, quelle que soit sa présentation ».

Critique qui conduisit à un livre puis en 2015, à une invitation à débattre publiquement avec Gallese au Centre pour l'esprit, le cerveau et la conscience de l'Université de New York. Partageant la scène pour la première fois, les deux scientifiques distingués échangèrent des points de vue concurrents avec quelques légères taquineries, suivies de sourires autour de quelques bières.

Si cette confrontation s'est déroulée à l'amiable, il n'en fut pas de même des réactions à l'engouement pour les neurones miroirs.  Aujourd’hui, Gallese reste surpris par " l’acrimonie " à laquelle il fut confronté au sein de la communauté scientifique. " Je ne pense pas que quiconque ait été scruté aussi profondément que nous ", dit-il.  Et l’effet sur l’étude de ces cellules cérébrales fut profond. Dans les années qui ont suivi le débat à New York, les neurones miroirs disparurent du discours scientifique. En 2013, au plus fort du battage médiatique, les scientifiques ont publié plus de 300 articles portant le titre " neurone miroir ". En 2020, ce nombre avait diminué de moitié, pour atteindre moins de 150.

Le neurone miroir, redéfini

Cet épisode est représentatif de la manière dont l'enthousiasme suscité par certaines idées peut transformer le cours de leurs recherches. Gallese a attribué le déclin des études sur les neurones miroirs à la peur collective et à l'autocensure. " Les chercheurs craignent que s'ils évoquent l'étiquette neurones miroirs, l'article pourrait être rejeté ", a-t-il déclaré.

En conséquence, les chercheurs ont adopté une terminologie différente – " réseau d’activation d’action ", par exemple – pour expliquer les mécanismes miroirs dans le cerveau. Le terme " neurone miroir " est également devenu obscur. Au début, sa définition était claire : c'était une cellule motrice qui tirait lors d'un mouvement et également lors de la perception d'un mouvement identique ou similaire. Cependant, à mesure que les chercheurs utilisaient ce terme pour expliquer les phénomènes sociaux, la définition devenait lourde au point de devenir une " théorie invérifiable ", a déclaré Hickok.

Aujourd’hui, après une période de réflexion, les neuroscientifiques sociaux extraient les cellules de la boue biologique. En regardant au-delà des zones motrices du cerveau, ils découvrent ce qui ressemble étrangement à des neurones miroirs. L'année dernière, une équipe de l'Université de Stanford a rapporté dans Cell la découverte de neurones qui reflètent l'agressivité chez la souris. Cette suite de cellules se déclenchait à la fois lorsqu’une souris se comportait de manière agressive et lorsqu’elle regardait les autres se battre. Parce que les cellules sont devenues actives dans les deux contextes, les chercheurs ont suggéré qu’elles seraient des neurones miroirs.

"C'était le premier exemple démontrant l'existence de neurones miroirs associés à un comportement social complexe", a déclaré Emily Wu, professeur adjoint de neurologie à l'Université de Californie à Los Angeles, qui n'a pas participé à la recherche.

Cette découverte s’ajoute à un nombre croissant de preuves selon lesquelles les neurones situés au-delà du cortex prémoteur ont des propriétés miroir lorsque deux animaux interagissent socialement. Ces mêmes cellules se déclenchent lors d’actions ou d’émotions  personnelles et en réponse au fait de voir d’autres vivre les mêmes expériences.

Techniquement, selon la définition originale, ces cellules ne sont pas des neurones miroirs, a déclaré Hickok : Les neurones miroirs sont des cellules motrices, pas des cellules sociales. Cependant, Wu ne se soucie pas des définitions. Plutôt que débattre de ce qui est ou non un neurone miroir, elle pense qu'il est plus important de cataloguer les propriétés fonctionnelles du miroir qui caractérisent les cellules, où qu'elles se trouvent dans le cerveau.

L’objectif serait de décrire l’étendue de ces neurones et comment, au niveau électrophysiologique, ils se comportent de manière unique. Ce faisant, ces scientifiques dissipent le nuage de battage médiatique autour de la vision de ces cellules telles qu’elles sont réellement.



 

Auteur: Internet

Info: https://www.quantamagazine.org/ - Meghan Willcoxon, 2 avril 2024

[ pulsions partagées ] [ actions symboles ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

strates biologiques

Les chemins aléatoires de l'évolution mènent à un même endroit

Une étude statistique massive suggère que le résultat final de l’évolution – la forme physique – est prévisible.

(Photo  : Différentes souches de levure cultivées dans des conditions identiques développent des mutations différentes, mais parviennent finalement à des limites évolutives similaires.)

Dans son laboratoire du quatrième étage de l'Université Harvard, Michael Desai a créé des centaines de mondes identiques afin d'observer l'évolution à l'œuvre. Chacun de ses environnements méticuleusement contrôlés abrite une souche distincte de levure de boulangerie. Toutes les 12 heures, les assistants robots de Desai arrachent la levure à la croissance la plus rapide de chaque monde – sélectionnant celle qui est la plus apte à vivre – et jettent le reste. Desai surveille ensuite les souches à mesure qu'elles évoluent au cours de 500 générations. Son expérience, que d'autres scientifiques considèrent comme d'une ampleur sans précédent, cherche à mieux comprendre une question qui préoccupe depuis longtemps les biologistes : si nous pouvions recommencer le monde, la vie évoluerait-elle de la même manière ?

De nombreux biologistes affirment que ce ne serait pas le cas et que des mutations fortuites au début du parcours évolutif d’une espèce influenceraient profondément son destin. "Si vous rejouez le déroulement du vivant, vous pourriez avoir une mutation initiale qui vous emmènera dans une direction totalement différente", a déclaré Desai, paraphrasant une idée avancée pour la première fois par le biologiste Stephen Jay Gould dans les années 1980.

Les cellules de levure de Desai remettent en question cette croyance. Selon les résultats publiés dans Science en juin, toutes les variétés de levures de Desai ont atteint à peu près le même point final d'évolution (tel que mesuré par leur capacité à se développer dans des conditions de laboratoire spécifiques), quel que soit le chemin génétique précis emprunté par chaque souche. C'est comme si 100 taxis de la ville de New York acceptaient d'emprunter des autoroutes distinctes dans une course vers l'océan Pacifique et que 50 heures plus tard, ils convergeaient tous vers la jetée de Santa Monica.

Les résultats suggèrent également un décalage entre l’évolution au niveau génétique et au niveau de l’organisme dans son ensemble. Les mutations génétiques se produisent pour la plupart de manière aléatoire, mais la somme de ces changements sans but crée d’une manière ou d’une autre un modèle prévisible. Cette distinction pourrait s’avérer précieuse, dans la mesure où de nombreuses recherches en génétique se sont concentrées sur l’impact des mutations dans des gènes individuels. Par exemple, les chercheurs se demandent souvent comment une seule mutation pourrait affecter la tolérance d’un microbe aux toxines ou le risque de maladie d’un humain. Mais si les découvertes de Desai s'avèrent valables pour d'autres organismes, elles pourraient suggérer qu'il est tout aussi important d'examiner comment un grand nombre de changements génétiques individuels fonctionnent de concert au fil du temps.

"En biologie évolutive, il existe une sorte de tension entre penser à chaque gène individuellement et la possibilité pour l'évolution de modifier l'organisme dans son ensemble", a déclaré Michael Travisano, biologiste à l'université du Minnesota. "Toute la biologie s'est concentrée sur l'importance des gènes individuels au cours des 30 dernières années, mais le grand message à retenir de cette étude est que ce n'est pas nécessairement important". 

La principale force de l’expérience de Desai réside dans sa taille sans précédent, qui a été qualifiée d’« audacieuse » par d’autres spécialistes du domaine. La conception de l'expérience est ancrée dans le parcours de son créateur ; Desai a suivi une formation de physicien et, depuis qu'il a lancé son laboratoire il y a quatre ans, il a appliqué une perspective statistique à la biologie. Il a imaginé des moyens d'utiliser des robots pour manipuler avec précision des centaines de lignées de levure afin de pouvoir mener des expériences évolutives à grande échelle de manière quantitative. Les scientifiques étudient depuis longtemps l’évolution génétique des microbes, mais jusqu’à récemment, il n’était possible d’examiner que quelques souches à la fois. L'équipe de Desai, en revanche, a analysé 640 lignées de levure qui avaient toutes évolué à partir d'une seule cellule parent. L'approche a permis à l'équipe d'analyser statistiquement l'évolution.

"C'est l'approche physicienne de l'évolution, réduisant tout aux conditions les plus simples possibles", a déclaré Joshua Plotkin, biologiste évolutionniste à l'Université de Pennsylvanie qui n'a pas participé à la recherche mais a travaillé avec l'un des auteurs. "Ce qui pourrait permettre de définir la part du hasard dans l'évolution, quelle est la part du point de départ et la part du bruit de mesure."

Le plan de Desai était de suivre les souches de levure à mesure qu'elles se développaient dans des conditions identiques, puis de comparer leurs niveaux de condition physique finaux, déterminés par la rapidité avec laquelle elles se développaient par rapport à leur souche ancestrale d'origine. L’équipe a utilisé des bras robotisés spécialement conçus pour transférer les colonies de levure vers une nouvelle maison toutes les 12 heures. Les colonies qui s’étaient le plus développées au cours de cette période passèrent au cycle suivant et le processus se répéta pendant 500 générations. Sergey Kryazhimskiy , chercheur postdoctoral dans le laboratoire de Desai, passait parfois la nuit dans le laboratoire, analysant l'aptitude de chacune des 640 souches à trois moments différents. Les chercheurs ont ensuite pu comparer la variation de la condition physique entre les souches et découvrir si les capacités initiales d'une souche affectaient sa position finale. Ils ont également séquencé les génomes de 104 souches pour déterminer si les mutations précoces modifiaient les performances finales.

Des études antérieures ont indiqué que de petits changements au début du parcours évolutif peuvent conduire à de grandes différences plus tard, une idée connue sous le nom de contingence historique. Des études d'évolution à long terme sur la bactérie E. coli, par exemple, ont montré que les microbes peuvent parfois évoluer pour manger un nouveau type d'aliment, mais que des changements aussi importants ne se produisent que lorsque certaines mutations habilitantes se produisent en premier. Ces mutations précoces n’ont pas d’effet important en elles-mêmes, mais elles jettent les bases nécessaires pour des mutations ultérieures qui en auront.

Mais en raison de la petite échelle de ces études, Desai ne savait pas clairement si ces cas constituaient l'exception ou la règle. "Obtenez-vous généralement de grandes différences dans le potentiel évolutif qui surviennent au cours du cours naturel de l'évolution, ou l'évolution est-elle en grande partie prévisible?" il répond "Pour répondre à cette question, nous avions besoin de la grande échelle de notre expérience."

Comme dans les études précédentes, Desai a constaté que les mutations précoces influencent l'évolution future, en façonnant le chemin que prend la levure. Mais dans cette expérience, ce chemin n'a pas eu d'incidence sur la destination finale. "Ce type particulier de contingence rend en fait l'évolution de la forme physique  plus prévisible, et pas moins prévisible", a déclaré M. Desai.

Desai a montré que, tout comme une seule visite à la salle de sport profite plus à un amateur flappi par la TV qu'à un athlète, les microbes qui commençent par croître lentement tirent bien plus parti des mutations bénéfiques que leurs homologues plus en forme qui démarrent sur les chapeaux de roue. " Si vous êtes à la traîne au début à cause de la malchance, vous aurez tendance à aller mieux dans le futur ", a déclaré Desai. Il compare ce phénomène au principe économique des rendements décroissants - après un certain point, chaque unité d'effort supplémentaire aide de moins en moins.

Les scientifiques ne savent pas pourquoi toutes les voies génétiques chez la levure semblent arriver au même point final, une question que Desai et d'autres acteurs du domaine trouvent particulièrement intrigante. La levure a développé des mutations dans de nombreux gènes différents, et les scientifiques n'ont trouvé aucun lien évident entre eux. On ne sait donc pas exactement comment ces gènes interagissent dans la cellule, voire pas du tout. "Il existe peut-être une autre couche du métabolisme que personne ne maîtrise", a déclaré Vaughn Cooper, biologiste à l'Université du New Hampshire qui n'a pas participé à l'étude.

Il n’est pas non plus clair si les résultats soigneusement contrôlés de Desai sont applicables à des organismes plus complexes ou au monde réel chaotique, où l’organisme et son environnement changent constamment. "Dans le monde réel, les organismes réussissent dans différentes choses, en divisant l'environnement", a déclaré Travisano. Il prédit que les populations situées au sein de ces niches écologiques seraient toujours soumises à des rendements décroissants, en particulier à mesure qu'elles s'adaptent. Mais cela reste une question ouverte, a-t-il ajouté.

Cependant, certains éléments suggèrent que les organismes complexes peuvent également évoluer rapidement pour se ressembler davantage. Une étude publiée en mai a analysé des groupes de drosophiles génétiquement distinctes alors qu'elles s'adaptaient à un nouvel environnement. Malgré des trajectoires évolutives différentes, les groupes ont développé des similitudes dans des attributs tels que la fécondité et la taille du corps après seulement 22 générations. " Ainsi beaucoup de gens pensent à un gène pour un trait, une façon déterministe de résoudre des problèmes par l'évolution ", a déclaré David Reznick, biologiste à l'Université de Californie à Riverside. " Cela montre que ce n'est pas vrai ; on peut évoluer pour être mieux adapté à l'environnement de nombreuses façons. "





 

Auteur: Internet

Info: Quanta Magazine, Emily Singer, September 11, 2014

[ bio-mathématiques ] [ individu-collectif ] [ équilibre grégaire ] [ compensation mutationnelle ]

 
Commentaires: 1
Ajouté à la BD par miguel

nanomonde verrouillé

Comment un tour de passe-passe mathématique a sauvé la physique des particules

La renormalisation est peut-être l'avancée la plus importante de la physique théorique depuis 50 ans. 

Dans les années 1940, certains physiciens avant-gardistes tombèrent sur une nouvelle couche de la réalité. Les particules n'existaient plus et les champs - entités expansives et ondulantes qui remplissent l'espace comme un océan - étaient dedans. Une ondulation dans un champ était un électron, une autre un photon, et leurs interactions semblaient expliquer tous les événements électromagnétiques.

Il n'y avait qu'un seul problème : la théorie était constituée d'espoirs et de prières. Ce n'est qu'en utilisant une technique appelée "renormalisation", qui consiste à occulter soigneusement des quantités infinies, que les chercheurs purent éviter les prédictions erronées. Le processus fonctionnait, mais même ceux qui développaient la théorie soupçonnaient qu'il s'agissait d'un château de cartes reposant sur un tour de passe-passe mathématique tortueux.

"C'est ce que j'appellerais un processus divertissant", écrira plus tard Richard Feynman. "Le fait de devoir recourir à de tels tours de passe-passe nous a empêchés de prouver que la théorie de l'électrodynamique quantique est mathématiquement cohérente.

La justification vint des décennies plus tard, d'une branche de la physique apparemment sans rapport. Les chercheurs qui étudiaient la magnétisation découvrirent que la renormalisation ne concernait aucunement les infinis. Elle évoquait plutôt la séparation de l'univers en domaines de tailles distinctes, point de vue qui guide aujourd'hui de nombreux domaines de la physique.

La renormalisation, écrit David Tong, théoricien à l'université de Cambridge, est "sans doute l'avancée la plus importante de ces 50 dernières années dans le domaine de la physique théorique".

L'histoire de deux charges

Selon certains critères, les théories des champs sont les théories les plus fructueuses de toute la science. La théorie de l'électrodynamique quantique (QED), qui constitue l'un des piliers du modèle standard de la physique des particules, a permis de faire des prédictions théoriques qui correspondent aux résultats expérimentaux avec une précision d'un sur un milliard.

Mais dans les années 1930 et 1940, l'avenir de la théorie était loin d'être assuré. L'approximation du comportement complexe des champs donnait souvent des réponses absurdes et infinies, ce qui amena certains théoriciens à penser que les théories des champs étaient peut-être une impasse.

Feynman et d'autres cherchèrent de toutes nouvelles perspectives - éventuellement même susceptibles de ramener les particules sur le devant de la scène - mais ils finirent par trouver un moyen de contourner l'obstacle. Ils constatèrent que les équations QED  permettaient d'obtenir des prédictions respectables, à condition qu'elles soient corrigées par la procédure impénétrable de renormalisation.

L'exercice est le suivant. Lorsqu'un calcul QED conduit à une somme infinie, il faut l'abréger. Mettez la partie qui tend vers l'infini dans un coefficient - un nombre fixe - placé devant la somme. Remplacez ce coefficient par une mesure finie provenant du laboratoire. Enfin, laissez la somme nouvellement apprivoisée retourner à l'infini.

Pour certains, cette méthode s'apparente à un jeu de dupes. "Ce ne sont tout simplement pas des mathématiques raisonnables", écrivit Paul Dirac, théoricien quantique novateur.

Le cœur du problème - germe de sa solution éventuelle - se trouve dans la manière dont les physiciens ont traité la charge de l'électron.

Dans ce schéma la charge électrique provient du coefficient - la valeur qui engloutit l'infini au cours du brassage mathématique. Pour les théoriciens qui s'interrogeaient sur la signification physique de la renormalisation, la théorie QED laissait entendre que l'électron avait deux charges : une charge théorique, qui était infinie, et la charge mesurée, qui ne l'était pas. Peut-être que le noyau de l'électron contenait une charge infinie. Mais dans la pratique, les effets de champ quantique (qu'on peut visualiser comme un nuage virtuel de particules positives) masquaient l'électron, de sorte que les expérimentateurs ne mesuraient qu'une charge nette modeste.

Deux physiciens, Murray Gell-Mann et Francis Low, concrétisèrent cette idée en 1954. Ils ont relié les deux charges des électrons à une charge "effective" qui varie en fonction de la distance. Plus on se rapproche (et plus on pénètre le manteau positif de l'électron), plus la charge est importante.

Leurs travaux furent les premiers à lier la renormalisation à l'idée d'échelle. Ils laissaient entendre que les physiciens quantiques avaient trouvé la bonne réponse à la mauvaise question. Plutôt que de se préoccuper des infinis, ils auraient dû s'attacher à relier le minuscule à l'énorme.

La renormalisation est "la version mathématique d'un microscope", a déclaré Astrid Eichhorn, physicienne à l'université du Danemark du Sud, qui utilise la renormalisation pour ses recherches en théorie de la gravité quantique. "Et inversement, vous pouvez commencer par le système microscopique et faire un zoom arrière. C'est une combinaison de microscope et de télescope".

La renormalisation capture la tendance de la nature à se subdiviser en mondes essentiellement indépendants.

Les aimants sauvent la mise

Un deuxième indice apparut dans le monde de la matière condensée, ici les physiciens s'interrogeaient sur la manière dont un modèle magnétique grossier parvenait à saisir les détails de certaines transformations. Le modèle d'Ising n'était guère plus qu'une grille de flèches atomiques qui ne pouvaient pointer que vers le haut ou vers le bas, mais il prédisait les comportements d'aimants réels avec une perfection improbable.

À basse température, la plupart des atomes s'alignent, ce qui magnétise le matériau. À haute température, ils deviennent désordonnés et le réseau se démagnétise. Mais à un point de transition critique, des îlots d'atomes alignés de toutes tailles coexistent. Il est essentiel de noter que la manière dont certaines quantités varient autour de ce "point critique" semble identique dans le modèle d'Ising, dans les aimants réels de différents matériaux et même dans des systèmes sans rapport, tels que la transition à haute pression où l'eau devient indiscernable de la vapeur d'eau. La découverte de ce phénomène, que les théoriciens ont appelé universalité, était aussi bizarre que de découvrir que les éléphants et les aigrettes se déplacent exactement à la même vitesse de pointe.

Les physiciens n'ont pas pour habitude de s'occuper d'objets de tailles différentes en même temps. Mais ce comportement universel autour des points critiques les obligea à tenir compte de toutes les échelles de longueur à la fois.

Leo Kadanoff, chercheur dans le domaine de la matière condensée, a compris comment procéder en 1966. Il a mis au point une technique de "spin par blocs", en décomposant une grille d'Ising trop complexe pour être abordée de front, en blocs modestes comportant quelques flèches par côté. Il calcula l'orientation moyenne d'un groupe de flèches et  remplaça tout le bloc par cette valeur. En répétant le processus, il lissa les détails fins du réseau, faisant un zoom arrière pour comprendre le comportement global du système.

Enfin, Ken Wilson -  ancien étudiant de Gell-Mann qui avait les pieds tant dans le monde de la physique des particules et de la matière condensée -  réunit les idées de Gell-Mann et de Low avec celles de Kadanoff. Son "groupe de renormalisation", qu'il décrivit pour la première fois en 1971, justifiait les calculs tortueux de la QED et a fourni une échelle permettant de gravir les échelons des systèmes universels. Ce travail a valu à Wilson un prix Nobel et a changé la physique pour toujours.

Selon Paul Fendley, théoricien de la matière condensée à l'université d'Oxford, la meilleure façon de conceptualiser le groupe de renormalisation de Wilson est de le considérer comme une "théorie des théories" reliant le microscopique au macroscopique.

Considérons la grille magnétique. Au niveau microscopique, il est facile d'écrire une équation reliant deux flèches voisines. Mais extrapoler cette simple formule à des trillions de particules est en fait impossible. Vous raisonnez à la mauvaise échelle.

Le groupe de renormalisation de Wilson décrit la transformation d'une théorie des éléments constitutifs en une théorie des structures. On commence avec une théorie de petits éléments, par exemple les atomes d'une boule de billard. On tourne la manivelle mathématique de Wilson et on obtient une théorie connexe décrivant des groupes de éléments, par exemple les molécules d'une boule de billard. En continuant de tourner la manivelle, on obtient des groupes de plus en plus grands - grappes de molécules de boules de billard, secteurs de boules de billard, et ainsi de suite. Finalement, vous voilà en mesure de calculer quelque chose d'intéressant, comme la trajectoire d'une boule de billard entière.

Telle est la magie du groupe de renormalisation : Il permet d'identifier les quantités à grande échelle qu'il est utile de mesurer et les détails microscopiques alambiqués qui peuvent être ignorés. Un surfeur s'intéresse à la hauteur des vagues, et non à la bousculade des molécules d'eau. De même, en physique subatomique, la renormalisation indique aux physiciens quand ils peuvent s'occuper d'un proton relativement simple plutôt que de son enchevêtrement de quarks intérieurs.

Le groupe de renormalisation de Wilson suggère également que les malheurs de Feynman et de ses contemporains venaient du fait qu'ils essayaient de comprendre l'électron d'infiniment près. "Nous ne nous attendons pas à ce que  ces théories soient valables jusqu'à des échelles [de distance] arbitrairement petites", a déclaré James Fraser, philosophe de la physique à l'université de Durham, au Royaume-Uni. Ajoutant : "La coupure absorbe notre ignorance de ce qui se passe aux niveaux inférieurs".

En d'autres termes, la QED et le modèle standard ne peuvent tout simplement pas dire quelle est la charge nue de l'électron à une distance de zéro nanomètre. Il s'agit de ce que les physiciens appellent des théories "effectives". Elles fonctionnent mieux sur des distances bien définies. L'un des principaux objectifs de la physique des hautes énergies étant de découvrir ce qui se passe exactement lorsque les particules deviennent encore plus proches.

Du grand au petit

Aujourd'hui, le "dippy process" de Feynman est devenu aussi omniprésent en physique que le calcul, et ses mécanismes révèlent les raisons de certains des plus grands succès de la discipline et de ses défis actuels. Avec la renormalisation, les câpres submicroscopiques compliqués ont tendance à disparaître. Ils sont peut-être réels, mais ils n'ont pas d'incidence sur le tableau d'ensemble. "La simplicité est une vertu", a déclaré M. Fendley. "Il y a un dieu là-dedans.

Ce fait mathématique illustre la tendance de la nature à se diviser en mondes essentiellement indépendants. Lorsque les ingénieurs conçoivent un gratte-ciel, ils ignorent les molécules individuelles de l'acier. Les chimistes analysent les liaisons moléculaires mais ignorent superbement les quarks et les gluons. La séparation des phénomènes par longueur, quantifiée par le groupe de renormalisation, a permis aux scientifiques de passer progressivement du grand au petit au cours des siècles, plutôt que briser toutes les échelles en même temps.

En même temps, l'hostilité de la renormalisation à l'égard des détails microscopiques va à l'encontre des efforts des physiciens modernes, avides de signes du domaine immédiatement inférieur. La séparation des échelles suggère qu'ils devront creuser en profondeur pour surmonter le penchant de la nature à dissimuler ses points les plus fins à des géants curieux comme nous.

"La renormalisation nous aide à simplifier le problème", explique Nathan Seiberg, physicien théoricien à l'Institute for Advanced Study de Princeton, dans le New Jersey. Mais "elle cache aussi ce qui se passe à très courte distance. On ne peut pas avoir le beurre et l'argent du beurre".


Auteur: Internet

Info: https://www.quantamagazine.org/. Charlie Wood, september 17, 2020

 

Commentaires: 0

Ajouté à la BD par miguel