Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 90
Temps de recherche: 0.063s

neuroscience

La conscience est un continuum et les scientifiques commencent à le mesurer

Une nouvelle technique aide les anesthésiologistes à suivre les changements dans les états de conscience

Que signifie être conscient ? Les gens réfléchissent et écrivent sur cette question depuis des millénaires. Pourtant, de nombreux aspects de l’esprit conscient restent un mystère, notamment la manière de le mesurer et de l’ évaluer. Qu'est-ce qu'une unité de conscience ? Existe-t-il différents niveaux de conscience ? Qu'arrive-t-il à la conscience pendant le sommeil, le coma et l'anesthésie générale ?

En tant qu’anesthésiologistes, nous réfléchissons souvent à ces questions. Nous promettons chaque jour aux patients qu’ils seront déconnectés du monde extérieur et de leurs pensées intérieures pendant l’opération, qu’ils ne conserveront aucun souvenir de l’expérience et qu’ils ne ressentiront aucune douleur. Ainsi, l’anesthésie générale a permis d’énormes progrès médicaux, depuis les réparations vasculaires microscopiques jusqu’aux greffes d’organes solides.

En plus de leur impact considérable sur les soins cliniques, les anesthésiques sont devenus de puissants outils scientifiques pour sonder les questions relatives à la conscience. Ils nous permettent d’induire des changements profonds et réversibles dans les états de conscience et d’étudier les réponses cérébrales lors de ces transitions.

Mais l’un des défis auxquels sont confrontés les anesthésiologistes est de mesurer la transition d’un état à un autre. En effet, bon nombre des approches existantes interrompent ou perturbent ce que nous essayons d'étudier. Essentiellement, l’évaluation du système affecte le système. Dans les études sur la conscience humaine, déterminer si une personne est consciente peut éveiller la personne étudiée, ce qui perturbe cette évaluation même. Pour relever ce défi, nous avons adapté une approche simple que nous appelons la méthode respirer-squeeze. Cela nous offre un moyen d'étudier les changements de l'état de conscience sans les interrompre.

Pour comprendre cette approche, il est utile de considérer quelques enseignements issus d’études sur la conscience qui ont utilisé des anesthésiques. Depuis des décennies, les chercheurs utilisent l’électroencéphalographie (EEG) pour observer l’activité électrique dans le cerveau de personnes recevant divers anesthésiques. Ils peuvent ensuite analyser cette activité avec des lectures EEG pour caractériser les modèles spécifiques à divers anesthésiques, appelés signatures anesthésiques.

Ces recherches révèlent que la plupart des médicaments anesthésiques ralentissent les rythmes cérébraux et augmentent leur taille, effets qui altèrent la communication entre les régions du cerveau. Par exemple, une étude récente a révélé que le propofol, le médicament le plus couramment utilisé pour l’anesthésie générale, perturbe la façon dont les régions du cerveau travaillent généralement ensemble pour traiter les informations sensorielles.

La conscience, comme le révèlent cette recherche et d’autres, n’est pas simplement un système binaire – activé ou désactivé, conscient ou inconscient – ​​mais plutôt quelque chose qui peut englober un continuum de différents états qui impliquent différents types de fonctionnement du cerveau. Par exemple, la conscience peut être connectée à l'environnement par le biais de nos sens et de notre comportement (conscience connectée), comme lors de la plupart de nos heures d'éveil, ou déconnectée de notre environnement (conscience déconnectée), comme lorsque nous rêvons pendant le sommeil.

L’inconscience – comme lorsqu’une personne est dans le coma – est plus difficile à étudier que la conscience connectée ou déconnectée, mais elle est généralement comprise comme un état d’oubli, vide d’expérience subjective ou de mémoire. Lorsque nous préparons un patient à une intervention chirurgicale, nous ajustons les niveaux d’anesthésie pour le rendre inconscient. Lorsqu’une personne est sous anesthésie générale, elle vit un coma temporaire et réversible pendant lequel elle ne ressent aucune douleur et après quoi elle n’aura plus aucun souvenir de son intervention.

Comprendre les transitions entre ces états est essentiel pour garantir des niveaux adéquats d’anesthésie générale et pour éclairer les questions de recherche en anesthésiologie, sur la conscience, le sommeil et le coma. Pour mieux cartographier la transition hors de la conscience connectée, nous avons récemment adapté une nouvelle approche pour surveiller la capacité d'une personne à générer des comportements volontaires sans incitation externe.

Généralement, les chercheurs suivent le début de la sédation en émettant des commandes verbales et en enregistrant les réponses comportementales. Par exemple, un scientifique peut périodiquement demander à quelqu’un d’ouvrir les yeux ou d’appuyer sur un bouton tout en recevant une perfusion anesthésique. Une fois que la personne cesse de répondre à cette commande, le scientifique suppose qu’elle a perdu la conscience connectée.

Cette technique s’est avérée utile pour contraster l’esprit conscient connecté et déconnecté. Mais lorsqu’il s’agit de comprendre la transition entre ces états, il y a plusieurs inconvénients. D’une part, le signal auditif n’est pas standardisé : l’inflexion et le volume de la voix, ce qui est dit et la fréquence à laquelle il est répété varient d’une étude à l’autre et même au sein d’une même étude. Un problème plus fondamental est que ces commandes peuvent éveiller les gens lorsqu’ils dérivent vers un état de déconnexion. Cette limitation signifie que les chercheurs doivent souvent attendre plusieurs minutes entre l’émission de commandes verbales et l’évaluation de la réponse, ce qui ajoute de l’incertitude quant au moment exact de la transition.

Dans notre étude, nous souhaitions une approche plus sensible et précise pour mesurer le début de la sédation sans risquer de perturber la transition. Nous nous sommes donc tournés vers une méthode décrite pour la première fois en 2014 par des chercheurs sur le sommeil du Massachusetts General Hospital et de l’Université Johns Hopkins. Dans ce travail, les enquêteurs ont demandé aux participants de serrer une balle à chaque fois qu'ils inspiraient. Les chercheurs ont suivi les pressions de chaque personne à l'aide d'un dynamomètre, un outil pour mesurer la force de préhension, et d'un capteur électromyographique, qui mesure la réponse musculaire. De cette façon, ils ont pu suivre avec précision le processus d’endormissement sans le perturber.

Pour notre étude, nous avons formé 14 volontaires en bonne santé à cette même tâche et présenté l’exercice de respiration en pressant comme une sorte de méditation de pleine conscience. Nous avons demandé aux participants de se concentrer sur leur respiration et de serrer un dynamomètre portatif chaque fois qu'ils inspirent. Après quelques minutes d'entraînement pour chaque personne, nous avons placé un cathéter intraveineux dans son bras pour administrer le sédatif et installé des moniteurs de signes vitaux et un équipé d'un capuchon EEG à 64 canaux pour enregistrer les ondes cérébrales tout au long de l'expérience.

Tous les participants ont synchronisé de manière fiable leurs pressions avec leur respiration pendant une période de référence initiale sans aucune sédation. Ils ont ensuite reçu une perfusion lente de dexmédétomidine, un sédatif couramment utilisé dans les salles d'opération et les unités de soins intensifs. À mesure que les concentrations cérébrales de dexmédétomidine augmentaient, les participants manquaient parfois une pression ou la prenaient au mauvais moment. Finalement, ils ont complètement arrêté de serrer.

Après quelques tests supplémentaires, nous avons arrêté la perfusion de dexmédétomidine, permettant ainsi aux participants de se remettre de la sédation. À notre grand étonnement, après une période de 20 à 30 minutes, tout le monde s'est souvenu de la tâche et a commencé à serrer spontanément en synchronisation avec sa respiration, sans aucune incitation. Cela nous a permis d'analyser à la fois le moment du début et du décalage de la sédation et de les comparer avec des études antérieures utilisant des commandes verbales pour évaluer la conscience.

La tâche de respiration et de compression est donc clairement une approche plus sensible pour mesurer la transition hors de la conscience connectée. Les participants ont arrêté d'effectuer la tâche à des concentrations de dexmédétomidine inférieures à celles auxquelles les personnes avaient cessé de répondre aux signaux auditifs dans d'autres études, soulignant les effets excitants des signaux externes sur le système. Ces résultats peuvent également indiquer que la conscience connectée peut être décomposée en comportements générés en interne (comme se rappeler de serrer une balle pendant que vous inspirez) et en comportements provoqués de l'extérieur (comme répondre à des commandes verbales) avec des points de transition distincts - une idée qui affine notre compréhension du continuum de la conscience.

Des recherches antérieures ont caractérisé l'apparence du cerveau dans des états de conscience connectée et déconnectée. Nous savions donc généralement à quoi s'attendre des enregistrements EEG. Mais nous étions moins sûrs de la façon dont notre technique pourrait s’aligner sur la transition cérébrale entre les états de conscience. Nous avons découvert un schéma très clair de changements dans le cerveau lorsque les gens arrêtent de serrer le ballon. De plus, nous n’avons vu aucune preuve que la tâche de compression perturbe l’état de conscience des personnes. L'EEG a également révélé un calendrier beaucoup plus précis pour ce changement que les travaux antérieurs, identifiant la transition dans une période environ 10 fois plus courte que ce qui était possible avec les signaux auditifs - une fenêtre de cinq à six secondes au lieu des 30 secondes. - à un intervalle de 120 secondes qui était courant dans les travaux antérieurs.

Comme avantage supplémentaire, nous avons été ravis de découvrir que de nombreux participants à notre étude appréciaient la tâche de respiration pressée comme moyen de se concentrer sur l'apaisement de leur esprit et de leur corps. Pour cette raison, nous avons également mis en œuvre la méthode dans la pratique clinique, c’est-à-dire en dehors d’études soigneusement contrôlées, lors de l’induction d’une anesthésie générale lors d’interventions chirurgicales majeures, qui peuvent autrement être une expérience stressante pour les patients.

Nous nous appuyons désormais sur ce travail en analysant nos données EEG, ainsi que les données d'imagerie par résonance magnétique structurelle (IRM) de nos volontaires. Ces connaissances sur le passage d’une conscience connectée à une conscience déconnectée peuvent aider à éclairer les soins cliniques des patients nécessitant une anesthésie pour une intervention chirurgicale, ainsi que de ceux qui souffrent de troubles du sommeil ou de coma. Ces études nous mettent également au défi de nous attaquer aux aspects plus philosophiques de la conscience et pourraient ainsi éclairer la question fondamentale de ce que signifie être conscient.

Auteur: Internet

Info: 26 janv, 2024    Christian Guay et Emery Brown

[ réveillé ] [ assoupi ] [ entendement ] [ présence ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

songes

Comment utiliser les rêves comme source d'inspiration créative

En s'inspirant de Thomas Edison et de Salvador Dalí, des chercheurs montrent que le modelage de l'imagerie des rêves peut susciter des idées créatives pour résoudre un problème spécifique.

(Photo de Salvador Dalí, avec ce texte) Dali avait des moyens originaux pour tirer une inspiration artistique de ses rêves, par exemple en mettant du parfum sur ses paupières ou en lâchant un objet pour se réveiller afin de se souvenir du contenu de ses rêves.)

Structure du benzène, Google et Frankenstein : Qu'ont en commun ces icônes de la science, de la technologie et de la littérature ? Elles  font partie des nombreuses découvertes et inventions qui auraient été inspirées par un rêve.

Pendant des décennies, les spécialistes du sommeil ont réfléchi au lien entre le rêve et l'inspiration créatrice. Ils ont longtemps pensé que ces idées provenaient de la phase de sommeil à mouvements oculaires rapides (REM), riche en rêves, et qui commence une heure ou plus après le début du cycle de sommeil. Mais de nouvelles données mettent en lumière une phase du sommeil beaucoup plus précoce - la zone crépusculaire qui sépare le sommeil de l'éveil - comme terrain fertile pour un élan créatif.

Dans une étude publiée le 15 mai dans Scientific Reports, une équipe de chercheurs montre que les personnes qui font de brèves siestes précédant l'endormissement obtiennent des résultats plus élevés quant aux critères de créativité que celles qui se lancent dans les mêmes tâches créatives après être restées éveillées. "L'importance de cet état de sommeil précoce pour la créativité a fait l'objet de spéculations, mais à ma connaissance, il s'agit de la meilleure étude démontrant sa valeur", déclare Jonathan Schooler, psychologue cognitif à l'université de Californie à Santa Barbara, qui n'a pas participé à l'étude.

De plus, les scientifiques ont découvert qu'ils pouvaient même exercer un certain contrôle sur le processus de rêve. Pour ce faire, ils ont orienté les rêves des participants vers un sujet spécifique. Plus les participants rêvaient de ce thème, plus ils étaient créatifs dans les tâches qui s'y rapportaient. "C'est à peu près ce qui nous permet de dire que rêver d'un sujet améliore la créativité ultérieure sur ce sujet", déclare Robert Stickgold, neuroscientifique cognitif et chercheur sur les rêves à la Harvard Medical School, qui faisait partie de l'équipe de l'étude.

L'expérience s'est appuyée sur un détecteur de sommeil en forme de gant appelé Dormio, mis au point par une équipe comprenant le co-chercheur principal Adam Haar Horowitz, chercheur postdoctoral au Massachusetts Institute of Technology. Dormio suit le début du sommeil en surveillant le tonus musculaire, la conductance de la peau et la fréquence cardiaque par l'intermédiaire de contacts sur le poignet et la main. Il communique avec une application qui émet des messages vocaux pour les rêves et enregistre les rapports de rêves.

Plus d'un penseur célèbre a tiré parti de la première phase de transition dans le sommeil, appelée stade 1 du sommeil non REM (sans mouvements oculaires rapides - N1), pour générer des idées créatives. Le peintre Salvador Dalí s'assoupissait délibérément en tenant un jeu de clés au-dessus d'une plaque de métal lorsqu'il réfléchissait à une idée de peinture. Au fur et à mesure qu'il s'assoupissait, les muscles de sa main se détendaient et il laissait tomber les clés qui heurtaient la plaque et le réveillaient, et il gardait l'image de son rêve. Thomas Edison aurait utilisé une technique similaire avec des billes de métal au lieu de clés pour obtenir des idées à intégrer dans ses inventions.

En 2021, une équipe de chercheurs de l'Institut du cerveau de Paris a rapporté certaines des premières preuves solides comme quoi Dalí et Edison étaient sur la bonne voie. Ils ont demandé à des personnes de faire de courtes siestes après les avoir exposées à des problèmes de mathématiques pour lesquels existait un raccourci caché. Parmi la grande majorité des personnes n'ayant pas vu le raccourci tout de suite, celles qui ont fait une sieste au stade N1 furent presque trois fois plus efficaces que celles n'ayant pas fait de sieste pour trouver la meilleure solution lorsqu'elles s'attaquaient à de nouveaux problèmes nécessitant de mettre en œuvre les mêmes connaissances mathématiques.

Stickgold, Haar Horowitz et leurs collègues ont voulu vérifier l'idée que le rêve était l'intermédiaire clé pour générer des éclats de perspicacité pendant le stade N1. Avant la publication de l'étude de 2021 sur les mathématiques, les chercheurs ont entrepris une étude contrôlée sur le rêve, dans laquelle ils ont incité des personnes à rêver de quelque chose de spécifique, comme un arbre.

Ils ont recruté 50 personnes pour une "étude sur la sieste" de l'après-midi - intitulé qui a vraisemblablement attiré les personnes qui aiment faire la sieste, bien que les chercheurs n'aient en fait demandé qu'à la moitié des participants de dormir dans le cadre de l'étude. Alors qu'ils portaient Dormio, les participants se sont endormis et l'application liée à Dormio leur a demandé de "penser à un arbre" ou de "penser à observer leurs pensées". Une à cinq minutes plus tard, l'application les réveillait en leur demandant de raconter leur rêve. Ce cycle s'est répété pendant 45 minutes, produisant en moyenne cinq récits de rêve par personne. Les personnes à qui l'on a demandé de rester éveillées ont laissé leur esprit vagabonder tout en recevant des instructions similaires. (Les chercheurs ont créé une version simplifiée de ce protocole d'incubation de rêves, accessible sur le web, que vous pouvez essayer chez vous).

Parmi les siesteurs qui ont reçu l'instruction sur les arbres, tous sauf un ont déclaré avoir rêvé d'arbres ou de parties d'arbres, alors qu'une seule personne parmi les siesteurs ayant reçu l'instruction plus générale l'a fait. L'un d'entre eux a décrit des "arbres se divisant en une infinité de morceaux" et s'est retrouvé dans le désert avec "un chaman assis sous l'arbre avec moi".

Les participants ont ensuite passé trois tests de créativité : Ils ont écrit une histoire créative dans laquelle figurait le mot "arbre". Ils ont énuméré "toutes les utilisations alternatives créatives" qu'ils pouvaient imaginer pour un arbre. Enfin, ils ont écrit le premier verbe qui leur venait à l'esprit pour chacun des 31 noms qui se rapportaient, plus ou moins, aux arbres. La créativité des réponses a été évaluée par des personnes qui ne savaient pas qui faisait la sieste ou qui avait reçu l'invitation à parler d'un arbre. Ces évaluations ont été combinées en un indice de créativité globale.

Les personnes ayant fait la sieste et qui avaient reçu l'indice de l'arbre ont obtenu les scores de créativité les plus élevés. "Il existe un lien objectif et expérimental entre l'incubation d'un rêve spécifique et la créativité post-sommeil autour de ce sujet", explique Haar Horowitz. "Cela valide des siècles de rapports anecdotiques de personnes qui se trouvent dans l'espace créatif.

En outre, plus une personne fait référence à des arbres, plus son score de créativité est élevé. "Plus vous rêvez d'un arbre, meilleures sont vos performances ultérieures", explique Kathleen Esfahany, étudiante de premier cycle au M.I.T., qui a codirigé l'étude avec Haar Horowitz. Les personnes semblent utiliser leurs rêves pour trouver des idées pour ces tâches, ajoute Kathleen Esfahany. Par exemple, une personne ayant rêvé que son corps était en bois a écrit une histoire sur un "roi chêne" qui portait une "couronne de feuilles" et dont le corps était tantôt "en bois", tantôt "en lumière".

L'ensemble de ces données indique que le rêve pendant N1 est un ingrédient actif de la créativité, comme l'ont supposé les chercheurs. "Il s'agit d'une étude pionnière", déclare Tore Nielsen, chercheur sur le rêve à l'Université de Montréal, qui n'a pas participé à l'étude. "Personne n'a démontré expérimentalement que le fait de rêver de quelque chose au début du sommeil est en fait lié à la créativité qui s'ensuit.

Nielsen et d'autres chercheurs estiment que l'étude est de petite envergure et qu'elle doit être reproduite. En outre, les résultats des tâches de créativité individuelles (par opposition au résultat composite) n'étaient pas significativement plus élevés chez les personnes qui ont fait une sieste guidée que chez celles qui n'ont pas été guidées, explique Penny Lewis, neuroscientifique à l'université de Cardiff au Pays de Galles, qui n'a pas participé à l'étude. "Je pense que leurs données montrent de manière convaincante que le fait de passer un certain temps dans le stade 1 du sommeil - c'est-à-dire le sommeil très léger qui se produit lorsque vous vous endormez - conduit à de meilleures performances dans ces trois tâches", explique Penny Lewis. Mais l'idée "que l'incitation conduit à ces effets devrait être traitée avec prudence parce que les statistiques ne sont pas très solides".

Une mesure objective et automatisée de la créativité, nommée "distance sémantique", indiquait qu'une brève sieste favorise l'inventivité, mais qu'il n'y a pas d'avantage supplémentaire lorsqu'on ajoutait une incitation à l'idée d'un arbre. Dans cette mesure, un ordinateur évalue la similarité des paires de mots produites dans chaque tâche de créativité, une similarité moindre étant liée à une plus grande créativité. Néanmoins, cette mesure laisse entrevoir un mécanisme de stimulation de la créativité au cours de la période N1. "Elle suggère que les gens sont capables de faire des associations plus éloignées et donc de trouver des ponts [conceptuels] qu'ils n'auraient pas pu découvrir autrement", explique M. Schooler.

L'étude ne portait que sur un seul motif, impliquant un arbre, de sorte que le système doit être testé sur d'autres sujets et éventuellement utilisé pour résoudre des problèmes réels. "C'est passionnant car, en principe, il s'agit d'une technologie que les gens pourraient utiliser eux-mêmes pour stimuler leur propre créativité", explique M. Schooler.

Il semble que les personnes désireuses de l'essayer ne manquent pas. "Des gens très différents sont venus frapper à la porte du laboratoire et ont demandé à faire des rêves", déclare Haar Horowitz.

Auteur: Internet

Info: https://www.scientificamerican.com/. Par Ingrid Wickelgren, 15 mai 2023

[ subconscient ]

 

Commentaires: 0

Ajouté à la BD par miguel

manipulation

Comment la plus grande technologie jamais développée s'est retournée contre nous.

La sélection naturelle est probablement le facteur qui a conduit l'elk irlandais à développer des bois surdimensionnés : ils étaient un élément bénéfique pour les mâles dans le jeu de la concurrence sexuelle. Cependant, le poids des bois était aussi un fardeau et il a été soutenu que c'était l'une des raisons, peut-être la principale, qui ont conduit à l'extinction de cette espèce, il y a environ 7 000 ans. Dans le cas des humains, on peut considérer le langage comme une caractéristique avantageuse de l'évolution, mais aussi comme quelque chose qui peut très bien révéler des conséquences négatives comme les bois des élans : le tsunami de mensonges auquel nous sommes constamment exposés.

Le langage est la véritable rupture de l'homme avec tout ce qui marche, rampe ou vole sur la terre. Aucune autre espèce (à l'exception des abeilles) n'a un outil qui peut être utilisé pour échanger des informations complexes entre les individus pour décrire, par exemple, où la nourriture peut être localisée et en quelles quantités. C'est le langage qui crée l'ultra-sociabilité de l'être humain. C'est le langage qui nous permet d'être ensemble, de planifier, de faire avancer les choses. Le langage peut être considéré comme une technologie de communication d'une puissance incroyable. Mais, comme pour toutes les technologies, elle a des conséquences inattendues.

Nous savons tous que le son que nous écrivons comme cerf est associé à un type spécifique d'animal. Avec ce symbole, vous pouvez créer des phrases telles que "J'ai vu un cerf près de la rivière, allons le chasser !" Mais, lorsque vous créez le symbole, à certains égards, vous créez le cerf - une créature fantomatique qui a quelques-unes des caractéristiques du cerf réel. Vous pouvez imaginer les cerfs, même s'il n'y a pas de véritable cerf autour de vous. Et ce symbole a une certaine puissance, peut-être que vous pourriez faire apparaître un cerf en prononçant son nom ou en dessinant son symbole sur le mur d'une grotte. C'est le principe que nous appelons magie sympathique, qui est peut-être la forme la plus ancienne et la plus fondamentale de la magie.

La création d'un cerf virtuel est une chose utile si la correspondance avec les vrais cerfs n'est pas perdue. 1. Le problème avec le langage est que ce n'est pas toujours le cas. Le cerf dont vous parlez peut ne pas exister, il peut être une illusion, une erreur ou, pire, une ruse pour piéger et tuer un de vos ennemis. Telle est l'origine du concept que nous appelons mensonge. Vous pouvez utiliser le langage non seulement pour collaborer avec vos voisins, mais aussi pour les tromper. Nous avons la preuve que nos ancêtres étaient confrontés à ce problème grâce aux premiers documents écrits que nous avons. Dans certaines anciennes tablettes sumériennes qui remontent au troisième millénaire avant notre ère 2, nous constatons que parmi les moi (les pouvoirs) que la Déesse Inanna avait volés au Dieu Enki, un de ces pouvoirs était de "prononcer des paroles de tromperie".

La question du mensonge est cruciale pour la survie humaine. Mentir rend la communication inutile puisque vous ne pouvez pas faire confiance aux personnes avec qui vous communiquez. Le cerf dont votre ami vous a dit qu'il était près de la rivière a disparu dans l'espace virtuel : vous ne pouvez pas dire s'il était réel ou non. La technologie prodigieuse du langage, développée pendant des centaines de milliers d'années, s'autodétruit comme conséquence involontaire du mensonge.

Toutes les technologies ont des conséquences inattendues, toutes se prêtent à certains types de solutions technologiques. Lutter contre les mensonges, cela nécessite d'évaluer les déclarations et de savoir qui les profère. La façon la plus simple de le faire est de baser l'évaluation sur la confiance. Nous connaissons tous l'histoire du garçon qui criait au loup, probablement aussi ancienne que l'homo sapiens. Dans ses différentes versions, il est dit que "Si vous mentez une fois, vous ne serez plus jamais cru". Et cela fonctionne; cela a bien marché pendant des centaines de milliers d'années et cela fonctionne encore. Pensez à votre cercle actuel de connaissances ; ces personnes que vous connaissez personnellement et qui vous connaissent depuis un certain temps. Vous leur faites confiance ; vous savez qu'ils ne vont pas vous mentir. C'est pour cette raison que vous les appelez amis, copains, potes, etc.

Mais cela ne fonctionne qu'aussi longtemps que vous maintenez vos relations au sein d'un petit groupe, et nous savons que la taille d'un cercle de relations étroites ne dépasse normalement pas plus d'environ 150 personnes (cela s'appelle le Nombre de Dumbar). Au sein de ce groupe, la réputation de chaque membre est connue par tout le monde et les menteurs sont facilement identifiés et frappés d'infamie (ou même expulsés). Le problème est venu quand les gens ont commencé à vivre dans les grandes villes. Ensuite, la plupart des gens ont dû interagir avec un plus grand nombre de personnes que ce nombre de Dumbar. Comment pouvons-nous dire si quelqu'un que vous n'avez jamais rencontré avant, est digne de confiance ou pas ? Dans cette situation, la seule défense contre les escrocs sont les indices indirects : la façon de se vêtir, la façon de parler, l'aspect physique ; mais aucun n'est aussi efficace que la confiance en quelqu'un que vous connaissez bien.

Mais ce ne fut rien en comparaison de ce qui est advenu avec l'âge des médias de masse. Vous pouvez lire des choses, entendre des choses, voir des choses dans les médias, mais cela ne vous donne vraiment aucune idée de l'endroit d'où ces communications sont venues. Vous ne pouvez pas non plus vérifier si la réalité virtuelle qui vous est renvoyée correspond au monde réel. Comme les médias ont élargi leur portée, les personnes qui les contrôlent ont découvert que le mensonge était facile et qu'ils n'avaient que très peu à perdre dans le mensonge. Côté réception, il n'y avait que des gens confus et incapables de vérifier les informations qu'ils recevaient. Les médias pouvaient facilement leur dire des mensonges qui restaient non découverts, au moins pendant un certain temps. Pensez à l'histoire des armes de destruction massive que l'Irak était censé avoir développées avant l'invasion de 2003. Dans ce cas, le mensonge est devenu évident après qu'aucune de ces armes n'est apparue en Irak après l'invasion, mais les menteurs avaient obtenu ce qu'ils voulaient et ils n'ont souffert d'aucune conséquence de leur action. C'était une époque où un adjoint de Donald Rumsfeld aurait dit : "Maintenant, nous pouvons créer notre propre réalité." Un triomphe de la magie sympathique, en effet.

Ensuite, l'Internet et les médias sociaux sont venus et ils ont démocratisé le mensonge. Maintenant tout le monde peut mentir à tout le monde, simplement en partageant un message. La vérité ne vient plus de la confiance dans les personnes qui la transmettent, mais du nombre de likes et de partages qu'un message a reçus. La vérité n'est peut-être pas aussi virale, mais elle semble être devenue exactement ce qu'en est la perception générale : si quelque chose est partagé par beaucoup de gens, alors cela doit être vrai. Donc, aujourd'hui, on nous ment en permanence, de manière cohérente, dans la joie et par tout le monde et à peu près sur tout. Des demi-vérités, de pures inventions, des distorsions de la réalité, des jeux de mots, des faux drapeaux, des statistiques faussées et plus encore, sont le lot des communications que nous croisons tous les jours. Le tsunami des mensonges qui nous tombent dessus est presque inimaginable et il a des conséquences, des conséquences désastreuses. Il nous rend incapables de faire confiance en quoi que se soit ou en quelqu'un. Nous perdons le contact avec la réalité, nous ne savons plus comment filtrer les messages innombrables que nous recevons. La confiance est un enjeu majeur dans la vie humaine ; ce n'est pas pour rien si le diable est nommé le père du mensonge (Jean 8:44). En effet, ce que l'anthropologue Roy Rappaport appelle les "mensonges diaboliques", sont les mensonges qui altèrent directement le tissu même de la réalité. Et si vous perdez le contact avec la réalité, vous êtes vous-même perdu. C'est peut-être ce qui se passe pour nous tous.

Certains d'entre nous trouvent qu'il est plus facile de simplement croire ce qui leur est dit par les gouvernements et les lobbies ; d'autres se placent dans une posture de méfiance généralisée de tout, tombant facilement victimes de mensonges opposés. Les mensonges diaboliques sont fractals, ils cachent encore plus de mensonges à l'intérieur, ils font partie de plus grands mensonges. Considérons un événement tel que les attaques du 9/11 à New York; il est maintenant caché derrière une telle couche de multiples mensonges de toutes sortes, que ce qui est arrivé ce jour-là est impossible à discerner, et peut-être destiné à rester tel quel pour toujours.

Donc, nous sommes revenus à la question du garçon qui criait au loup. Nous sommes le garçon, nous ne faisons plus confiance à personne, personne ne nous fait plus confiance, et le loup est là pour de vrai. Le loup prend la forme du réchauffement climatique, de l'épuisement des ressources, de l'effondrement des écosystèmes, et plus encore, mais la plupart d'entre nous sommes incapables de le reconnaître, même d'imaginer, qu'il puisse exister. Mais comment reprocher à ces gens qui ont été trompés tant de fois qu'ils ont décidé qu'ils ne croiraient plus du tout ce qui vient d'un canal même légèrement officiel ? C'est une catastrophe majeure et cela se produit en ce moment, devant nos yeux. Nous sommes devenus l'un de ces anciens cerfs détruits par le poids de ses cornes prodigieuses. Le langage nous joue un tour, pétaradant sur nous après nous avoir été si utile.

Nous croyons souvent que la technologie est toujours utile et que les nouvelles technologies nous sauveront des catastrophes qui nous affligent. Je commence à penser que ce dont nous avons besoin n'est pas davantage de technologie, mais moins. Et si la langue est une technologie, il me semble que nous en ayons trop d'elle, vraiment. Nous entendons trop de discours, trop de mots, trop de bruits. Peut-être avons-nous tous besoin d'un moment de silence. Peut-être que Lao Tzu a vu cela déjà depuis longtemps quand il a écrit dans le Tao Te King 3.

Trop de discours conduit inévitablement au silence.

Mieux vaut en venir rapidement au néant.

Auteur: Bardi Ugo

Info: 20 mars 2016, Source Cassandra Legacy

[ langage ] [ surmédiatisation ] [ infobésité ]

 

Commentaires: 0

exo-contact

Rice News : - Comment un professeur des religions comparées devient-il un expert des OVNIs ? 

JK : - Eh bien, personne n'est expert de ceci. Personne. C'est la première chose à savoir. Pour ma part, je réfléchis et écris sur le phénomène OVNI depuis 2004 environ. J'y ai d'abord été confronté parce que j'y étais obligé :  on le retrouvait tout simplement partout dans les sources historiques et ethnographiques avec lesquelles je travaillais pour une grande histoire des courants spirituels alternatifs dans la contre-culture californienne que j'écrivais à l'époque. Mes propres intérêts ont définitivement commencé là, à l'Institut Esalen.

Les gens supposaient alors couramment que le phénomène OVNI n'était pas sérieux ou qu'il s'agissait d'une sorte de truc "californien". Mais ce n'est tout simplement pas vrai, et ne l'a jamais été. Certaines des rencontres modernes les plus documentées et les plus spectaculaires ont eu lieu autour de sites militaires nucléaires et dans des cultures et des lieux comme le Brésil, la France, le Nouveau-Mexique - au cours de l'été 1945, à quelques kilomètres du site de la bombe atomique Trinity récemment irradiée et une semaine seulement après les bombardements d'Hiroshima et de Nagasaki - et la Nouvelle-Angleterre. Plus récemment on peut voir un grand mélange quant à l'appréciation de cette problématique : par exemple les militant des droits civiques, rien que ça. L'armée et les services de renseignement américains, son exploration spatiale aussi, le colonialisme occidental, les cosmologies indigènes américaines, avec une religion noire importante - la Nation of Islam. Les zones frontalières entre États-Unis et Mexique, l'Amérique latine, les relations américano-soviétiques et maintenant américano-russes, l'OTAN, les industries aérospatiales et aéronautiques, les courants ésotériques et mystiques occidentaux, la littérature de science-fiction et l'histoire des sciences ont tous été impliqués. Et ce n'est qu'un début.

Étudier convenablement le phénomène ovni, c'est en fait étudier à peu près tout. C'est aussi se heurter, durement, à la prise de conscience que l'ordre institutionnel ou universitaire de la connaissance dans lequel nous travaillons et pensons aujourd'hui - un ordre qui sépare effectivement les sciences des humanités - n'est tout simplement pas utile, et ne reflète certainement pas la réalité que nous essayons de comprendre. La difficile vérité est que le phénomène OVNI présente à la fois un aspect "matériel" objectif (pensez aux vidéos et photographies d'avions de chasse, aux prétendus méta-matériaux, aux méthodes de propulsion apparemment avancées et aux marques d'atterrissage) et un aspect "humain" subjectif (pensez aux rencontres rapprochées, aux observations visuelles multiples et coordonnées, aux états de conscience altérés, aux manifestations visionnaires, souvent de type baroque ou science-fictionnel, et aux enlèvements traumatiques ou transcendants vécus). Et les deux côtés - les dimensions matérielles et mentales - sont incroyablement importants pour avoir une idée de l'ensemble du tableau.

Bien sûr, on peut découper le phénomène ovni en deux catégories, "scientifique" et "humaniste", mais on ne le comprendra jamais en procédant ainsi. C'est, en fin de compte, la raison pour laquelle je pense que le sujet est si incroyablement important : il a le pouvoir particulier de défier, ou simplement d'effacer, notre ordre actuel de connaissance et ses divisions arbitraires. Quel que soit ce "ça", il ne se comporte tout simplement pas selon nos règles et hypothèses.  

RN : - Quelle est donc votre évaluation globale de ce nouveau rapport ?

JK : - Eh bien, j'ai un truc positif à dire, avec une forte critique. La chose positive est la suivante : La récente publication, ainsi que la fuite de la vidéo radar datant de décembre 2017 qui a été si efficacement rapportée dans le New York Times par mes collègues Leslie Kean, Ralph Blumenthal et Helene Cooper, a fondamentalement changé la conversation publique autour du sujet. Les chercheurs sérieux ne sont plus regardés avec autant de mépris, et les débunkers dogmatiques n'ont plus le dessus - si jamais ils l'ont vraiment eu.

En outre, et c'est tout aussi important, des gens de tous horizons qui se sont tus jusque-là, sortent maintenant de leur placard et prennent la parole. Pour ne prendre qu'un petit exemple, Miles O'Brien, le correspondant scientifique de PBS, a reconnu devant la caméra il y a quelques jours avoir été témoin d'un OVNI avec un comportement fondamentalement identique à celui des objets rapportés dans le document. Bref le point le plus fondamental de l'interview d'O'Brien est que la publication du gouvernement constitue une sorte de "tournant" dans la conversation publique. 

RN : - OK, quelle est la critique alors ?

JK : - La mauvaise nouvelle concerne la nature de cette "révélation " erratique et classifié de données - le refus du gouvernement de libérer la marchandise, pour ainsi dire, et de donner aux chercheurs sérieux un accès complet à toutes les données. Toutes les données. En procédant de la sorte, ils essaient essentiellement de contrôler le récit. Mon souci peut être résumé par cette sagesse populaire "si vous n'avez qu'un marteau, vous ne verrez que des clous". Dans ce contexte, vu que les données sont collectées par des professionnels de l'armée dont le but premier est de protéger l'État-nation contre les intrus ou les ennemis, le phénomène UAP ou OVNI est inévitablement présenté en termes de "menaces" potentielles. Je veux dire, mon Dieu, les vidéos que nous regardons ont été prises par les systèmes radar d'avions de chasse avancés conçus pour faire une seule chose : abattre un objet ennemi. Faut-il s'étonner que ces objets filmés soient présentés, littéralement et métaphoriquement, comme des menaces ?

RN : - Et sont-ils vraiment des menaces ? Nous n'en avons aucune idée.

JK : - Dans la culture populaire américaine, dans le cinéma et la science-fiction, ce que j'appelle la "mythologie de l'invasion de la guerre froide" a été dominante jusqu'à très récemment. Dans cette mythologie, l'OVNI est considéré comme une invasion "extraterrestre" qui doit être combattue ou à laquelle doivent résister les citoyens patriotes et craignant Dieu. Pensez, par exemple, au roman de 1898 de H.G. Wells "La guerre des mondes", une histoire d'invasion, soit dit en passant, inspirée par le colonialisme britannique. Ou, du côté américain, "Independence Day" en 1996. Ce n'est que récemment que les écrivains et les cinéastes ont commencé à s'éloigner de cette mythologie de l'invasion de la guerre froide pour s'orienter vers quelque chose de beaucoup plus positif, et franchement plus fidèle à ce que nous voyons réellement dans les cas de rencontre et de contact, si nous les étudions vraiment au lieu de simplement supposer des choses à leur sujet. Comme le récent film d'un réalisateur canadien, assez significatif en ce sens - "Arrival" sorti en 2016. 

Ce film frise la profondeur, car il tourne avec amour et contemplation autour de la transformation paranormale de son personnage central, une linguiste humaniste douée, le Dr Louise Banks. En effet, dans les faits historiques, les témoins humains sont souvent radicalement transformés par leurs rencontres, souvent de manière extrêmement positive, mais aussi difficile.

Ces rencontres, par exemple, peuvent être de nature profondément spirituelle, et je ne veux pas dire "bonnes" ou "agréables". Les gens éprouvent de la crainte, de la peur, de l'étrangeté et une terreur absolue ; le psychiatre de Harvard John Mack a appelé cela à juste titre "choc ontologique". Ils font l'expérience, soit pendant l'événement lui-même, soit plus tard, de nouvelles capacités étonnantes - pensez à la télépathie et, oui, à la précognition. Et ils adoptent de nouvelles visions du monde, beaucoup plus cosmiques.

Ainsi, dans le film, le Dr Louise Banks développe la capacité de précognition : Elle se "souvient" de la mort précoce et tragique de sa fille, pas encore née, alors qu'elle apprend progressivement que le temps, comme la grammaire de la langue extraterrestre qu'elle déchiffre, est circulaire et non linéaire. Cette idée de l'espace-temps est d'ailleurs bien connue des humanistes, de la philosophie grecque antique à Nietzsche.

Ce où je veux en venir ? Que nous devrions aborder le phénomène OVNI beaucoup plus comme "Arrival" et beaucoup moins comme "La Guerre des Mondes". Mais nous n'y arrivons pas. Au lieu de cela, nous parlons encore et encore de "menaces" potentielles et promulguons des mesures de sécurité et de secret sans fin. Et ensuite nous nous demandons pourquoi personne ne comprend cela ? En conséquence de ces actions, les témoins humains, leurs observations, leurs transformations et leurs traumatismes sont ignorés avec arrogance et dédaignés comme étant "anecdotiques" et donc indignes d'être étudiés.

J'avoue que je méprise l'aspect narquois de ce mot - anecdotique - et la façon dont il empêche une enquête complète. Toute expérience humaine, après tout, est techniquement "anecdotique". En ce sens, je suis moi aussi une "anecdote". Vous aussi. Nous le sommes tous. Et pourtant, il n'y a pas de science ou de mathématiques, pas de littérature, de langue, d'art ou de religion, et certainement pas d'OVNI, sans ce sujet humain, sans ce témoin anecdotique, ce penseur ou ce voyant. Alors pourquoi ne parlons-nous pas des expériences de ces témoins humains et de la façon dont ce phénomène semble déclencher ou catalyser l'imagination humaine de manière fantastique ? Pourquoi ne voyons-nous pas avec empathie ces drames, soi-disant imaginaires, comme des signes significatifs au lieu de les ignorer avec arrogance comme de l'écume neurologique ? Pourquoi ne parlons-nous pas de ce qu'il advient des pilotes terrifiés, des professionnels de l'armée désorientés, ou des citoyens confus qui voient ces choses, parfois de très près et de manière très personnelle ? Cela ne fait-il pas également partie du phénomène OVNI ? Pourquoi détournons-nous le regard ? Et de quoi ?

RN : - Ce serait le sujet d'une nouvelle conversation. Comment voulez-vous conclure ?

JK : On a jamais fini avec ça. J'aimerais conclure en mettant l'accent sur le fait que la pièce de technologie la plus sophistiquée sur terre pour détecter des présences non humaines ou surhumaines n'est pas un ordinateur quantique ou un système de radar militaire avancé. C'est le corps, le cerveau et l'être humain évolué. Je voudrais également suggérer que l'humain détecte d'étranges présences humanoïdes dans le ciel et l'environnement non pas depuis quelques années ou quelques décennies, mais depuis des millénaires. Tout ce que nous avons à faire est d'ouvrir nos yeux et regarder. Il suffit de ranger notre marteau et de regarder attentivement l'histoire, nos littératures et, surtout, nos religions.

Ainsi au sein de cette nouvelle grande toile humaniste et historique, ce que nous rencontrons dans le ciel et voyons du sol aujourd'hui, pourra prendre des significations fondamentalement nouvelles, et d'autres futurs potentiels. Je ne prétends pas savoir ce que cela impliquera - et ne crois certainement pas non plus aux mythologies régnantes, qu'elles soient politiques, séculaires ou religieuses - mais je parie qu'elles auront très peu à voir avec l'évaluation de ces "menaces". C'est la vieille mythologie de la guerre froide qu'il est temps de dépasser, et bien au-delà.

RN : Vous parlez de l'absence de toute limite.

JK : Oui. Il n'y en a aucune.

Auteur: Kripal Jeffrey

Info: Entretien avec Katharine Shilcut sur " how to think about the UFO phenomenon" http://news.rice.edu/ - June 30, 2021

[ US paranoïa ] [ rencontre du 3e type ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Comment l'IA comprend des trucs que personne ne lui lui a appris

Les chercheurs peinent à comprendre comment les modèles d'Intelligence artificielle, formés pour perroquetter les textes sur Internet, peuvent effectuer des tâches avancées comme coder, jouer à des jeux ou essayer de rompre un mariage.

Personne ne sait encore comment ChatGPT et ses cousins ​​de l'intelligence artificielle vont transformer le monde, en partie parce que personne ne sait vraiment ce qui se passe à l'intérieur. Certaines des capacités de ces systèmes vont bien au-delà de ce pour quoi ils ont été formés, et même leurs inventeurs ne savent pas pourquoi. Un nombre croissant de tests suggèrent que ces systèmes d'IA développent des modèles internes du monde réel, tout comme notre propre cerveau le fait, bien que la technique des machines soit différente.

"Tout ce que nous voulons faire avec ces systèmes pour les rendre meilleurs ou plus sûrs ou quelque chose comme ça me semble une chose ridicule à demander  si nous ne comprenons pas comment ils fonctionnent", déclare Ellie Pavlick de l'Université Brown,  un des chercheurs travaillant à combler ce vide explicatif.

À un certain niveau, elle et ses collègues comprennent parfaitement le GPT (abréviation de generative pretrained transformer) et d'autres grands modèles de langage, ou LLM. Des modèles qui reposent sur un système d'apprentissage automatique appelé réseau de neurones. De tels réseaux ont une structure vaguement calquée sur les neurones connectés du cerveau humain. Le code de ces programmes est relativement simple et ne remplit que quelques pages. Il met en place un algorithme d'autocorrection, qui choisit le mot le plus susceptible de compléter un passage sur la base d'une analyse statistique laborieuse de centaines de gigaoctets de texte Internet. D'autres algorithmes auto-apprenants supplémentaire garantissant que le système présente ses résultats sous forme de dialogue. En ce sens, il ne fait que régurgiter ce qu'il a appris, c'est un "perroquet stochastique", selon les mots d'Emily Bender, linguiste à l'Université de Washington. Mais les LLM ont également réussi à réussir l'examen pour devenir avocat, à expliquer le boson de Higgs en pentamètre iambique (forme de poésie contrainte) ou à tenter de rompre le mariage d'un utilisateurs. Peu de gens s'attendaient à ce qu'un algorithme d'autocorrection assez simple acquière des capacités aussi larges.

Le fait que GPT et d'autres systèmes d'IA effectuent des tâches pour lesquelles ils n'ont pas été formés, leur donnant des "capacités émergentes", a surpris même les chercheurs qui étaient généralement sceptiques quant au battage médiatique sur les LLM. "Je ne sais pas comment ils le font ou s'ils pourraient le faire plus généralement comme le font les humains, mais tout ça mes au défi mes pensées sur le sujet", déclare Melanie Mitchell, chercheuse en IA à l'Institut Santa Fe.

"C'est certainement bien plus qu'un perroquet stochastique, qui auto-construit sans aucun doute une certaine représentation du monde, bien que je ne pense pas que ce soit  vraiment de la façon dont les humains construisent un modèle de monde interne", déclare Yoshua Bengio, chercheur en intelligence artificielle à l'université de Montréal.

Lors d'une conférence à l'Université de New York en mars, le philosophe Raphaël Millière de l'Université de Columbia a offert un autre exemple à couper le souffle de ce que les LLM peuvent faire. Les modèles avaient déjà démontré leur capacité à écrire du code informatique, ce qui est impressionnant mais pas trop surprenant car il y a tellement de code à imiter sur Internet. Millière est allé plus loin en montrant que le GPT peut aussi réaliser du code. Le philosophe a tapé un programme pour calculer le 83e nombre de la suite de Fibonacci. "Il s'agit d'un raisonnement en plusieurs étapes d'un très haut niveau", explique-t-il. Et le robot a réussi. Cependant, lorsque Millière a demandé directement le 83e nombre de Fibonacci, GPT s'est trompé, ce qui suggère que le système ne se contentait pas de répéter ce qui se disait sur l'internet. Ce qui suggère que le système ne se contente pas de répéter ce qui se dit sur Internet, mais qu'il effectue ses propres calculs pour parvenir à la bonne réponse.

Bien qu'un LLM tourne sur un ordinateur, il n'en n'est pas un lui-même. Il lui manque des éléments de calcul essentiels, comme sa propre mémoire vive. Reconnaissant tacitement que GPT seul ne devrait pas être capable d'exécuter du code, son inventeur, la société technologique OpenAI, a depuis introduit un plug-in spécialisé -  outil que ChatGPT peut utiliser pour répondre à une requête - qui remédie à cela. Mais ce plug-in n'a pas été utilisé dans la démonstration de Millière. Au lieu de cela, ce dernier suppose plutôt que la machine a improvisé une mémoire en exploitant ses mécanismes d'interprétation des mots en fonction de leur contexte -  situation similaire à la façon dont la nature réaffecte des capacités existantes à de nouvelles fonctions.

Cette capacité impromptue démontre que les LLM développent une complexité interne qui va bien au-delà d'une analyse statistique superficielle. Les chercheurs constatent que ces systèmes semblent parvenir à une véritable compréhension de ce qu'ils ont appris. Dans une étude présentée la semaine dernière à la Conférence internationale sur les représentations de l'apprentissage (ICLR), le doctorant Kenneth Li de l'Université de Harvard et ses collègues chercheurs en intelligence artificielle, Aspen K. Hopkins du Massachusetts Institute of Technology, David Bau de la Northeastern University et Fernanda Viégas , Hanspeter Pfister et Martin Wattenberg, tous à Harvard, ont créé leur propre copie plus petite du réseau neuronal GPT afin de pouvoir étudier son fonctionnement interne. Ils l'ont entraîné sur des millions de matchs du jeu de société Othello en alimentant de longues séquences de mouvements sous forme de texte. Leur modèle est devenu un joueur presque parfait.

Pour étudier comment le réseau de neurones encodait les informations, ils ont adopté une technique que Bengio et Guillaume Alain, également de l'Université de Montréal, ont imaginée en 2016. Ils ont créé un réseau de "sondes" miniatures pour analyser le réseau principal couche par couche. Li compare cette approche aux méthodes des neurosciences. "C'est comme lorsque nous plaçons une sonde électrique dans le cerveau humain", dit-il. Dans le cas de l'IA, la sonde a montré que son "activité neuronale" correspondait à la représentation d'un plateau de jeu d'Othello, bien que sous une forme alambiquée. Pour confirmer ce résultat, les chercheurs ont inversé la sonde afin d'implanter des informations dans le réseau, par exemple en remplaçant l'un des marqueurs noirs du jeu par un marqueur blanc. "En fait, nous piratons le cerveau de ces modèles de langage", explique Li. Le réseau a ajusté ses mouvements en conséquence. Les chercheurs ont conclu qu'il jouait à Othello à peu près comme un humain : en gardant un plateau de jeu dans son "esprit" et en utilisant ce modèle pour évaluer les mouvements. Li pense que le système apprend cette compétence parce qu'il s'agit de la description la plus simple et efficace de ses données pour l'apprentissage. "Si l'on vous donne un grand nombre de scripts de jeu, essayer de comprendre la règle qui les sous-tend est le meilleur moyen de les comprimer", ajoute-t-il.

Cette capacité à déduire la structure du monde extérieur ne se limite pas à de simples mouvements de jeu ; il apparaît également dans le dialogue. Belinda Li (aucun lien avec Kenneth Li), Maxwell Nye et Jacob Andreas, tous au MIT, ont étudié des réseaux qui jouaient à un jeu d'aventure textuel. Ils ont introduit des phrases telles que "La clé est dans le coeur du trésor", suivies de "Tu prends la clé". À l'aide d'une sonde, ils ont constaté que les réseaux encodaient en eux-mêmes des variables correspondant à "coeur" et "Tu", chacune avec la propriété de posséder ou non une clé, et mettaient à jour ces variables phrase par phrase. Le système n'a aucun moyen indépendant de savoir ce qu'est une boîte ou une clé, mais il a acquis les concepts dont il avait besoin pour cette tâche."

"Une représentation de cette situation est donc enfouie dans le modèle", explique Belinda Li.

Les chercheurs s'émerveillent de voir à quel point les LLM sont capables d'apprendre du texte. Par exemple, Pavlick et sa doctorante d'alors, l'étudiante Roma Patel, ont découvert que ces réseaux absorbent les descriptions de couleur du texte Internet et construisent des représentations internes de la couleur. Lorsqu'ils voient le mot "rouge", ils le traitent non seulement comme un symbole abstrait, mais comme un concept qui a une certaine relation avec le marron, le cramoisi, le fuchsia, la rouille, etc. Démontrer cela fut quelque peu délicat. Au lieu d'insérer une sonde dans un réseau, les chercheurs ont étudié sa réponse à une série d'invites textuelles. Pour vérifier si le systhème ne faisait pas simplement écho à des relations de couleur tirées de références en ligne, ils ont essayé de le désorienter en lui disant que le rouge est en fait du vert - comme dans la vieille expérience de pensée philosophique où le rouge d'une personne correspond au vert d'une autre. Plutôt que répéter une réponse incorrecte, les évaluations de couleur du système ont évolué de manière appropriée afin de maintenir les relations correctes.

Reprenant l'idée que pour remplir sa fonction d'autocorrection, le système recherche la logique sous-jacente de ses données d'apprentissage, le chercheur en apprentissage automatique Sébastien Bubeck de Microsoft Research suggère que plus la gamme de données est large, plus les règles du système faire émerger sont générales. "Peut-être que nous nous constatons un tel bond en avant parce que nous avons atteint une diversité de données suffisamment importante pour que le seul principe sous-jacent à toutes ces données qui demeure est que des êtres intelligents les ont produites... Ainsi la seule façon pour le modèle d'expliquer toutes ces données est de devenir intelligent lui-même".

En plus d'extraire le sens sous-jacent du langage, les LLM sont capables d'apprendre en temps réel. Dans le domaine de l'IA, le terme "apprentissage" est généralement réservé au processus informatique intensif dans lequel les développeurs exposent le réseau neuronal à des gigaoctets de données et ajustent petit à petit ses connexions internes. Lorsque vous tapez une requête dans ChatGPT, le réseau devrait être en quelque sorte figé et, contrairement à l'homme, ne devrait pas continuer à apprendre. Il fut donc surprenant de constater que les LLM apprennent effectivement à partir des invites de leurs utilisateurs, une capacité connue sous le nom d'"apprentissage en contexte". "Il s'agit d'un type d'apprentissage différent dont on ne soupçonnait pas l'existence auparavant", explique Ben Goertzel, fondateur de la société d'IA SingularityNET.

Un exemple de la façon dont un LLM apprend vient de la façon dont les humains interagissent avec les chatbots tels que ChatGPT. Vous pouvez donner au système des exemples de la façon dont vous voulez qu'il réponde, et il obéira. Ses sorties sont déterminées par les derniers milliers de mots qu'il a vus. Ce qu'il fait, étant donné ces mots, est prescrit par ses connexions internes fixes - mais la séquence de mots offre néanmoins une certaine adaptabilité. Certaines personnes utilisent le jailbreak à des fins sommaires, mais d'autres l'utilisent pour obtenir des réponses plus créatives. "Il répondra mieux aux questions scientifiques, je dirais, si vous posez directement la question, sans invite spéciale de jailbreak, explique William Hahn, codirecteur du laboratoire de perception de la machine et de robotique cognitive à la Florida Atlantic University. "Sans il sera un meilleur universitaire." (Comme son nom l'indique une invite jailbreak -prison cassée-, invite à  moins délimiter-verrouiller les fonctions de recherche et donc à les ouvrir, avec les risques que ça implique) .

Un autre type d'apprentissage en contexte se produit via l'incitation à la "chaîne de pensée", ce qui signifie qu'on demande au réseau d'épeler chaque étape de son raisonnement - manière de faire qui permet de mieux résoudre les problèmes de logique ou d'arithmétique en passant par plusieurs étapes. (Ce qui rend l'exemple de Millière si surprenant  puisque le réseau a trouvé le nombre de Fibonacci sans un tel encadrement.)

En 2022, une équipe de Google Research et de l'École polytechnique fédérale de Zurich - Johannes von Oswald, Eyvind Niklasson, Ettore Randazzo, João Sacramento, Alexander Mordvintsev, Andrey Zhmoginov et Max Vladymyrov - a montré que l'apprentissage en contexte suit la même procédure de calcul de base que l'apprentissage standard, connue sous le nom de descente de gradient". 

Cette procédure n'était pas programmée ; le système l'a découvert sans aide. "C'est probablement une compétence acquise", déclare Blaise Agüera y Arcas, vice-président de Google Research. De fait il pense que les LLM peuvent avoir d'autres capacités latentes que personne n'a encore découvertes. "Chaque fois que nous testons une nouvelle capacité que nous pouvons quantifier, nous la trouvons", dit-il.

Bien que les LLM aient suffisamment d'angles morts et autres défauts pour ne pas être qualifiés d'intelligence générale artificielle, ou AGI - terme désignant une machine qui atteint l'ingéniosité du cerveau animal - ces capacités émergentes suggèrent à certains chercheurs que les entreprises technologiques sont plus proches de l'AGI que même les optimistes ne l'avaient deviné. "Ce sont des preuves indirectes que nous en sommes probablement pas si loin", a déclaré Goertzel en mars lors d'une conférence sur le deep learning à la Florida Atlantic University. Les plug-ins d'OpenAI ont donné à ChatGPT une architecture modulaire un peu comme celle du cerveau humain. "La combinaison de GPT-4 [la dernière version du LLM qui alimente ChatGPT] avec divers plug-ins pourrait être une voie vers une spécialisation des fonctions semblable à celle de l'homme", déclare Anna Ivanova, chercheuse au M.I.T.

Dans le même temps, les chercheurs s'inquiètent de voir leur capacité à étudier ces systèmes s'amenuiser. OpenAI n'a pas divulgué les détails de la conception et de l'entraînement de GPT-4, en partie du à la concurrence avec Google et d'autres entreprises, sans parler des autres pays. "Il y aura probablement moins de recherche ouverte de la part de l'industrie, et les choses seront plus cloisonnées et organisées autour de la construction de produits", déclare Dan Roberts, physicien théoricien au M.I.T., qui applique les techniques de sa profession à la compréhension de l'IA.

Ce manque de transparence ne nuit pas seulement aux chercheurs, il entrave également les efforts qui visent à comprendre les répercussions sociales de l'adoption précipitée de la technologie de l'IA. "La transparence de ces modèles est la chose la plus importante pour garantir la sécurité", affirme M. Mitchell.

Auteur: Musser Georges

Info: https://www.scientificamerican.com,  11 mai 2023. *algorithme d'optimisation utilisé dans l'apprentissage automatique et les problèmes d'optimisation. Il vise à minimiser ou à maximiser une fonction en ajustant ses paramètres de manière itérative. L'algorithme part des valeurs initiales des paramètres et calcule le gradient de la fonction au point actuel. Les paramètres sont ensuite mis à jour dans la direction du gradient négatif (pour la minimisation) ou positif (pour la maximisation), multiplié par un taux d'apprentissage. Ce processus est répété jusqu'à ce qu'un critère d'arrêt soit rempli. La descente de gradient est largement utilisée dans la formation des modèles d'apprentissage automatique pour trouver les valeurs optimales des paramètres qui minimisent la différence entre les résultats prédits et les résultats réels. Trad et adaptation Mg

[ singularité technologique ] [ versatilité sémantique ]

 

Commentaires: 0

Ajouté à la BD par miguel

intelligence artificielle

Apprendre l'anglais n'est pas une tâche facile, comme le savent d'innombrables étudiants. Mais lorsque l'étudiant est un ordinateur, une approche fonctionne étonnamment bien : Il suffit d'alimenter un modèle mathématique géant, appelé réseau neuronal, avec des montagnes de textes provenant d'Internet. C'est le principe de fonctionnement des modèles linguistiques génératifs tels que ChatGPT d'OpenAI, dont la capacité à tenir une conversation cohérente (à défaut d'être toujours sincère) sur un large éventail de sujets a surpris les chercheurs et le public au cours de l'année écoulée.

Mais cette approche présente des inconvénients. D'une part, la procédure de "formation" nécessaire pour transformer de vastes archives textuelles en modèles linguistiques de pointe est coûteuse et prend beaucoup de temps. D'autre part, même les personnes qui forment les grands modèles linguistiques ont du mal à comprendre leur fonctionnement interne, ce qui, à son tour, rend difficile la prévision des nombreuses façons dont ils peuvent échouer.

Face à ces difficultés, certains chercheurs ont choisi d'entraîner des modèles plus petits sur des ensembles de données plus restreints, puis d'étudier leur comportement. "C'est comme le séquençage du génome de la drosophile par rapport au séquençage du génome humain", explique Ellie Pavlick, chercheuse sur les modèles de langage à l'université de Brown.

Dans un article récemment publié sur le serveur scientifique arxiv.org, deux chercheurs de Microsoft ont présenté une nouvelle méthode pour former de minuscules modèles de langage : Les élever avec un régime strict d'histoires pour enfants.

RÉSEAUX NEURONAUX

Des chercheurs acquièrent une nouvelle compréhension à partir d'une simple IA  

Les chercheurs en apprentissage automatique ont compris cette leçon. GPT-3.5, le grand modèle linguistique qui alimente l'interface ChatGPT, compte près de 200 milliards de paramètres et a été entraîné sur un ensemble de données comprenant des centaines de milliards de mots (OpenAI n'a pas publié les chiffres correspondants pour son successeur, GPT-4).  L'entraînement de modèles aussi vastes nécessite généralement au moins 1 000 processeurs spécialisés, appelés GPU, fonctionnant en parallèle pendant des semaines. Seules quelques entreprises peuvent réunir les ressources nécessaires, sans parler de l'entraînement et de la comparaison de différents modèles.

Les deux chercheurs ont montré que des modèles linguistiques des milliers de fois plus petits que les systèmes de pointe actuels apprenaient rapidement à raconter des histoires cohérentes et grammaticalement justes lorsqu'ils étaient formés de cette manière. Leurs résultats indiquent de nouvelles pistes de recherche qui pourraient être utiles pour former des modèles plus importants et comprendre leur comportement.

"J'ai trouvé tout  ça très instructif", a déclaré Chandra Bhagavatula, chercheur sur les modèles de langage à l'Allen Institute for Artificial Intelligence de Seattle. "Le concept lui-même est très intéressant.

Il était une fois

Les réseaux neuronaux au cœur des modèles de langage sont des structures mathématiques vaguement inspirées du cerveau humain. Chacun d'entre eux contient de nombreux neurones artificiels disposés en couches, avec des connexions entre les neurones des couches adjacentes. Le comportement du réseau neuronal est régi par la force de ces connexions, appelées paramètres. Dans un modèle linguistique, les paramètres contrôlent les mots que le modèle peut produire ensuite, compte tenu d'une invite initiale et des mots qu'il a déjà générés.

Un modèle ne prend véritablement vie qu'au cours de la formation, lorsqu'il compare de manière répétée ses propres résultats au texte de son ensemble de données de formation et qu'il ajuste ses paramètres afin d'accroître la ressemblance. Un réseau non entraîné avec des paramètres aléatoires est trivialement facile à assembler à partir de quelques lignes de code, mais il ne produira que du charabia. Après l'entraînement, il peut souvent poursuivre de manière plausible un texte peu familier. Les modèles de plus grande taille sont souvent soumis à des réglages plus fins qui leur apprennent à répondre à des questions et à suivre des instructions, mais l'essentiel de la formation consiste à maîtriser la prédiction des mots.

Pour réussir à prédire des mots, un modèle linguistique doit maîtriser de nombreuses compétences différentes. Par exemple, les règles de la grammaire anglaise suggèrent que le mot suivant le mot "going" sera probablement "to", quel que soit le sujet du texte. En outre, un système a besoin de connaissances factuelles pour compléter "la capitale de la France est", et compléter un passage contenant le mot "not" nécessite une connaissance rudimentaire de la logique.

"Le langage brut est très compliqué", explique Timothy Nguyen, chercheur en apprentissage automatique chez DeepMind. "Pour que des capacités linguistiques intéressantes apparaissent, les gens ont eu recours à l'idée que plus il y a de données, mieux c'est".

(photo) Ronen Eldan s'est rendu compte qu'il pouvait utiliser les histoires d'enfants générées par de grands modèles linguistiques pour en entraîner rapidement de plus petits.

Introduction

Ronen Eldan, mathématicien qui a rejoint Microsoft Research en 2022 pour étudier les modèles de langage génératifs, souhaitait développer un moyen moins coûteux et plus rapide d'explorer leurs capacités. Le moyen naturel d'y parvenir était d'utiliser un petit ensemble de données, ce qui signifiait qu'il devait entraîner les modèles à se spécialiser dans une tâche spécifique, afin qu'ils ne s'éparpillent pas. Au départ, il voulait entraîner les modèles à résoudre une certaine catégorie de problèmes mathématiques, mais un après-midi, après avoir passé du temps avec sa fille de 5 ans, il s'est rendu compte que les histoires pour enfants convenaient parfaitement. "L'idée m'est venue littéralement après lui avoir lu une histoire", a-t-il déclaré.

Pour générer des histoires cohérentes pour les enfants, un modèle de langage devrait apprendre des faits sur le monde, suivre les personnages et les événements, et observer les règles de grammaire - des versions plus simples des défis auxquels sont confrontés les grands modèles. Mais les grands modèles formés sur des ensembles de données massives apprennent d'innombrables détails non pertinents en même temps que les règles qui comptent vraiment. Eldan espérait que la brièveté et le vocabulaire limité des histoires pour enfants rendraient l'apprentissage plus gérable pour les petits modèles, ce qui les rendrait à la fois plus faciles à former et plus faciles à comprendre.

Dans le monde des modèles de langage, cependant, le terme "petit" est relatif : Un ensemble de données mille fois plus petit que celui utilisé pour former GPT-3.5 devrait encore contenir des millions d'histoires. "Je ne sais pas combien d'argent vous voulez dépenser, mais je suppose que vous n'allez pas engager des professionnels pour écrire quelques millions de nouvelles", a déclaré M. Nguyen.

Il faudrait un auteur extraordinairement prolifique pour satisfaire des lecteurs aussi voraces, mais Eldan avait quelques candidats en tête. Qui peut mieux écrire pour un public de petits modèles linguistiques que pour de grands modèles ?

Toys stories

Eldan a immédiatement entrepris de créer une bibliothèque d'histoires synthétiques pour enfants générées par de grands modèles linguistiques. Mais il a rapidement découvert que même les modèles de pointe ne sont pas naturellement très créatifs. Si l'on demande à GPT-4 d'écrire des histoires adaptées à des enfants de 4 ans, explique Eldan, "environ un cinquième des histoires concernera des enfants qui vont au parc et qui ont peur des toboggans". C'est apparemment la quintessence des histoires pour enfants d'âge préscolaire, selon l'Internet.

La solution a consisté à ajouter un peu d'aléatoire dans le message. Tout d'abord, Eldan a utilisé le GPT-4 pour générer une liste de 1 500 noms, verbes et adjectifs qu'un enfant de 4 ans pourrait connaître - suffisamment courte pour qu'il puisse facilement la vérifier lui-même. Il a ensuite écrit un programme informatique simple qui demanderait à plusieurs reprises à GPT-3.5 ou à GPT-4 de générer une histoire adaptée à l'âge de l'enfant, comprenant trois mots aléatoires de la liste, ainsi qu'un détail supplémentaire choisi au hasard, comme une fin heureuse ou un rebondissement de l'intrigue. Les histoires obtenues, heureusement, étaient moins axées sur des diapositives effrayantes.

Eldan disposait désormais d'une procédure pour produire des données de formation à la demande, mais il n'avait aucune idée du nombre d'histoires dont il aurait besoin pour former un modèle fonctionnel, ni de la taille de ce modèle. C'est alors qu'il s'est associé à Yuanzhi Li, chercheur en apprentissage automatique chez Microsoft et à l'université Carnegie Mellon, pour essayer différentes possibilités, en tirant parti du fait que les petits modèles peuvent être formés très rapidement. La première étape consistait à décider comment évaluer leurs modèles.

Introduction

Dans la recherche sur les modèles de langage - comme dans toute salle de classe - la notation est un sujet délicat. Il n'existe pas de rubrique parfaite qui englobe tout ce que les chercheurs veulent savoir, et les modèles qui excellent dans certaines tâches échouent souvent de manière spectaculaire dans d'autres. Au fil du temps, les chercheurs ont mis au point divers critères de référence standard basés sur des questions dont les réponses ne sont pas ambiguës, ce qui est une bonne approche si vous essayez d'évaluer des compétences spécifiques. Mais Eldan et Li se sont intéressés à quelque chose de plus nébuleux : quelle doit être la taille réelle des modèles linguistiques si l'on simplifie le langage autant que possible ?

"Pour vérifier directement si le modèle parle anglais, je pense que la seule chose à faire est de laisser le modèle générer de l'anglais de manière ouverte", a déclaré M. Eldan.

Il n'y a que deux façons de mesurer les performances d'un modèle sur des questions aussi qualitatives : S'appuyer sur des évaluateurs humains ou se tourner à nouveau vers le GPT-4. Les deux chercheurs ont opté pour cette dernière solution, laissant les grands modèles à la fois rédiger les manuels et noter les dissertations.

Bhagavatula a déclaré qu'il aurait aimé voir comment les évaluations de GPT-4 se comparaient à celles des correcteurs humains - GPT-4 peut être biaisé en faveur des modèles qu'il a aidé à former, et l'opacité des modèles de langage rend difficile la quantification de tels biais. Mais il ne pense pas que de telles subtilités affecteraient les comparaisons entre différents modèles formés sur des ensembles similaires d'histoires synthétiques - l'objectif principal du travail d'Eldan et Li.

Eldan et Li ont utilisé une procédure en deux étapes pour évaluer chacun de leurs petits modèles après la formation. Tout d'abord, ils ont présenté au petit modèle la première moitié d'une histoire distincte de celles de l'ensemble des données d'apprentissage, de manière à ce qu'il génère une nouvelle fin, en répétant ce processus avec 50 histoires de test différentes. Ensuite, ils ont demandé à GPT-4 d'évaluer chacune des fins du petit modèle en fonction de trois catégories : créativité, grammaire et cohérence avec le début de l'histoire. Ils ont ensuite fait la moyenne des notes obtenues dans chaque catégorie, obtenant ainsi trois notes finales par modèle.

Avec cette procédure en main, Eldan et Li étaient enfin prêts à comparer les différents modèles et à découvrir quels étaient les étudiants les plus brillants.

Résultats des tests

Après quelques explorations préliminaires, les deux chercheurs ont opté pour un ensemble de données de formation contenant environ 2 millions d'histoires. Ils ont ensuite utilisé cet ensemble de données, baptisé TinyStories, pour entraîner des modèles dont la taille varie de 1 million à 30 millions de paramètres, avec un nombre variable de couches. Le travail a été rapide : En utilisant seulement quatre GPU, l'entraînement du plus grand de ces modèles n'a pas pris plus d'une journée.

Les plus petits modèles ont eu du mal. Par exemple, l'une des histoires testées commence par un homme à l'air méchant qui dit à une fille qu'il va lui prendre son chat. Un modèle à un million de paramètres s'est retrouvé bloqué dans une boucle où la fille répète sans cesse à l'homme qu'elle veut être son amie. Mais les modèles plus grands, qui sont encore des milliers de fois plus petits que GPT-3.5, ont obtenu des résultats surprenants. La version à 28 millions de paramètres racontait une histoire cohérente, même si la fin était sinistre : "Katie s'est mise à pleurer, mais l'homme s'en fichait. Il a emporté le chat et Katie n'a plus jamais revu son chat. Fin de l'histoire".

En plus de tester leurs propres modèles, Eldan et Li ont soumis le même défi au GPT-2 d'OpenAI, un modèle de 1,5 milliard de paramètres publié en 2019. Le résultat a été bien pire - avant la fin abrupte de l'histoire, l'homme menace d'emmener la jeune fille au tribunal, en prison, à l'hôpital, à la morgue et enfin au crématorium.

Introduction

Selon M. Nguyen, il est passionnant que des modèles aussi petits soient aussi fluides, mais il n'est peut-être pas surprenant que GPT-2 ait eu du mal à accomplir la tâche : il s'agit d'un modèle plus grand, mais loin de l'état de l'art, et il a été formé sur un ensemble de données très différent. "Un enfant en bas âge qui ne s'entraînerait qu'à des tâches d'enfant en bas âge, comme jouer avec des jouets, obtiendrait de meilleurs résultats que vous ou moi", a-t-il fait remarquer. "Nous ne nous sommes pas spécialisés dans cette chose simple.

Les comparaisons entre les différents modèles de TinyStories ne souffrent pas des mêmes facteurs de confusion. Eldan et Li ont observé que les réseaux comportant moins de couches mais plus de neurones par couche étaient plus performants pour répondre aux questions nécessitant des connaissances factuelles ; inversement, les réseaux comportant plus de couches et moins de neurones par couche étaient plus performants pour garder en mémoire les personnages et les points de l'intrigue situés plus tôt dans l'histoire. Bhagavatula a trouvé ce résultat particulièrement intriguant. S'il peut être reproduit dans des modèles plus vastes, "ce serait un résultat vraiment intéressant qui pourrait découler de ce travail", a-t-il déclaré.

Eldan et Li ont également étudié comment les capacités de leurs petits modèles dépendaient de la durée de la période de formation. Dans tous les cas, les modèles maîtrisaient d'abord la grammaire, puis la cohérence. Pour Eldan, ce schéma illustre comment les différences dans les structures de récompense entraînent des différences dans les schémas d'acquisition du langage entre les réseaux neuronaux et les enfants. Pour les modèles de langage, qui apprennent en prédisant des mots, "l'incitation pour les mots "je veux avoir" est aussi importante que pour les mots "crème glacée"", a-t-il déclaré. Les enfants, en revanche, "ne se soucient pas de savoir s'ils disent 'j'aimerais avoir de la glace' ou simplement 'glace, glace, glace'".

Qualité contre quantité

Eldan et Li espèrent que cette étude incitera d'autres chercheurs à entraîner différents modèles sur l'ensemble des données de TinyStories et à comparer leurs capacités. Mais il est souvent difficile de prédire quelles caractéristiques des petits modèles apparaîtront également dans les plus grands.

"Peut-être que les modèles de vision chez la souris sont de très bons substituts de la vision humaine, mais les modèles de dépression chez la souris sont-ils de bons modèles de la dépression chez l'homme ? a déclaré M. Pavlick. "Pour chaque cas, c'est un peu différent.

Le succès des modèles TinyStories suggère également une leçon plus large. L'approche standard pour compiler des ensembles de données de formation consiste à aspirer des textes sur l'internet, puis à filtrer les déchets. Le texte synthétique généré par des modèles de grande taille pourrait constituer une autre façon d'assembler des ensembles de données de haute qualité qui n'auraient pas besoin d'être aussi volumineux.

"Nous avons de plus en plus de preuves que cette méthode est très efficace, non seulement pour les modèles de la taille de TinyStories, mais aussi pour les modèles plus importants", a déclaré M. Eldan. Ces preuves proviennent d'une paire d'articles de suivi sur les modèles à un milliard de paramètres, rédigés par Eldan, Li et d'autres chercheurs de Microsoft. Dans le premier article, ils ont entraîné un modèle à apprendre le langage de programmation Python en utilisant des extraits de code générés par GPT-3.5 ainsi que du code soigneusement sélectionné sur l'internet. Dans le second, ils ont complété l'ensemble de données d'entraînement par des "manuels" synthétiques couvrant un large éventail de sujets, afin d'entraîner un modèle linguistique à usage général. Lors de leurs tests, les deux modèles ont été comparés favorablement à des modèles plus importants formés sur des ensembles de données plus vastes. Mais l'évaluation des modèles linguistiques est toujours délicate, et l'approche des données d'entraînement synthétiques n'en est qu'à ses balbutiements - d'autres tests indépendants sont nécessaires.

Alors que les modèles linguistiques de pointe deviennent de plus en plus volumineux, les résultats surprenants de leurs petits cousins nous rappellent qu'il y a encore beaucoup de choses que nous ne comprenons pas, même pour les modèles les plus simples. M. Nguyen s'attend à ce que de nombreux autres articles explorent l'approche inaugurée par TinyStories.

"La question est de savoir où et pourquoi la taille a de l'importance", a-t-il déclaré. "Il devrait y avoir une science à ce sujet, et cet article est, je l'espère, le début d'une riche histoire.



 



 

Auteur: Internet

Info: https://www.quantamagazine.org/ Ben Brubaker, 5 octobre 2023

[ synthèse ]

 

Commentaires: 0

Ajouté à la BD par miguel

épistémologie

Opinion: Pourquoi la science a besoin de la philosophe

Malgré les liens historiques étroits entre la science et la philosophie, les scientifiques d'aujourd'hui perçoivent souvent la philosophie comme complètement différente, voire antagoniste, de la science. Nous soutenons ici que, au contraire, la philosophie peut avoir un impact important et productif sur la science.

Nous illustrons notre propos par trois exemples tirés de divers domaines des sciences de la vie contemporaines. Chacun d'entre eux concerne la recherche scientifique de pointe, et chacun ayant été explicitement reconnu par les chercheurs en exercice comme une contribution utile à la science. Ces exemples, et d'autres, montrent que la contribution de la philosophie peut prendre au moins quatre formes : la clarification des concepts scientifiques, l'évaluation critique des hypothèses ou des méthodes scientifiques, la formulation de nouveaux concepts et de nouvelles théories, et la promotion du dialogue entre les différentes sciences, ainsi qu'entre la science et la société.

Clarification conceptuelle et cellules souches.

Tout d'abord, la philosophie offre une clarification conceptuelle. Les clarifications conceptuelles améliorent non seulement la précision et l'utilité des termes scientifiques, mais conduisent également à de nouvelles recherches expérimentales, car le choix d'un cadre conceptuel donné contraint fortement la façon dont les expériences sont conçues.

La définition des cellules souches (stem cells) en est un excellent exemple. La philosophie a une longue tradition d'étude des propriétés, et les outils utilisés dans cette tradition ont récemment été appliqués pour décrire la "souche", propriété qui définit les cellules souches. L'un d'entre nous a montré que quatre types de propriétés différentes existent sous cette dénomination de souche (stemness) au vu des connaissances scientifiques actuelles. Selon le type de tissu, la stemness peut être une propriété catégorielle (propriété intrinsèque de la cellule souche, indépendante de son environnement), une propriété dispositionnelle (propriété intrinsèque de la cellule souche qui est contrôlée par le micro-environnement), une propriété relationnelle (propriété extrinsèque qui peut être conférée aux cellules non souches par le microenvironnement), ou une propriété systémique (propriété qui est maintenue et contrôlée au niveau de la population cellulaire entière).

Hans Clevers, chercheur en biologie des cellules souches et du cancer, note que cette analyse philosophique met en lumière d'importants problèmes sémantiques et conceptuels en oncologie et en biologie des cellules souches ; il suggère également que cette analyse soit facilement applicable à l'expérimentation. En effet, au-delà de la clarification conceptuelle, ce travail philosophique a des applications dans le monde réel, comme l'illustre le cas des cellules souches cancéreuses en oncologie.

Les recherches visant à développer des médicaments ciblant soit les cellules souches cancéreuses, soit leur microenvironnement, reposent en fait sur différents types de souches et sont donc susceptibles d'avoir des taux de réussite différents selon le type de cancer. En outre, elles pourraient ne pas couvrir tous les types de cancer, car les stratégies thérapeutiques actuelles ne tiennent pas compte de la définition systémique de la souche. Déterminer le type de souche présent dans chaque tissu et chaque cancer est donc utile pour orienter le développement et le choix des thérapies anticancéreuses. Dans la pratique, ce cadre a conduit à la recherche de thérapies anticancéreuses qui combinent le ciblage des propriétés intrinsèques des cellules souches cancéreuses, de leur microenvironnement et des points de contrôle immunitaires afin de couvrir tous les types possibles de souches.

En outre, ce cadre philosophique a récemment été appliqué à un autre domaine, l'étude des organoïdes (tissus en 3D dérivés de cellules souches, sont capables de s'auto-organiser et de reproduire certaines fonctions d'un organe.). Dans une revue systémique des données expérimentales sur les organoïdes provenant de diverses sources, Picollet-D'hahan et al. ont caractérisé la capacité à former des organoïdes comme une propriété dispositionnelle. Ils ont pu alors affirmer que pour accroître l'efficacité et la reproductibilité de la production d'organoïdes, actuellement un défi majeur dans le domaine, les chercheurs doivent mieux comprendre la partie intrinsèque de la propriété dispositionnelle qui est influencée par le microenvironnement. Pour distinguer les caractéristiques intrinsèques des cellules qui ont une telle disposition, ce groupe développe actuellement des méthodes de génomique fonctionnelle à haut débit, permettant d'étudier le rôle de pratiquement tous les gènes humains dans la formation des organoïdes.

Immunogénicité et microbiome.

En complément de son rôle dans la clarification conceptuelle, la philosophie peut contribuer à la critique des hypothèses scientifiques et peut même être proactive dans la formulation de théories nouvelles, testables et prédictives qui aident à définir de nouvelles voies pour la recherche empirique.

Par exemple, une critique philosophique du cadre du cadre immunitaire du soi et du non-soi a conduit à deux contributions scientifiques importantes. Tout d'abord, elle a servi de base à la formulation d'un nouveau cadre théorique, la théorie de la discontinuité de l'immunité, qui complète les modèles antérieurs du non-soi et du danger en proposant que le système immunitaire réagisse aux modifications soudaines des motifs antigéniques. Cette théorie éclaire de nombreux phénomènes immunologiques importants, notamment les maladies auto-immunes, les réponses immunitaires aux tumeurs et la tolérance immunologique à des ligands exprimés de façon chronique. La théorie de la discontinuité a été appliquée à une multitude de questions, aidant à explorer les effets des agents chimiothérapeutiques sur l'immunomodulation dans le cancer et expliquant comment les cellules tueuses naturelles modifient constamment leur phénotype et leurs fonctions grâce à leurs interactions avec leurs ligands** d'une manière qui assure la tolérance aux constituants corporels. La théorie permet également d'expliquer les conséquences des vaccinations répétées chez les personnes immunodéprimées et propose des modèles mathématiques dynamiques de l'activation immunitaire. Collectivement, ces diverses évaluations empiriques illustrent comment des propositions d'inspiration philosophique peuvent conduire à des expériences inédites, ouvrant ainsi de nouvelles voies de recherche.

Deuxièmement, la critique philosophique a contribué, avec d'autres approches philosophiques, à la notion selon laquelle tout organisme, loin d'être un soi génétiquement homogène, est une communauté symbiotique abritant et tolérant de multiples éléments étrangers (notamment des bactéries et des virus), qui sont reconnus mais non éliminés par son système immunitaire. La recherche sur l'intégration symbiotique et la tolérance immunitaire a des conséquences considérables sur notre conception de ce qui constitue un organisme individuel, qui est de plus en plus conceptualisé comme un écosystème complexe dont les fonctions clés, du développement à la défense, la réparation et la cognition, sont affectées par les interactions avec les microbes.

Influence sur les sciences cognitives.

L'étude de la cognition et des neurosciences cognitives offre une illustration frappante de l'influence profonde et durable de la philosophie sur la science. Comme pour l'immunologie, les philosophes ont formulé des théories et des expériences influentes, aidé à lancer des programmes de recherche spécifiques et contribué à des changements de paradigme. Mais l'ampleur de cette influence est bien plus importante que dans le cas de l'immunologie. La philosophie a joué un rôle dans le passage du behaviorisme au cognitivisme et au computationnalisme dans les années 1960. La théorie de la modularité de l'esprit, proposée par le philosophe Jerry Fodor, a peut-être été la plus visible. Son influence sur les théories de l'architecture cognitive peut difficilement être dépassée. Dans un hommage rendu après le décès de Fodor en 2017, l'éminent psychologue cognitif James Russell a parlé dans le magazine de la British Psychological Society de "psychologie cognitive du développement BF (avant Fodor) et AF (après Fodor) ".

La modularité renvoie à l'idée que les phénomènes mentaux résultent du fonctionnement de multiples processus distincts, et non d'un seul processus indifférencié. Inspiré par les résultats de la psychologie expérimentale, par la linguistique chomskienne et par les nouvelles théories computationnelles de la philosophie de l'esprit, Fodor a théorisé que la cognition humaine est structurée en un ensemble de modules spécialisés de bas niveau, spécifiques à un domaine et encapsulés sur le plan informationnel, et en un système central de plus haut niveau, général à un domaine, pour le raisonnement abductif, l'information ne circulant que verticalement vers le haut, et non vers le bas ou horizontalement (c'est-à-dire entre les modules). Il a également formulé des critères stricts de modularité. Aujourd'hui encore, la proposition de Fodor définit les termes d'une grande partie de la recherche empirique et de la théorie dans de nombreux domaines des sciences cognitives et des neurosciences, y compris le développement cognitif, la psychologie de l'évolution, l'intelligence artificielle et l'anthropologie cognitive. Bien que sa théorie ait été révisée et remise en question, les chercheurs continuent d'utiliser, de peaufiner et de débattre de son approche et de sa boîte à outils conceptuelle de base.

La philosophie et la science partagent les outils de la logique, de l'analyse conceptuelle et de l'argumentation rigoureuse. Cependant, les philosophes peuvent utiliser ces outils avec des degrés de rigueur, de liberté et d'abstraction théorique que les chercheurs praticiens ne peuvent souvent pas se permettre dans leurs activités quotidiennes.

La tâche des fausses croyances constitue un autre exemple clé de l'impact de la philosophie sur les sciences cognitives. Le philosophe Daniel Dennett a été le premier à concevoir la logique de base de cette expérience comme une révision d'un test utilisé pour évaluer la théorie de l'esprit, la capacité d'attribuer des états mentaux à soi-même et aux autres. Cette tâche teste la capacité d'attribuer à autrui des croyances que l'on considère comme fausses, l'idée clé étant que le raisonnement sur les croyances fausses d'autrui, par opposition aux croyances vraies, exige de concevoir les autres personnes comme ayant des représentations mentales qui divergent des siennes et de la façon dont le monde est réellement. Sa première application empirique remonte à 1983 , dans un article dont le titre, "Beliefs About Beliefs : Representation and Constraining Function of Wrong Beliefs in Young Children's Understanding of Deception", est en soi un hommage direct à la contribution de Dennett.

La tâche des fausses croyances représente une expérience marquante dans divers domaines des sciences cognitives et des neurosciences, avec de vastes applications et implications. Il s'agit notamment de tester les stades du développement cognitif chez les enfants, de débattre de l'architecture de la cognition humaine et de ses capacités distinctes, d'évaluer les capacités de la théorie de l'esprit chez les grands singes, de développer des théories de l'autisme en tant que cécité de l'esprit (selon lesquelles les difficultés à réussir la tâche des fausses croyances sont associées à cette maladie), et de déterminer quelles régions particulières du cerveau sont associées à la capacité de raisonner sur le contenu de l'esprit d'une autre personne .

La philosophie a également aidé le domaine des sciences cognitives à éliminer les hypothèses problématiques ou dépassées, contribuant ainsi à l'évolution de la science. Les concepts de l'esprit, de l'intelligence, de la conscience et de l'émotion sont utilisés de manière omniprésente dans différents domaines, avec souvent peu d'accord sur leur signification. L'ingénierie de l'intelligence artificielle, la construction de théories psychologiques des variables de l'état mental et l'utilisation d'outils neuroscientifiques pour étudier la conscience et l'émotion nécessitent des outils conceptuels pour l'autocritique et le dialogue interdisciplinaire - précisément les outils que la philosophie peut fournir.

La philosophie - parfois représentée par la lettre grecque phi - peut contribuer à faire progresser tous les niveaux de l'entreprise scientifique, de la théorie à l'expérience. Parmi les exemples récents, citons les contributions à la biologie des cellules souches, à l'immunologie, à la symbiose et aux sciences cognitives.  

La philosophie et la connaissance scientifique.

Les exemples ci-dessus sont loin d'être les seuls : dans les sciences de la vie, la réflexion philosophique a joué un rôle important dans des questions aussi diverses que l'altruisme évolutif , le débat sur les unités de sélection, la construction d'un "arbre de vie", la prédominance des microbes dans la biosphère, la définition du gène et l'examen critique du concept d'innéité. De même, en physique, des questions fondamentales comme la définition du temps ont été enrichies par les travaux des philosophes. Par exemple, l'analyse de l'irréversibilité temporelle par Huw Price et les courbes temporelles fermées par David Lewis ont contribué à dissiper la confusion conceptuelle en physique.

Inspirés par ces exemples et bien d'autres, nous considérons que la philosophie et la science se situent sur un continuum. La philosophie et la science partagent les outils de la logique, de l'analyse conceptuelle et de l'argumentation rigoureuse. Cependant, les philosophes peuvent utiliser ces outils avec des degrés de minutie, de liberté et d'abstraction théorique que les chercheurs praticiens ne peuvent souvent pas se permettre dans leurs activités quotidiennes. Les philosophes possédant les connaissances scientifiques pertinentes peuvent alors contribuer de manière significative à l'avancement de la science à tous les niveaux de l'entreprise scientifique, de la théorie à l'expérimentation, comme le montrent les exemples ci-dessus.

Mais comment, en pratique, faciliter la coopération entre chercheurs et philosophes ? À première vue, la solution pourrait sembler évidente : chaque communauté devrait faire un pas vers l'autre. Pourtant, ce serait une erreur de considérer cette tâche comme facile. Les obstacles sont nombreux. Actuellement, un nombre important de philosophes dédaignent la science ou ne voient pas la pertinence de la science pour leur travail. Même parmi les philosophes qui privilégient le dialogue avec les chercheurs, rares sont ceux qui ont une bonne connaissance de la science la plus récente. À l'inverse, peu de chercheurs perçoivent les avantages que peuvent leur apporter les idées philosophiques. Dans le contexte scientifique actuel, dominé par une spécialisation croissante et des demandes de financement et de résultats de plus en plus importantes, seul un nombre très limité de chercheurs a le temps et l'opportunité d'être au courant des travaux produits par les philosophes sur la science, et encore moins de les lire.

 Pour surmonter ces difficultés, nous pensons qu'une série de recommandations simples, assez facile à mettre en œuvre, peuvent aider à combler le fossé entre la science et la philosophie. La reconnexion entre la philosophie et la science est à la fois hautement souhaitable et plus réalisable en pratique que ne le suggèrent les décennies d'éloignement qui les séparent.

1) Laisser plus de place à la philosophie dans les conférences scientifiques. Il s'agit d'un mécanisme très simple permettant aux chercheurs d'évaluer l'utilité potentielle des idées des philosophes pour leurs propres recherches. Réciproquement, davantage de chercheurs pourraient participer à des conférences de philosophie, en développant les efforts d'organisations telles que l'International Society for the History, Philosophy, and Social Studies of Biology, la Philosophy of Science Association et la Society for Philosophy of Science in Practice.

2) Accueillir des philosophes dans des laboratoires et des départements scientifiques. Il s'agit d'un moyen efficace (déjà exploré par certains des auteurs et d'autres) pour les philosophes d'apprendre la science et de fournir des analyses plus appropriées et bien fondées, et pour les chercheurs de bénéficier d'apports philosophiques et de s'acclimater à la philosophie en général. C'est peut-être le moyen le plus efficace d'aider la philosophie à avoir un impact rapide et concret sur la science.

3) Co-superviser des doctorants. La co-supervision de doctorants par un chercheur et un philosophe est une excellente occasion de rendre possible l'enrichissement mutuel des deux domaines. Elle facilite la production de thèses qui sont à la fois riches sur le plan expérimental et rigoureuses sur le plan conceptuel et, ce faisant, elle forme la prochaine génération de philosophes-scientifiques.

4) Créer des programmes d'études équilibrés en science et en philosophie qui favorisent un véritable dialogue entre elles. De tels programmes existent déjà dans certains pays, mais leur développement devrait être une priorité absolue. Ils peuvent offrir aux étudiants en sciences une perspective qui les rend plus aptes à relever les défis conceptuels de la science moderne et fournir aux philosophes une base solide de connaissances scientifiques qui maximisera leur impact sur la science. Les programmes d'enseignement des sciences peuvent inclure un cours d'histoire des sciences et de philosophie des sciences. Les programmes de philosophie pourraient inclure un module de sciences.

5) Lire science et philosophie. La lecture des sciences est indispensable à la pratique de la philosophie des sciences, mais la lecture de la philosophie peut également constituer une grande source d'inspiration pour les chercheurs, comme l'illustrent certains des exemples ci-dessus. Par exemple, les clubs de lecture où les contributions scientifiques et philosophiques sont discutées constituent un moyen efficace d'intégrer la philosophie et la science.

6) Ouvrir de nouvelles sections consacrées aux questions philosophiques et conceptuelles dans les revues scientifiques. Cette stratégie serait un moyen approprié et convaincant de suggérer que le travail philosophique et conceptuel est continu avec le travail expérimental, dans la mesure où il est inspiré par celui-ci, et peut l'inspirer en retour. Cela rendrait également les réflexions philosophiques sur un domaine scientifique particulier beaucoup plus visibles pour la communauté scientifique concernée que lorsqu'elles sont publiées dans des revues de philosophie, qui sont rarement lues par les scientifiques.

Nous espérons que les mesures pratiques exposées ci-dessus encourageront une renaissance de l'intégration de la science et de la philosophie. En outre, nous soutenons que le maintien d'une allégeance étroite à la philosophie renforcera la vitalité de la science. La science moderne sans la philosophie se heurtera à un mur : le déluge de données dans chaque domaine rendra l'interprétation de plus en plus difficile, négligence et ampleur ampleur de l'histoire risquent de séparer davantage les sous-disciplines scientifiques, et l'accent mis sur les méthodes et les résultats empiriques entraînera une formation de moins en moins approfondie des étudiants. Comme l'a écrit Carl Woese : "une société qui permet à la biologie de devenir une discipline d'ingénierie, qui permet à la science de se glisser dans le rôle de modifier le monde vivant sans essayer de le comprendre, est un danger pour elle-même." Nous avons besoin d'une revigoration de la science à tous les niveaux, une revigoration qui nous rende les bénéfices de liens étroits avec la philosophie.

Auteur: Internet

Info: https://hal.archives-ouvertes.fr/hal-02269657/document. " janvier 2020. Publication collective de Lucie Laplane, Paolo Mantovani, Ralph Adolphs, Hasok Chang, Alberto Mantovani, Margaret McFall-Ngai, Carlo Rovelli, Elliott Sober, et Thomas Pradeua. Trad Mg

[ mécanisme ] [ état des lieux ] [ corps-esprit ] [ tétravalences ] [ tour d'horizon ]

 

Commentaires: 0

Ajouté à la BD par miguel

question

Réel ou imaginaire ? Comment votre cerveau fait la différence.

De nouvelles expériences montrent que le cerveau fait la distinction entre les images mentales perçues et imaginées en vérifiant si elles franchissent un "seuil de réalité".

(image - Nous confondons rarement les images qui traversent notre imagination avec des perceptions de la réalité, bien que les mêmes zones du cerveau traitent ces deux types d'images).

S'agit-il de la vraie vie ? S'agit-il d'un fantasme ?

Ce ne sont pas seulement les paroles de la chanson "Bohemian Rhapsody" de Queen. Ce sont aussi les questions auxquelles le cerveau doit constamment répondre lorsqu'il traite des flux de signaux visuels provenant des yeux et des images purement mentales issues de l'imagination. Des études de scintigraphie cérébrale ont montré à plusieurs reprises que le fait de voir quelque chose et de l'imaginer suscite des schémas d'activité neuronale très similaires. Pourtant, pour la plupart d'entre nous, les expériences subjectives qu'elles produisent sont très différentes.

"Je peux regarder par la fenêtre en ce moment même et, si je le veux, imaginer une licorne marchant dans la rue", explique Thomas Naselaris, professeur associé à l'université du Minnesota. La rue semblerait réelle et la licorne ne le serait pas. "C'est très clair pour moi", a-t-il ajouté. Le fait de savoir que les licornes sont mythiques n'entre guère en ligne de compte : Un simple cheval blanc imaginaire semblerait tout aussi irréel.

Alors pourquoi ne sommes-nous pas constamment en train d'halluciner ?" s'interroge Nadine Dijkstra, chercheuse postdoctorale à l'University College de Londres. Une étude qu'elle a dirigée, récemment publiée dans Nature Communications, apporte une réponse intrigante : Le cerveau évalue les images qu'il traite en fonction d'un "seuil de réalité". Si le signal passe le seuil, le cerveau pense qu'il est réel ; s'il ne le passe pas, le cerveau pense qu'il est imaginé.

Ce système fonctionne bien la plupart du temps, car les signaux imaginaires sont généralement faibles. Mais si un signal imaginé est suffisamment fort pour franchir le seuil, le cerveau le prend pour la réalité.

Bien que le cerveau soit très compétent pour évaluer les images dans notre esprit, il semble que "ce type de vérification de la réalité soit une lutte sérieuse", a déclaré Lars Muckli, professeur de neurosciences visuelles et cognitives à l'université de Glasgow. Les nouvelles découvertes soulèvent la question de savoir si des variations ou des altérations de ce système pourraient entraîner des hallucinations, des pensées envahissantes ou même des rêves.

"Ils ont fait un excellent travail, à mon avis, en prenant une question dont les philosophes débattent depuis des siècles et en définissant des modèles avec des résultats prévisibles et en les testant", a déclaré M. Naselaris.

Quand les perceptions et l'imagination se mélangent

L'étude de Dijkstra sur les images imaginées est née dans les premiers jours de la pandémie de Covid-19, lorsque les quarantaines et les fermetures d'usines ont interrompu son programme de travail. S'ennuyant, elle a commencé à parcourir la littérature scientifique sur l'imagination, puis a passé des heures à éplucher des documents pour trouver des comptes rendus historiques sur la façon dont les scientifiques ont testé un concept aussi abstrait. C'est ainsi qu'elle est tombée sur une étude réalisée en 1910 par la psychologue Mary Cheves West Perky.

Perky a demandé à des participants d'imaginer des fruits en regardant un mur vide. Pendant qu'ils le faisaient, elle a secrètement projeté des images extrêmement faibles de ces fruits - si faibles qu'elles étaient à peine visibles - sur le mur et a demandé aux participants s'ils voyaient quelque chose. Aucun d'entre eux n'a cru voir quelque chose de réel, mais ils ont commenté la vivacité de leur image imaginaire. "Si je n'avais pas su que j'imaginais, j'aurais cru que c'était réel", a déclaré l'un des participants.

La conclusion de Perky était que lorsque notre perception d'une chose correspond à ce que nous savons que nous imaginons, nous supposons qu'elle est imaginaire. Ce phénomène a fini par être connu en psychologie sous le nom d'effet Perky. "C'est un grand classique", déclare Bence Nanay, professeur de psychologie philosophique à l'université d'Anvers. Il est devenu en quelque sorte "obligatoire, lorsqu'on écrit sur l'imagerie, de donner son avis sur l'expérience Perky".

Dans les années 1970, le chercheur en psychologie Sydney Joelson Segal a ravivé l'intérêt pour les travaux de Perky en actualisant et en modifiant l'expérience. Dans une étude de suivi, Segal a demandé aux participants d'imaginer quelque chose, comme la ligne d'horizon de la ville de New York, pendant qu'il projetait faiblement quelque chose d'autre sur le mur, par exemple une tomate. Ce que les participants voyaient était un mélange de l'image imaginée et de l'image réelle, comme la ligne d'horizon de la ville de New York au coucher du soleil. Les résultats obtenus par Segal suggèrent que la perception et l'imagination peuvent parfois "se mélanger littéralement", a déclaré Nanay.

Toutes les études visant à reproduire les résultats de Perky n'ont pas abouti. Certaines d'entre elles ont impliqué des essais répétés pour les participants, ce qui a brouillé les résultats : Une fois que les gens savent ce que vous essayez de tester, ils ont tendance à modifier leurs réponses en fonction de ce qu'ils pensent être correct, a déclaré Naselaris.

Sous la direction de Steve Fleming, expert en métacognition à l'University College London, Dijkstra a donc mis au point une version moderne de l'expérience qui permet d'éviter ce problème. Dans leur étude, les participants n'ont jamais eu l'occasion de modifier leurs réponses car ils n'ont été testés qu'une seule fois. Les travaux ont permis de modéliser et d'examiner l'effet Perky et deux autres hypothèses concurrentes sur la manière dont le cerveau distingue la réalité de l'imagination.

Quand imagination et perception se mélangent

L'étude de Dijkstra sur les images imaginées est née dans les premiers jours de la pandémie de Covid-19, lorsque les quarantaines et les fermetures d'usines ont interrompu son programme de travail. S'ennuyant, elle a commencé à consulter la littérature scientifique sur l'imagination, puis a passé des heures à éplucher les journaux pour trouver des comptes rendus historiques sur la façon dont les scientifiques ont testé un concept aussi abstrait. C'est ainsi qu'elle est tombée sur une étude réalisée en 1910 par la psychologue Mary Cheves West Perky.

Perky a demandé à des participants d'imaginer des fruits en regardant un mur vide. Pendant qu'ils le faisaient, elle a secrètement projeté des images extrêmement faibles de ces fruits - si faibles qu'elles étaient à peine visibles - sur le mur et a demandé aux participants s'ils voyaient quelque chose. Aucun d'entre eux n'a cru voir quelque chose de réel, mais ils ont commenté la vivacité de leur image imaginaire. "Si je n'avais pas su que j'imaginais, j'aurais cru que c'était réel", a déclaré l'un des participants.

La conclusion de Perky était que lorsque notre perception d'une chose correspond à ce que nous savons que nous imaginons, nous supposons qu'elle est imaginaire. Ce phénomène a fini par être connu en psychologie sous le nom d'effet Perky. "C'est un grand classique", déclare Bence Nanay, professeur de psychologie philosophique à l'université d'Anvers. Il est devenu en quelque sorte "obligatoire, lorsqu'on écrit sur l'imagerie, de donner son avis sur l'expérience Perky".

Dans les années 1970, le chercheur en psychologie Sydney Joelson Segal a ravivé l'intérêt pour les travaux de Perky en actualisant et en modifiant l'expérience. Dans une étude de suivi, Segal a demandé aux participants d'imaginer quelque chose, comme la ligne d'horizon de la ville de New York, pendant qu'il projetait faiblement quelque chose d'autre sur le mur, par exemple une tomate. Ce que les participants voyaient était un mélange de l'image imaginée et de l'image réelle, comme la ligne d'horizon de la ville de New York au coucher du soleil. Les résultats obtenus par Segal suggèrent que la perception et l'imagination peuvent parfois "se mélanger littéralement", a déclaré Nanay.

Toutes les études visant à reproduire les résultats de Perky n'ont pas abouti. Certaines d'entre elles ont impliqué des essais répétés pour les participants, ce qui a brouillé les résultats : Une fois que les gens savent ce que vous essayez de tester, ils ont tendance à modifier leurs réponses en fonction de ce qu'ils pensent être correct, a déclaré Naselaris.

Sous la direction de Steve Fleming, expert en métacognition à l'University College London, Dijkstra a donc mis au point une version moderne de l'expérience qui permet d'éviter ce problème. Dans leur étude, les participants n'ont jamais eu l'occasion de modifier leurs réponses car ils n'ont été testés qu'une seule fois. Les travaux ont permis de modéliser et d'examiner l'effet Perky et deux autres hypothèses concurrentes sur la manière dont le cerveau distingue la réalité de l'imagination.

Réseaux d'évaluation

L'une de ces hypothèses alternatives affirme que le cerveau utilise les mêmes réseaux pour la réalité et l'imagination, mais que les scanners cérébraux d'imagerie par résonance magnétique fonctionnelle (IRMf) n'ont pas une résolution suffisamment élevée pour permettre aux neuroscientifiques de discerner les différences dans la manière dont les réseaux sont utilisés. L'une des études de Muckli, par exemple, suggère que dans le cortex visuel du cerveau, qui traite les images, les expériences imaginaires sont codées dans une couche plus superficielle que les expériences réelles.

Avec l'imagerie cérébrale fonctionnelle, "nous plissons les yeux", explique Muckli. Dans chaque équivalent d'un pixel d'un scanner cérébral, il y a environ 1 000 neurones, et nous ne pouvons pas voir ce que fait chacun d'entre eux.

L'autre hypothèse, suggérée par des études menées par Joel Pearson à l'université de Nouvelle-Galles du Sud, est que les mêmes voies cérébrales codent à la fois pour l'imagination et la perception, mais que l'imagination n'est qu'une forme plus faible de la perception.

Pendant le confinement de la pandémie, Dijkstra et Fleming ont recruté des participants pour une étude en ligne. Ils ont demandé à 400 participants de regarder une série d'images statiques et d'imaginer des lignes diagonales s'inclinant vers la droite ou vers la gauche. Entre chaque essai, ils devaient évaluer la vivacité de l'image sur une échelle de 1 à 5. Ce que les participants ne savaient pas, c'est qu'au cours du dernier essai, les chercheurs ont lentement augmenté l'intensité d'une faible image projetée de lignes diagonales - inclinées soit dans la direction que les participants devaient imaginer, soit dans la direction opposée. Les chercheurs ont ensuite demandé aux participants si ce qu'ils voyaient était réel ou imaginé.

Dijkstra s'attendait à trouver l'effet Perky, c'est-à-dire que lorsque l'image imaginée correspondait à l'image projetée, les participants considéreraient la projection comme le produit de leur imagination. Au lieu de cela, les participants étaient beaucoup plus enclins à penser que l'image était réellement présente.

Pourtant, il y avait au moins un écho de l'effet Perky dans ces résultats : Les participants qui pensaient que l'image était là la voyaient plus clairement que les participants qui pensaient qu'il s'agissait de leur imagination.

Dans une deuxième expérience, Dijkstra et son équipe n'ont pas présenté d'image lors du dernier essai. Mais le résultat a été le même : les personnes qui considéraient que ce qu'elles voyaient était plus vivant étaient également plus susceptibles de le considérer comme réel.

Ces observations suggèrent que l'imagerie dans notre esprit et les images réelles perçues dans le monde se mélangent, a déclaré Mme Dijkstra. "Lorsque ce signal mixte est suffisamment fort ou vif, nous pensons qu'il reflète la réalité. Il est probable qu'il existe un seuil au-delà duquel les signaux visuels semblent réels au cerveau et en deçà duquel ils semblent imaginaires, pense-t-elle. Mais il pourrait également s'agir d'un continuum plus graduel.

Pour savoir ce qui se passe dans un cerveau qui tente de distinguer la réalité de l'imagination, les chercheurs ont réanalysé les scanners cérébraux d'une étude antérieure au cours de laquelle 35 participants avaient imaginé et perçu avec vivacité diverses images, allant de l'arrosoir au coq.

Conformément à d'autres études, ils ont constaté que les schémas d'activité dans le cortex visuel étaient très similaires dans les deux scénarios. "L'imagerie vive ressemble davantage à la perception, mais il est moins évident de savoir si la perception faible ressemble davantage à l'imagerie", a déclaré M. Dijkstra. Il y a des indices selon lesquels le fait de regarder une image faible pourrait produire un schéma similaire à celui de l'imagination, mais les différences n'étaient pas significatives et doivent être examinées de manière plus approfondie.

(image photo - Les scanners des fonctions cérébrales montrent que les images imaginées et perçues déclenchent des schémas d'activité similaires, mais que les signaux sont plus faibles pour les images imaginées (à gauche).

Ce qui est clair, c'est que le cerveau doit être capable de réguler avec précision la force d'une image mentale pour éviter la confusion entre l'imaginaire et la réalité. "Le cerveau doit faire preuve d'un grand sens de l'équilibre", explique M. Naselaris. "Dans un certain sens, il va interpréter l'imagerie mentale aussi littéralement que l'imagerie visuelle.

Les chercheurs ont découvert que l'intensité du signal pouvait être lue ou régulée dans le cortex frontal, qui analyse les émotions et les souvenirs (entre autres fonctions). Mais on ne sait pas encore exactement ce qui détermine la vivacité d'une image mentale ou la différence entre l'intensité du signal d'imagerie et le seuil de réalité. Il pourrait s'agir d'un neurotransmetteur, de modifications des connexions neuronales ou de quelque chose de totalement différent, a déclaré Naselaris.

Il pourrait même s'agir d'un sous-ensemble de neurones différent et non identifié qui fixe le seuil de réalité et détermine si un signal doit être dévié vers une voie pour les images imaginées ou une voie pour les images réellement perçues - une découverte qui relierait parfaitement la première et la troisième hypothèse, a déclaré Muckli.

Même si les résultats sont différents des siens, qui soutiennent la première hypothèse, Muckli apprécie leur raisonnement. Il s'agit d'un "article passionnant", a-t-il déclaré. C'est une "conclusion intrigante".

Selon Peter Tse, professeur de neurosciences cognitives au Dartmouth College, l'imagination est un processus qui va bien au-delà de la simple observation de quelques lignes sur un fond bruyant. L'imagination, dit-il, c'est la capacité de regarder ce qu'il y a dans votre placard et de décider ce que vous allez faire pour le dîner, ou (si vous êtes les frères Wright) de prendre une hélice, de la coller sur une aile et de l'imaginer en train de voler.

Les différences entre les résultats de Perky et ceux de Dijkstra pourraient être entièrement dues à des différences dans leurs procédures. Mais elles laissent également entrevoir une autre possibilité : nous pourrions percevoir le monde différemment de nos ancêtres.

L'étude de Mme Dijkstra ne portait pas sur la croyance en la réalité d'une image, mais plutôt sur le "sentiment" de la réalité. Les auteurs supposent qu'en raison de la banalisation des images projetées, des vidéos et autres représentations de la réalité au XXIe siècle, notre cerveau a peut-être appris à évaluer la réalité d'une manière légèrement différente qu'il y a un siècle.

Même si les participants à cette expérience "ne s'attendaient pas à voir quelque chose, ils s'y attendaient quand même plus que si vous étiez en 1910 et que vous n'aviez jamais vu de projecteur de votre vie", a déclaré M. Dijkstra. Le seuil de réalité est donc probablement beaucoup plus bas aujourd'hui que par le passé, de sorte qu'il faut peut-être une image imaginée beaucoup plus vive pour franchir le seuil et troubler le cerveau.

Une base pour les hallucinations

Ces résultats soulèvent la question de savoir si le mécanisme pourrait s'appliquer à un large éventail de conditions dans lesquelles la distinction entre l'imagination et la perception disparaît. M. Dijkstra suppose, par exemple, que lorsque les gens commencent à s'endormir et que la réalité commence à se confondre avec le monde des rêves, leur seuil de réalité pourrait s'abaisser. Dans des cas comme la schizophrénie, où il y a une "rupture générale de la réalité", il pourrait y avoir un problème d'étalonnage, a déclaré M. Dijkstra.

"Dans la psychose, il se peut que l'imagerie soit si bonne qu'elle atteigne le seuil, ou que le seuil soit décalé", a déclaré Karolina Lempert, professeur adjoint de psychologie à l'université Adelphi, qui n'a pas participé à l'étude. Certaines études ont montré que les personnes qui ont des hallucinations présentent une sorte d'hyperactivité sensorielle, ce qui suggère que le signal de l'image est augmenté. Mais des recherches supplémentaires sont nécessaires pour établir le mécanisme par lequel les hallucinations apparaissent, a-t-elle ajouté. "Après tout, la plupart des personnes qui font l'expérience d'images vivantes n'ont pas d'hallucinations.

Nanay pense qu'il serait intéressant d'étudier les seuils de réalité des personnes souffrant d'hyperphantasie, une imagination extrêmement vive qu'elles confondent souvent avec la réalité. De même, il existe des situations dans lesquelles les personnes souffrent d'expériences imaginées très fortes qu'elles savent ne pas être réelles, comme dans le cas d'hallucinations sous l'effet de drogues ou de rêves lucides. Dans des conditions telles que le syndrome de stress post-traumatique, les gens "commencent souvent à voir des choses qu'ils ne voulaient pas voir", et cela leur semble plus réel que cela ne devrait l'être, a déclaré M. Dijkstra.

Certains de ces problèmes peuvent être liés à des défaillances des mécanismes cérébraux qui aident normalement à faire ces distinctions. Dijkstra pense qu'il serait utile d'étudier les seuils de réalité des personnes atteintes d'aphantasie, l'incapacité d'imaginer consciemment des images mentales.

Les mécanismes par lesquels le cerveau distingue ce qui est réel de ce qui est imaginaire pourraient également être liés à la manière dont il distingue les images réelles des images factices (inauthentiques). Dans un monde où les simulations se rapprochent de la réalité, il sera de plus en plus difficile de faire la distinction entre les vraies et les fausses images, a déclaré M. Lempert. "Je pense que cette question est plus importante que jamais.

Mme Dijkstra et son équipe s'efforcent à présent d'adapter leur expérience pour qu'elle fonctionne dans un scanner cérébral. "Maintenant que le confinement est terminé, je veux à nouveau examiner des cerveaux", a-t-elle déclaré.

Elle espère enfin découvrir s'il est possible de manipuler ce système pour rendre l'imagination plus réelle. Par exemple, la réalité virtuelle et les implants neuronaux font actuellement l'objet de recherches pour des traitements médicaux, notamment pour aider les aveugles à retrouver la vue. La capacité de rendre les expériences plus ou moins réelles, dit-elle, pourrait être très importante pour ces applications.

Cela n'a rien d'extraordinaire, étant donné que la réalité est une construction du cerveau.

"Sous notre crâne, tout est inventé", explique Muckli. "Nous construisons entièrement le monde, dans sa richesse, ses détails, ses couleurs, ses sons, son contenu et son excitation. ... Il est créé par nos neurones".

Cela signifie que la réalité d'une personne sera différente de celle d'une autre, a déclaré M. Dijkstra : "La frontière entre l'imagination et la réalité n'est pas si solide.

Auteur: Internet

Info: https://www.quantamagazine.org/ Yasemin Saplakoglu, Staff Writer, May 24, 2023

[ intellection ]

 

Commentaires: 0

Ajouté à la BD par miguel

trickster

Les mondes multiples d'Hugh Everett

Il y a cinquante ans, Hugh Everett a conçu l'interprétation de la mécanique quantique en l'expliquant par des mondes multiples, théorie dans laquelle les effets quantiques engendrent d'innombrables branches de l'univers avec des événements différents dans chacune. La théorie semble être une hypothèse bizarre, mais Everett l'a déduite des mathématiques fondamentales de la mécanique quantique. Néanmoins, la plupart des physiciens de l'époque la rejetèrent, et il dût abréger sa thèse de doctorat sur le sujet pour éviter la controverse. Découragé, Everett quitta la physique et travailla sur les mathématiques et l'informatique militaires et industrielles. C'était un être émotionnellement renfermé et un grand buveur. Il est mort alors qu'il n'avait que 51 ans, et ne put donc pas voir le récent respect accordé à ses idées par les physiciens.

Hugh Everett III était un mathématicien brillant, théoricien quantique iconoclaste, puis ensuite entrepreneur prospère dans la défense militaire ayant accès aux secrets militaires les plus sensibles du pays. Il a introduit une nouvelle conception de la réalité dans la physique et a influencé le cours de l'histoire du monde à une époque où l'Armageddon nucléaire semblait imminent. Pour les amateurs de science-fiction, il reste un héros populaire : l'homme qui a inventé une théorie quantique des univers multiples. Pour ses enfants, il était quelqu'un d'autre : un père indisponible, "morceau de mobilier assis à la table de la salle à manger", cigarette à la main. Alcoolique aussi, et fumeur à la chaîne, qui mourut prématurément.

L'analyse révolutionnaire d'Everett a brisé une impasse théorique dans l'interprétation du "comment" de la mécanique quantique. Bien que l'idée des mondes multiples ne soit pas encore universellement acceptée aujourd'hui, ses méthodes de conception de la théorie présagèrent le concept de décohérence quantique - explication moderne du pourquoi et comment la bizarrerie probabiliste de la mécanique quantique peut se résoudre dans le monde concret de notre expérience. Le travail d'Everett est bien connu dans les milieux de la physique et de la philosophie, mais l'histoire de sa découverte et du reste de sa vie l'est relativement moins. Les recherches archivistiques de l'historien russe Eugène Shikhovtsev, de moi-même et d'autres, ainsi que les entretiens que j'ai menés avec les collègues et amis du scientifique décédé, ainsi qu'avec son fils musicien de rock, révèlent l'histoire d'une intelligence radieuse éteinte trop tôt par des démons personnels.

Le voyage scientifique d'Everett commença une nuit de 1954, raconte-t-il deux décennies plus tard, "après une gorgée ou deux de sherry". Lui et son camarade de classe de Princeton Charles Misner et un visiteur nommé Aage Petersen (alors assistant de Niels Bohr) pensaient "des choses ridicules sur les implications de la mécanique quantique". Au cours de cette session Everett eut l'idée de base fondant la théorie des mondes multiples, et dans les semaines qui suivirent, il commença à la développer dans un mémoire. L'idée centrale était d'interpréter ce que les équations de la mécanique quantique représentent dans le monde réel en faisant en sorte que les mathématiques de la théorie elle-même montrent le chemin plutôt qu'en ajoutant des hypothèses d'interprétation aux mathématiques existantes sur le sujet. De cette façon, le jeune homme a mis au défi l'establishment physique de l'époque en reconsidérant sa notion fondamentale de ce qui constitue la réalité physique. En poursuivant cette entreprise, Everett s'attaqua avec audace au problème notoire de la mesure en mécanique quantique, qui accablait les physiciens depuis les années 1920.

En résumé, le problème vient d'une contradiction entre la façon dont les particules élémentaires (comme les électrons et les photons) interagissent au niveau microscopique quantique de la réalité et ce qui se passe lorsque les particules sont mesurées à partir du niveau macroscopique classique. Dans le monde quantique, une particule élémentaire, ou une collection de telles particules, peut exister dans une superposition de deux ou plusieurs états possibles. Un électron, par exemple, peut se trouver dans une superposition d'emplacements, de vitesses et d'orientations différentes de sa rotation. Pourtant, chaque fois que les scientifiques mesurent l'une de ces propriétés avec précision, ils obtiennent un résultat précis - juste un des éléments de la superposition, et non une combinaison des deux. Nous ne voyons jamais non plus d'objets macroscopiques en superposition. Le problème de la mesure se résume à cette question : Comment et pourquoi le monde unique de notre expérience émerge-t-il des multiples alternatives disponibles dans le monde quantique superposé ? Les physiciens utilisent des entités mathématiques appelées fonctions d'onde pour représenter les états quantiques. Une fonction d'onde peut être considérée comme une liste de toutes les configurations possibles d'un système quantique superposé, avec des nombres qui donnent la probabilité que chaque configuration soit celle, apparemment choisie au hasard, que nous allons détecter si nous mesurons le système. La fonction d'onde traite chaque élément de la superposition comme étant également réel, sinon nécessairement également probable de notre point de vue. L'équation de Schrödinger décrit comment la fonction ondulatoire d'un système quantique changera au fil du temps, une évolution qu'elle prédit comme lisse et déterministe (c'est-à-dire sans caractère aléatoire).

Mais cette élégante mathématique semble contredire ce qui se passe lorsque les humains observent un système quantique, tel qu'un électron, avec un instrument scientifique (qui lui-même peut être considéré comme un système quantique). Car au moment de la mesure, la fonction d'onde décrivant la superposition d'alternatives semble s'effondrer en un unique membre de la superposition, interrompant ainsi l'évolution en douceur de la fonction d'onde et introduisant la discontinuité. Un seul résultat de mesure émerge, bannissant toutes les autres possibilités de la réalité décrite de manière classique. Le choix de l'alternative produite au moment de la mesure semble arbitraire ; sa sélection n'évolue pas logiquement à partir de la fonction d'onde chargée d'informations de l'électron avant la mesure. Les mathématiques de l'effondrement n'émergent pas non plus du flux continu de l'équation de Schrödinger. En fait, l'effondrement (discontinuité) doit être ajouté comme un postulat, comme un processus supplémentaire qui semble violer l'équation.

De nombreux fondateurs de la mécanique quantique, notamment Bohr, Werner Heisenberg et John von Neumann, se sont mis d'accord sur une interprétation de la mécanique quantique - connue sous le nom d'interprétation de Copenhague - pour traiter le problème des mesures. Ce modèle de réalité postule que la mécanique du monde quantique se réduit à des phénomènes observables de façon classique et ne trouve son sens qu'en termes de phénomènes observables, et non l'inverse. Cette approche privilégie l'observateur externe, le plaçant dans un domaine classique distinct du domaine quantique de l'objet observé. Bien qu'incapables d'expliquer la nature de la frontière entre le domaine quantique et le domaine classique, les Copenhagueistes ont néanmoins utilisé la mécanique quantique avec un grand succès technique. Des générations entières de physiciens ont appris que les équations de la mécanique quantique ne fonctionnent que dans une partie de la réalité, la microscopique, et cessent d'être pertinentes dans une autre, la macroscopique. C'est tout ce dont la plupart des physiciens ont besoin.

Fonction d'onde universelle. Par fort effet contraire, Everett s'attaqua au problème de la mesure en fusionnant les mondes microscopique et macroscopique. Il fit de l'observateur une partie intégrante du système observé, introduisant une fonction d'onde universelle qui relie les observateurs et les objets dans un système quantique unique. Il décrivit le monde macroscopique en mécanique quantique imaginant que les grands objets existent également en superpositions quantiques. Rompant avec Bohr et Heisenberg, il n'avait pas besoin de la discontinuité d'un effondrement de la fonction ondulatoire. L'idée radicalement nouvelle d'Everett était de se demander : Et si l'évolution continue d'une fonction d'onde n'était pas interrompue par des actes de mesure ? Et si l'équation de Schrödinger s'appliquait toujours et s'appliquait aussi bien à tous les objets qu'aux observateurs ? Et si aucun élément de superposition n'est jamais banni de la réalité ? A quoi ressemblerait un tel monde pour nous ? Everett constata, selon ces hypothèses, que la fonction d'onde d'un observateur devrait, en fait, bifurquer à chaque interaction de l'observateur avec un objet superposé. La fonction d'onde universelle contiendrait des branches pour chaque alternative constituant la superposition de l'objet. Chaque branche ayant sa propre copie de l'observateur, copie qui percevait une de ces alternatives comme le résultat. Selon une propriété mathématique fondamentale de l'équation de Schrödinger, une fois formées, les branches ne s'influencent pas mutuellement. Ainsi, chaque branche se lance dans un avenir différent, indépendamment des autres. Prenons l'exemple d'une personne qui mesure une particule qui se trouve dans une superposition de deux états, comme un électron dans une superposition de l'emplacement A et de l'emplacement B. Dans une branche, la personne perçoit que l'électron est à A. Dans une branche presque identique, une copie de la personne perçoit que le même électron est à B. Chaque copie de la personne se perçoit comme unique et considère que la chance lui a donné une réalité dans un menu des possibilités physiques, même si, en pleine réalité, chaque alternative sur le menu se réalise.

Expliquer comment nous percevons un tel univers exige de mettre un observateur dans l'image. Mais le processus de ramification se produit indépendamment de la présence ou non d'un être humain. En général, à chaque interaction entre systèmes physiques, la fonction d'onde totale des systèmes combinés aurait tendance à bifurquer de cette façon. Aujourd'hui, la compréhension de la façon dont les branches deviennent indépendantes et ressemblent à la réalité classique à laquelle nous sommes habitués est connue sous le nom de théorie de la décohérence. C'est une partie acceptée de la théorie quantique moderne standard, bien que tout le monde ne soit pas d'accord avec l'interprétation d'Everett comme quoi toutes les branches représentent des réalités qui existent. Everett n'a pas été le premier physicien à critiquer le postulat de l'effondrement de Copenhague comme inadéquat. Mais il a innové en élaborant une théorie mathématiquement cohérente d'une fonction d'onde universelle à partir des équations de la mécanique quantique elle-même. L'existence d'univers multiples a émergé comme une conséquence de sa théorie, pas par un prédicat. Dans une note de bas de page de sa thèse, Everett écrit : "Du point de vue de la théorie, tous les éléments d'une superposition (toutes les "branches") sont "réels", aucun n'est plus "réel" que les autres. Le projet contenant toutes ces idées provoqua de remarquables conflits dans les coulisses, mis au jour il y a environ cinq ans par Olival Freire Jr, historien des sciences à l'Université fédérale de Bahia au Brésil, dans le cadre de recherches archivistiques.

Au printemps de 1956 le conseiller académique à Princeton d'Everett, John Archibald Wheeler, prit avec lui le projet de thèse à Copenhague pour convaincre l'Académie royale danoise des sciences et lettres de le publier. Il écrivit à Everett qu'il avait eu "trois longues et fortes discussions à ce sujet" avec Bohr et Petersen. Wheeler partagea également le travail de son élève avec plusieurs autres physiciens de l'Institut de physique théorique de Bohr, dont Alexander W. Stern. Scindages La lettre de Wheeler à Everett disait en autre : "Votre beau formalisme de la fonction ondulatoire reste bien sûr inébranlable ; mais nous sentons tous que la vraie question est celle des mots qui doivent être attachés aux quantités de ce formalisme". D'une part, Wheeler était troublé par l'utilisation par Everett d'humains et de boulets de canon "scindés" comme métaphores scientifiques. Sa lettre révélait l'inconfort des Copenhagueistes quant à la signification de l'œuvre d'Everett. Stern rejeta la théorie d'Everett comme "théologique", et Wheeler lui-même était réticent à contester Bohr. Dans une longue lettre politique adressée à Stern, il explique et défend la théorie d'Everett comme une extension, non comme une réfutation, de l'interprétation dominante de la mécanique quantique : "Je pense que je peux dire que ce jeune homme très fin, capable et indépendant d'esprit en est venu progressivement à accepter l'approche actuelle du problème de la mesure comme correcte et cohérente avec elle-même, malgré quelques traces qui subsistent dans le présent projet de thèse d'une attitude douteuse envers le passé. Donc, pour éviter tout malentendu possible, permettez-moi de dire que la thèse d'Everett ne vise pas à remettre en question l'approche actuelle du problème de la mesure, mais à l'accepter et à la généraliser."

Everett aurait été en total désaccord avec la description que Wheeler a faite de son opinion sur l'interprétation de Copenhague. Par exemple, un an plus tard, en réponse aux critiques de Bryce S. DeWitt, rédacteur en chef de la revue Reviews of Modern Physics, il écrivit : "L'Interprétation de Copenhague est désespérément incomplète en raison de son recours a priori à la physique classique... ainsi que d'une monstruosité philosophique avec un concept de "réalité" pour le monde macroscopique qui ne marche pas avec le microcosme." Pendant que Wheeler était en Europe pour plaider sa cause, Everett risquait alors de perdre son permis de séjour étudiant qui avait été suspendu. Pour éviter d'aller vers des mesures disciplinaires, il décida d'accepter un poste de chercheur au Pentagone. Il déménagea dans la région de Washington, D.C., et ne revint jamais à la physique théorique. Au cours de l'année suivante, cependant, il communiqua à distance avec Wheeler alors qu'il avait réduit à contrecœur sa thèse au quart de sa longueur d'origine. En avril 1957, le comité de thèse d'Everett accepta la version abrégée - sans les "scindages". Trois mois plus tard, Reviews of Modern Physics publiait la version abrégée, intitulée "Relative State' Formulation of Quantum Mechanics".("Formulation d'état relatif de la mécanique quantique.") Dans le même numéro, un document d'accompagnement de Wheeler loue la découverte de son élève. Quand le papier parut sous forme imprimée, il passa instantanément dans l'obscurité.

Wheeler s'éloigna progressivement de son association avec la théorie d'Everett, mais il resta en contact avec le théoricien, l'encourageant, en vain, à faire plus de travail en mécanique quantique. Dans une entrevue accordée l'an dernier, Wheeler, alors âgé de 95 ans, a déclaré qu' "Everett était déçu, peut-être amer, devant les non réactions à sa théorie. Combien j'aurais aimé continuer les séances avec lui. Les questions qu'il a soulevées étaient importantes." Stratégies militaires nucléaires Princeton décerna son doctorat à Everett près d'un an après qu'il ait commencé son premier projet pour le Pentagone : le calcul des taux de mortalité potentiels des retombées radioactives d'une guerre nucléaire. Rapidement il dirigea la division des mathématiques du Groupe d'évaluation des systèmes d'armes (WSEG) du Pentagone, un groupe presque invisible mais extrêmement influent. Everett conseillait de hauts responsables des administrations Eisenhower et Kennedy sur les meilleures méthodes de sélection des cibles de bombes à hydrogène et de structuration de la triade nucléaire de bombardiers, de sous-marins et de missiles pour un impact optimal dans une frappe nucléaire. En 1960, participa à la rédaction du WSEG n° 50, un rapport qui reste classé à ce jour. Selon l'ami d'Everett et collègue du WSEG, George E. Pugh, ainsi que des historiens, le WSEG no 50 a rationalisé et promu des stratégies militaires qui ont fonctionné pendant des décennies, notamment le concept de destruction mutuelle assurée. Le WSEG a fourni aux responsables politiques de la guerre nucléaire suffisamment d'informations effrayantes sur les effets mondiaux des retombées radioactives pour que beaucoup soient convaincus du bien-fondé d'une impasse perpétuelle, au lieu de lancer, comme le préconisaient certains puissants, des premières attaques préventives contre l'Union soviétique, la Chine et d'autres pays communistes.

Un dernier chapitre de la lutte pour la théorie d'Everett se joua également dans cette période. Au printemps 1959, Bohr accorda à Everett une interview à Copenhague. Ils se réunirent plusieurs fois au cours d'une période de six semaines, mais avec peu d'effet : Bohr ne changea pas sa position, et Everett n'est pas revenu à la recherche en physique quantique. L'excursion n'avait pas été un échec complet, cependant. Un après-midi, alors qu'il buvait une bière à l'hôtel Østerport, Everett écrivit sur un papier à l'en-tête de l'hôtel un raffinement important de cet autre tour de force mathématique qui a fait sa renommée, la méthode généralisée du multiplicateur de Lagrange, aussi connue sous le nom d'algorithme Everett. Cette méthode simplifie la recherche de solutions optimales à des problèmes logistiques complexes, allant du déploiement d'armes nucléaires aux horaires de production industrielle juste à temps en passant par l'acheminement des autobus pour maximiser la déségrégation des districts scolaires. En 1964, Everett, Pugh et plusieurs autres collègues du WSEG ont fondé une société de défense privée, Lambda Corporation. Entre autres activités, il a conçu des modèles mathématiques de systèmes de missiles anti-missiles balistiques et de jeux de guerre nucléaire informatisés qui, selon Pugh, ont été utilisés par l'armée pendant des années. Everett s'est épris de l'invention d'applications pour le théorème de Bayes, une méthode mathématique de corrélation des probabilités des événements futurs avec l'expérience passée. En 1971, Everett a construit un prototype de machine bayésienne, un programme informatique qui apprend de l'expérience et simplifie la prise de décision en déduisant les résultats probables, un peu comme la faculté humaine du bon sens. Sous contrat avec le Pentagone, le Lambda a utilisé la méthode bayésienne pour inventer des techniques de suivi des trajectoires des missiles balistiques entrants. En 1973, Everett quitte Lambda et fonde une société de traitement de données, DBS, avec son collègue Lambda Donald Reisler. Le DBS a fait des recherches sur les applications des armes, mais s'est spécialisée dans l'analyse des effets socio-économiques des programmes d'action sociale du gouvernement. Lorsqu'ils se sont rencontrés pour la première fois, se souvient M. Reisler, Everett lui a demandé timidement s'il avait déjà lu son journal de 1957. J'ai réfléchi un instant et j'ai répondu : "Oh, mon Dieu, tu es cet Everett, le fou qui a écrit ce papier dingue", dit Reisler. "Je l'avais lu à l'université et avais gloussé, le rejetant d'emblée." Les deux sont devenus des amis proches mais convinrent de ne plus parler d'univers multiples.

Malgré tous ces succès, la vie d'Everett fut gâchée de bien des façons. Il avait une réputation de buveur, et ses amis disent que le problème semblait s'aggraver avec le temps. Selon Reisler, son partenaire aimait habituellement déjeuner avec trois martinis, dormant dans son bureau, même s'il réussissait quand même à être productif. Pourtant, son hédonisme ne reflétait pas une attitude détendue et enjouée envers la vie. "Ce n'était pas quelqu'un de sympathique", dit Reisler. "Il apportait une logique froide et brutale à l'étude des choses... Les droits civils n'avaient aucun sens pour lui." John Y. Barry, ancien collègue d'Everett au WSEG, a également remis en question son éthique. Au milieu des années 1970, Barry avait convaincu ses employeurs chez J. P. Morgan d'embaucher Everett pour mettre au point une méthode bayésienne de prévision de l'évolution du marché boursier. Selon plusieurs témoignages, Everett avait réussi, puis il refusa de remettre le produit à J. P. Morgan. "Il s'est servi de nous", se souvient Barry. "C'était un individu brillant, innovateur, insaisissable, indigne de confiance, probablement alcoolique." Everett était égocentrique. "Hugh aimait épouser une forme de solipsisme extrême", dit Elaine Tsiang, ancienne employée de DBS. "Bien qu'il eut peine à éloigner sa théorie [des monde multiples] de toute théorie de l'esprit ou de la conscience, il est évident que nous devions tous notre existence par rapport au monde qu'il avait fait naître." Et il connaissait à peine ses enfants, Elizabeth et Mark. Alors qu'Everett poursuivait sa carrière d'entrepreneur, le monde de la physique commençait à jeter un regard critique sur sa théorie autrefois ignorée. DeWitt pivota d'environ 180 degrés et devint son défenseur le plus dévoué. En 1967, il écrivit un article présentant l'équation de Wheeler-DeWitt : une fonction d'onde universelle qu'une théorie de la gravité quantique devrait satisfaire. Il attribue à Everett le mérite d'avoir démontré la nécessité d'une telle approche. DeWitt et son étudiant diplômé Neill Graham ont ensuite publié un livre de physique, The Many-Worlds Interpretation of Quantum Mechanics, qui contenait la version non informatisée de la thèse d'Everett. L'épigramme "mondes multiples" se répandit rapidement, popularisée dans le magazine de science-fiction Analog en 1976. Toutefois, tout le monde n'est pas d'accord sur le fait que l'interprétation de Copenhague doive céder le pas. N. David Mermin, physicien de l'Université Cornell, soutient que l'interprétation d'Everett traite la fonction des ondes comme faisant partie du monde objectivement réel, alors qu'il la considère simplement comme un outil mathématique. "Une fonction d'onde est une construction humaine", dit Mermin. "Son but est de nous permettre de donner un sens à nos observations macroscopiques. Mon point de vue est exactement le contraire de l'interprétation des mondes multiples. La mécanique quantique est un dispositif qui nous permet de rendre nos observations cohérentes et de dire que nous sommes à l'intérieur de la mécanique quantique et que la mécanique quantique doive s'appliquer à nos perceptions est incohérent." Mais de nombreux physiciens avancent que la théorie d'Everett devrait être prise au sérieux. "Quand j'ai entendu parler de l'interprétation d'Everett à la fin des années 1970, dit Stephen Shenker, physicien théoricien à l'Université Stanford, j'ai trouvé cela un peu fou. Maintenant, la plupart des gens que je connais qui pensent à la théorie des cordes et à la cosmologie quantique pensent à quelque chose qui ressemble à une interprétation à la Everett. Et à cause des récents développements en informatique quantique, ces questions ne sont plus académiques."

Un des pionniers de la décohérence, Wojciech H. Zurek, chercheur au Los Alamos National Laboratory, a commente que "l'accomplissement d'Everett fut d'insister pour que la théorie quantique soit universelle, qu'il n'y ait pas de division de l'univers entre ce qui est a priori classique et ce qui est a priori du quantum. Il nous a tous donné un ticket pour utiliser la théorie quantique comme nous l'utilisons maintenant pour décrire la mesure dans son ensemble." Le théoricien des cordes Juan Maldacena de l'Institute for Advanced Study de Princeton, N.J., reflète une attitude commune parmi ses collègues : "Quand je pense à la théorie d'Everett en mécanique quantique, c'est la chose la plus raisonnable à croire. Dans la vie de tous les jours, je n'y crois pas."

En 1977, DeWitt et Wheeler invitèrent Everett, qui détestait parler en public, à faire une présentation sur son interprétation à l'Université du Texas à Austin. Il portait un costume noir froissé et fuma à la chaîne pendant tout le séminaire. David Deutsch, maintenant à l'Université d'Oxford et l'un des fondateurs du domaine de l'informatique quantique (lui-même inspiré par la théorie d'Everett), était là. "Everett était en avance sur son temps", dit Deutsch en résumant la contribution d'Everett. "Il représente le refus de renoncer à une explication objective. L'abdication de la finalité originelle de ces domaines, à savoir expliquer le monde, a fait beaucoup de tort au progrès de la physique et de la philosophie. Nous nous sommes irrémédiablement enlisés dans les formalismes, et les choses ont été considérées comme des progrès qui ne sont pas explicatifs, et le vide a été comblé par le mysticisme, la religion et toutes sortes de détritus. Everett est important parce qu'il s'y est opposé." Après la visite au Texas, Wheeler essaya de mettre Everett en contact avec l'Institute for Theoretical Physics à Santa Barbara, Californie. Everett aurait été intéressé, mais le plan n'a rien donné. Totalité de l'expérience Everett est mort dans son lit le 19 juillet 1982. Il n'avait que 51 ans.

Son fils, Mark, alors adolescent, se souvient avoir trouvé le corps sans vie de son père ce matin-là. Sentant le corps froid, Mark s'est rendu compte qu'il n'avait aucun souvenir d'avoir jamais touché son père auparavant. "Je ne savais pas quoi penser du fait que mon père venait de mourir, m'a-t-il dit. "Je n'avais pas vraiment de relation avec lui." Peu de temps après, Mark a déménagé à Los Angeles. Il est devenu un auteur-compositeur à succès et chanteur principal d'un groupe de rock populaire, Eels. Beaucoup de ses chansons expriment la tristesse qu'il a vécue en tant que fils d'un homme déprimé, alcoolique et détaché émotionnellement. Ce n'est que des années après la mort de son père que Mark a appris l'existence de la carrière et des réalisations de son père. La sœur de Mark, Elizabeth, fit la première d'une série de tentatives de suicide en juin 1982, un mois seulement avant la mort d'Everett. Mark la trouva inconsciente sur le sol de la salle de bain et l'amena à l'hôpital juste à temps. Quand il rentra chez lui plus tard dans la soirée, se souvient-il, son père "leva les yeux de son journal et dit : Je ne savais pas qu'elle était si triste."" En 1996, Elizabeth se suicida avec une overdose de somnifères, laissant une note dans son sac à main disant qu'elle allait rejoindre son père dans un autre univers. Dans une chanson de 2005, "Things the Grandchildren Should Know", Mark a écrit : "Je n'ai jamais vraiment compris ce que cela devait être pour lui de vivre dans sa tête". Son père solipsistiquement incliné aurait compris ce dilemme. "Une fois que nous avons admis que toute théorie physique n'est essentiellement qu'un modèle pour le monde de l'expérience, conclut Everett dans la version inédite de sa thèse, nous devons renoncer à tout espoir de trouver quelque chose comme la théorie correcte... simplement parce que la totalité de l'expérience ne nous est jamais accessible."

Auteur: Byrne Peter

Info: 21 octobre 2008, https://www.scientificamerican.com/article/hugh-everett-biography/. Publié à l'origine dans le numéro de décembre 2007 de Scientific American

[ légende de la physique théorique ] [ multivers ]

 

Commentaires: 0

Ajouté à la BD par miguel

septénaire partout

Rubrique pour les maniaques de ce chiffre symbole (en développement)

Sciences physiques -  du micro au macro,  de l'abiotique au biotique (non organique/organique) via cette hiérarchie septénaire orthogonale* : atomes - molécules - organites/cellules - tissus - organes/systèmes - individus -  organismes/population/socio    

- Dans le domaine de la physique des particules on dénombre sept types de particules élémentaires, à savoir les six quarks et l'électron (ou deux fois 7 - ce qui est encore plus transcendant). Plus précisément, il s'agit de "saveurs" de quarks. Les quarks up, down, charm, strange, top et bottom, plus un septième quark théorique appelé "top-bottom". Les quarks sont les éléments constitutifs des protons et des neutrons, qui sont les particules composant le noyau d'un atome. Ces particules sont considérées comme élémentaires car elles ne peuvent pas être divisées en sous-particules plus petites.

- On observe que certaines particules élémentaires, telles que le boson de Higgs, ont une masse qui est d'environ 126 fois celle du proton, qui est un multiple de sept.

- Le tableau périodique des éléments compte sept lignes ou groupes, chacun correspondant à un niveau d'énergie spécifique pour les électrons dans l'atome, chaque période contient un nombre précis d'éléments, la première période comptant deux éléments (hydrogène et hélium), la deuxième période huit éléments, et ainsi de suite. Tableau périodique, inspiré par un songe à son découvreur, Dmitri Mendeleïev. Cette structure correspond au sept éléments de l'échelle d'électronégativité de Pauling.

- Le chiffre 7 est le numéro atomique de l'azote, dont le noyau contient sept protons et sept neutrons. Il s'agit d'un élément très réactif, essentiel à la vie, constituant majoritaire de l'atmosphère terrestre. Ainsi la masse d'un seul atome d'azote est de 14, nombre de nucléons (protons et neutrons) que l'on retrouve dans un des deux isotopes les plus courants du nitrogène, l'azote 14. Il constitue environ 78 % de l'air terrestre et dont les atomes spécifiques  azote (14N) - composent la haute atmosphère et interceptent une partie du rayonnement cosmique.

Science - chimie

- L'atome de silicium, élément chimique avec le symbole Si, abrite 2 X sept protons dans son noyau. Ce métalloïde  tétravalent appartient au groupe 14 du tableau périodique (quatorzième colonne, comprenant le carbone (C), le silicium (Si), le germanium (Ge), l’étain (Sn) et le plomb (Pb). C'est l'élément le plus abondant dans la croûte terrestre après l'oxygène, soit 25,7 % de sa masse, mais il n'est comparativement présent qu'en relativement faible quantité dans la matière constituant le vivant.

- Classes d'universalité : Les modèles avec contraintes cinétiques critiques ont 7 classes d'universalité

- Groupes fonctionnels : Les groupes fonctionnels sont des atomes ou des groupes d'atomes spécifiques responsables des réactions chimiques caractéristiques d'une molécule. Il existe sept types de groupes fonctionnels : hydroxyle, méthyle, carbonyle, carboxyle, amino, phosphate et sulfhydryle

-  Il y a  7 angles de torsion clés par nucléotide qui définissent la conformation du squelette sucre-phosphate dans les acides nucléiques comme l'ADN et l'ARN.

- La bactériorhodopsine, petite protéine qu'on trouve chez les halobactéries, fonctionne comme une pompe à protons utilisant l'énergie lumineuse pour générer un gradient de protons à travers la membrane cellulaire. Constituée de 248 acides aminés elle se présente sous forme d'un homotrimère à symétrie cylindrique. Chacune des trois unités identiques a une structure en sept hélices α transmembranaires — structure dite opsine — emprisonnant un chromophore

- Les enzymes sont des protéines qui catalysent les réactions biochimiques dans les organismes vivants. Elle peuvent être classées en sept catégories selon le type de réaction qu'elles catalysent. Ces catégories sont les oxydoréductases, les transférases, les hydrolases, les lyases, les isomérases, les ligases et les translocases. Parmi ces catégories, les oxydoréductases, les transférases et les hydrolases sont les formes d'enzymes les plus abondantes.

-  La traduction des protéines, également appelée la synthèse des protéines à partir de l'ARN, est un processus biologique essentiel. Il se produit dans les ribosomes des cellules. Il implique plusieurs étapes enzymatiques qui se déroulent de manière séquentielle en sept étapes. Etapes qui peuvent être résumées comme suit :

A) Initiation : Le processus commence par la liaison de la petite sous-unité ribosomale à la molécule d'ARN messager (ARNm). Cela est suivi par le recrutement de l'ARN de transfert initiateur et l'assemblage de la grande sous-unité ribosomale.


B) Élongation (3 étapes) : Pendant l'élongation, le ribosome se déplace le long de la molécule d'ARNm et facilite l'ajout d'acides aminés à la chaîne polypeptidique en cours de croissance. L'élongation comprend trois étapes : la liaison de l'ARN de transfert aminoacylé, la formation de la liaison peptidique et la translocation.

C) Terminaison (3 étapes) : La terminaison se produit lorsqu'un codon stop est atteint sur la molécule d'ARNm. Elle implique la reconnaissance du codon stop par des facteurs de libération, ce qui entraîne la libération de la chaîne polypeptidique complète du ribosome.

Après la terminaison, le ribosome se désassemble et ses sous-unités sont libérées pour être utilisées dans de nouvelles étapes de la synthèse des protéines. Le recyclage du ribosome garantit l'utilisation efficace des ressources cellulaires.

Ces 7 étapes enzymatiques d'initiation, d'élongation, de terminaison et de recyclage du ribosome constituent le processus de traduction des protéines. Elles sont étroitement régulées et orchestrées de manière précise pour assurer une synthèse des protéines précise et efficace dans les cellules.

- Biomolécules : Les biomolécules sont les molécules qui composent les organismes vivants. Il existe quatre classes de biomolécules : les glucides, les lipides, les protéines et les acides nucléiques. Au sein de ces classes existe sept niveaux d'organisation : monomères, oligomères, polymères, domaines, motifs, plis et structure quaternaire. (à consolider vérifier). Ici perplexity.ai me propose ceci :  1  Atomes, briques élémentaires de base, principalement le carbone, l'hydrogène, l'oxygène et l'azote pour les biomolécules.  2 Molécules : Les atomes sont liés entre eux par des liaisons covalentes pour former des molécules organiques comme le glucose, les acides aminés, les acides gras, etc.  3  Monomères -  Ce sont les plus petites unités constitutives des biomolécules, comme les acides aminés pour les protéines, les nucléotides pour les acides nucléiques, etc.  4  Oligomères.  Petits polymères formés par quelques monomères liés, comme les dipeptides, les trinucléotides.  5 Polymères :  Grandes molécules formées par la répétition de nombreux monomères, comme les protéines, les acides nucléiques, les polysaccharides. 6  Domaines/Motifs structuraux : Régions compactes au sein des polymères ayant une structure et une fonction particulières, comme les feuillets β ou les hélices α dans les protéines.  7 : Structure quaternaire, Organisation de plusieurs chaînes polymériques en complexes macromoléculaires, comme les ribosomes formés de plusieurs ARN et protéines.

-  Sous le nom de cycle de Calvin-Benson le processue de photosynthèse se déroule généralement en sept étapes  divisées en deux séries de réactions qui ont lieu dans différentes régions des chloroplastes végétaux : la réaction dépendante de la lumière et les réactions indépendantes de la lumière ou “ sombres ”. La réaction dépendante de la lumière a lieu dans la membrane thylakoïdienne du chloroplaste. Elle convertit l’énergie lumineuse en énergie chimique, stockée sous forme d’ATP et de NADPH**. Cette énergie est ensuite utilisée dans la région du stroma du chloroplaste, pour réduire le dioxyde de carbone atmosphérique en glucides complexes grâce aux réactions indépendantes de la lumière du cycle de Calvin-Benson, essentiel pour la fixation du carbone et la production d'oxygène dans l'atmosphère qui permettent la vie sur Terre. Ces 7 étapes sont : (1ère série, phase claire, dépendant de la lumière) L'énergie du soleil est absorbée.  L'eau est décomposée.  Les ions hydrogène sont transportés à travers la membrane du thylakoïde.  (2e série, phase sombre, indépendante de la lumière)  Capture du dioxyde de carbone atmosphérique (CO2), Le NADPH est produit à partir du NADP+.  Les ions hydrogène diffusent à travers le canal protéique.  L'ADP devient de l'ATP.

- Le processus de division cellulaire chez les bactéries est régulé par une variété de protéines, y compris FtsZ, qui forme une structure en forme d'anneau connue sous le nom d'anneau Z sur le site de la division cellulaire. L'anneau Z est composé de sept sous-unités FtsZ.

-  En médecine les bactéries peuvent former des structures complexes appelées biofilms, (la plaque dentaire par exemple) qui consistent en une communauté de micro-organismes entourés d'une matrice de substances polymériques extracellulaires. La formation d'un biofilm comporte sept étapes distinctes (cinq selon d'autres sources). Ces biofilms bactériens sont prédominants dans les écosystèmes naturels et constituent une menace pour la santé publique en raison de leur résistance exceptionnelle aux traitements antibactériens et en particulier aux antibiotiques.

-  il existe sept plis protéiques différents parmi les dix vraies familles de cellulases qui sont les enzymes aptes à décomposer la cellulose. Elles sont produites typiquement par des bactéries, champignons et des protozoaires, qui jouent un rôle majeur dans la digestion par les animaux, et dans la transformation de la matière organique végétale en humus dans le sol. Elles ont aussi des applications biotechnologiques et industrielles. Sept plis protéiques qui correspondent à sept types de cellulases : Endo-cellulases: qui cassent la structure cristalline de la cellulose en chaînes polysaccharidiques. Exo-cellulases (cellobiohydrolases, 'CBH'): qui coupent 2-4 unités aux terminaisons des chaînes polysaccharides, libérant par exemple le cellobiose. Elles travaillent progressivement soit depuis la terminaison réductrice, soit depuis l'autre. β-glucosidases (Cellobiase): elles hydrolysent les chaînes polysaccharidiques en monosaccharides. Oxidative cellulases: elles depolymérisent la cellulose. Cellulose phosphorylases: elles depolymérisent la cellulose en utilisant des phosphates. pectinases: elles hydrolysent la pectine. hémicellulases: qui hydrolysent l'hémicellulose

- Une cellule recense septs organites autour de son noyau, centre de contrôle de la cellule qui contient son génome, c'est à dire l'ensemble de son ADN.

Réticulum endoplasmique : Le réticulum endoplasmique est un réseau de membranes qui transporte des protéines et des lipides dans la cellule. Il existe deux types de réticulum endoplasmique : le réticulum endoplasmique rugueux, qui est recouvert de ribosomes, et le réticulum endoplasmique lisse, qui n'est pas recouvert de ribosomes.

Appareil de Golgi : L'appareil de Golgi est un ensemble de saccules qui modifie et trie les protéines et les lipides avant de les transporter hors de la cellule.

Lysosomes : Les lysosomes sont des sacs remplis d'enzymes qui décomposent les déchets et les cellules endommagées.

Mitochondries : Les mitochondries sont les centrales énergétiques de la cellule. Elles produisent de l'ATP, qui est la forme d'énergie que la cellule utilise pour fonctionner.

Chloroplastes : Les chloroplastes sont des organites trouvés dans les cellules végétales. Ils contiennent de la chlorophylle, qui permet aux plantes de produire de la nourriture par photosynthèse.

Centrioles : Les centrioles sont des structures cylindriques qui jouent un rôle dans la division cellulaire.

Cytosquelette : Le cytosquelette est un réseau de filaments qui donne à la cellule sa forme et sa structure. Il permet également à la cellule de se déplacer et de se déplacer.

- Conception de médicaments : Le processus de conception de nouveaux médicaments implique l'étude de l'interaction entre les molécules et les cibles biologiques. La conception d'un médicament comporte sept étapes : l'identification de la cible, la génération de pistes, l'optimisation des pistes, le développement préclinique, le développement clinique, l'approbation réglementaire et la surveillance post-commercialisation.

- L'échelle de PH, système de mesure utilisé pour quantifier l'acidité ou l'alcalinité (basicité) d'une solution, s'étend de 0 à 14 (zéro plus 2 fois sept), la valeur 7 étant considérée comme neutre. L'échelle de pH suit un système de classification structuré en sept parties ou stades :

- Les sept systèmes minéraux cristallins: - Cubique ou isométrique, - Quadratique ou tétragonal, - Orthorhombique, - Monoclinique, - Triclinique, - Hexagonal, - Rhomboédrique.

- Pour ce qui concerne la séparation taxonomique "végétal - animal" une équipe a trouvé 14 groupes de gènes qui apparaissaient sur des chromosomes distincts chez les méduses à peigne et leurs parents unicellulaires "non animaux". Il est intéressant de noter que chez les éponges et tous les autres animaux, ces gènes ont été réarrangés en sept groupes.

- Les sept caractéristiques biologique du vivant  : mouvement respiration excitabilité croissance reproduction nutrition excrétion.

- Tous les groupes d'organismes vivants partagent sept caractéristiques ou fonctions clés : ordre, sensibilité aux stimuli, reproduction, adaptation, croissance et développement, régulation homéostasique et traitement de l'énergie.

- Rythmes biologiques : En chronobiologie, l'étude des rythmes biologiques, certains cycles présentent une période proche de sept jours. Par exemple, le cycle menstruel chez l'humain est en moyenne de 28 jours, qui peuvent être divisés en quatre intervalles d'environ sept jours.

- Les sept couleurs de l'arc en ciel (violet, indigo, bleu, vert, jaune, orange, rouge). Que l'on peut appréhender comme un système double :

Les sept couleurs verticales en synthèse additive (lumière) 3 primaires (bleu, vert, rouge) 3 secondaires (cyan, magenta, jaune) 1 finale (blanche) avec les sept superposées

Les sept couleurs verticales en synthèse soustractive (matière, impression graphique) 3 primaires (jaune, cyan, magenta) 3 secondaires (rouge, vert,bleu) 1 finale (noir) avec les sept superposées. Ces deux rubriques additive et soustractive sont peut-être à rapprocher avec les 6 quarks et l'electron. Ce dernier représentant alternativement blanc et/ou noir... Toutes données bien entendu en rapport direct avec la cognition humaine.


- Selon Paul Jorion les populations Xwéda (Région de l'ex Dahomey) ont opéré le regroupement des phénomènes naturels en vastes catégories reproduisant les sept modèles élémentaires de la théorie géométrique des catastrophes de René Thom.

- Ce dernier, s'appuyant sur les travaux de Hassler Withney, réussit à démontrer dans ses "Modèles mathématiques de la morphogenèse" qu'il y a sept potentiels organisateurs, ni plus ni moins, c'est à dire sept types de catastrophes qui sont, par ordre de complexité croissante : pli, fronce, queue d'aronde, papillon, ombilic hyperbolique, ombilic elliptique et ombilic parabolique.

- Les afficheurs électroniques à sept segments

-  Les 7 composants de l'écosystème de l'infrastructure des système informatques, à savoir ; Plateformes Internet  (apache   microsoft   apache  cisco), Plateformes matérielles  (IBM  Dell   Machines linux), Plateformes de systèmes d'exploitation (windows, apple, linux), Applications logicielles d'entreprise (erp entreprise ressource planning), Réseaux et téécommunications (window server, ATT,  northel), Consultant et intgrateurs de systèmes  (services ). Traitement et stockage de données   (sql  oracle, etc)  

- Les sept couches du modèle OSI : Le modèle OSI (Open Systems Interconnection) est un modèle conceptuel qui décrit les fonctions de communication d'un système informatique. Le modèle se compose de sept couches, chacune d'entre elles correspondant à un type spécifique de fonction réseau.

- Les sphères d’action de Vladimir Propp dans son ouvrage fondateur, "Morphology of the Folktale", où il identifie différents rôles de personnages et fonctions narratives dans les contes de fées russes. Ces sept sphères d'action de l'analyse de Propp sont  :

1) Sphère de la méchanceté ou du manque du méchant : Cette sphère comprend les actions liées au méchant ou à l'antagoniste, telles que ses mauvaises intentions ou son manque initial de quelque chose d'important.

2) Sphère du donateur : Cette sphère comprend les actions impliquant un personnage qui fournit de l'aide ou des objets magiques au héros.

3) Sphère du départ du héros : Les actions liées au départ du héros de son lieu initial ou à la mise en route de son voyage relèvent de cette sphère.

4) Sphère du voyage du héros : Cette sphère englobe les actions et les événements qui se produisent au cours de la quête ou du voyage du héros, y compris les rencontres avec des aides, le franchissement d'obstacles et l'acquisition de connaissances ou de capacités.

5) Sphère de la lutte du héros : Les actions liées au conflit principal du héros ou à sa lutte contre le méchant font partie de cette sphère.

6) Sphère de la reconnaissance du héros : Cette sphère comprend les actions au cours desquelles le héros est reconnu ou identifié d'une manière significative.

7) Sphère du retour du héros : Les actions liées au retour du héros à son lieu initial ou à son domicile après avoir achevé son voyage entrent dans cette sphère.

- Les sept points de convergence entre pragmatisme et logique mathématique identifiés par Vailat i (Giovanni Vailati, "Pragmatism and Mathematical Logic", The Monist, 16.4, 1906, p. 481-491)

En mathématique 

Le chiffre sept présente quelques relations intéressantes avec les nombres premiers  dont il fait lui-même partie. Sept fait  en outre partie d'une paire de nombres premiers jumeaux, qui sont des nombres premiers qui diffèrent par deux. La paire de nombres premiers jumeaux contenant sept est (5, 7), les deux nombres étant premiers. Il y a aussi le tamis d'Ératosthène : Lorsque l'on utilise le crible d'Ératosthène, une méthode pour trouver les nombres premiers, le sept est le premier nombre à être rayé après les nombres premiers initiaux (2, 3, 5). Il marque le début du cycle suivant dans le tamis.

- Les septs éléments de la formule mathématique de l'identité d'Euler    e^(iπ) = -1   c'est à dire les trois constantes mathématiques les plus remarquables  à savoir :

  e   base du logarythme naturel    π  constante mystérieuse des maths    i   l'unité imaginaire à la base des nombres complexes, etc

combiné avec ces 4 symboles

   0, l'élément neutre de l'addition

   1, l'élément neutre de la multiplication

   + , qui représente l'addition, la multiplication et la puissance

   = , qui représente l'égalité

- Constante de Kaprekar est une propriété mathématique unique à laquelle il faut au maximum 7 étapes pour obtenir ce qu'on appelle également la constante 6174 qui est obtenue à partir de n'importe quel nombre à quatre chiffres non tous égaux. 

- Les sept tuples de la machine de Turing.   Q : l'ensemble fini des états. ∑ : l'ensemble fini des symboles d'entrée. T : le symbole de la bande. q0 : l'état initial. F : un ensemble d'états finaux. B : un symbole vide utilisé comme marqueur de fin d'entrée. δ : une fonction de transition ou de mise en correspondance.  On la résume donc sous le 7-tupels suivant :  (Q,∑Γ,δ,q0,B,F) 

- Nombre parfait : Bien que le 7 ne soit pas un nombre parfait, il est étroitement lié aux nombres parfaits. Un nombre parfait est un nombre entier positif égal à la somme de ses diviseurs propres (diviseurs positifs autres que lui-même). Les premiers nombres parfaits sont 6, 28, 496, 8128, etc. Il est intéressant de noter que la somme des réciproques des diviseurs propres de 7 est égale à 8, soit deux fois 7, ce qui en fait un "nombre presque parfait".

- Tuiles planes : Il existe exactement trois tuiles planes régulières qui n'utilisent qu'un seul polygone régulier, et l'une d'entre elles utilise sept hexagones réguliers disposés autour d'un seul point.

- Nombre magique : Un nombre magique est un nombre qui peut être exprimé comme la somme des cubes de ses chiffres. Le seul nombre magique à deux chiffres est 27, qui est égal à 2^3 + 7^3. Le seul nombre magique à un chiffre est 1.

- Heptagone : Un heptagone est un polygone à sept côtés. C'est le seul polygone régulier avec un nombre premier de côtés qui peut être construit à l'aide d'un compas et d'une règle.

- Le nombre premier de Belphégor : 100000000000006660000000001 est un nombre premier qui contient 13 chiffres de 6 suivis du chiffre 7, suivis de 13 autres chiffres de 0, suivis de 1. Ce nombre est parfois appelé le nombre premier de Belphégor, du nom d'un démon du même nom.

- Les sept ponts de Königsberg : Le célèbre problème des sept ponts de Königsberg, issu de la théorie des graphes, concerne un réseau de sept ponts reliant deux îles et deux rives, et pose la question de savoir s'il est possible de traverser chaque pont exactement une fois et de revenir au point de départ. Ce problème a jeté les bases du domaine de la topologie en mathématiques.

- Nombre catalan : Les nombres catalans sont une séquence de nombres qui apparaissent dans de nombreux contextes mathématiques, notamment pour compter le nombre de façons d'arranger divers objets et dans l'analyse des algorithmes. Le septième nombre catalan est 429, qui représente le nombre de façons d'insérer des parenthèses dans une séquence de six éléments.

- Victoire pythagoricienne : Selon la légende, le mathématicien grec Pythagore aurait découvert la relation entre les côtés d'un triangle rectangle (a^2 + b^2 = c^2) en étudiant les propriétés du chiffre 7. Cette découverte, connue sous le nom de théorème de Pythagore, est devenue l'un des théorèmes les plus fondamentaux de la géométrie et des mathématiques.

- En géométrie algébrique existe un théorème célèbre appelé classification des surfaces d'Enriques-Kodaira, qui classe toutes les surfaces algébriques projectives lisses jusqu'à la déformation. L'une des étapes clés de la preuve de ce théorème implique l'étude d'un objet particulier appelé surface K3, qui est une surface projective lisse de dimension 2 qui possède un faisceau canonique trivial et est holomorphiquement symplectique. Il est intéressant de noter que les surfaces K3 possèdent toujours exactement 22 points doubles rationnels isolés, qui sont des points singuliers pouvant être modélisés localement sur l'ensemble zéro de l'équation x^2 + y^2 + z^2 + w^2 + t^2 + ut + vt = 0, où (x,y,z,w,t,u,v) sont des coordonnées dans l'espace complexe à 7 dimensions.

- La conjecture de Poincaré a notoirement été prouvée par le mathématicien Grigori Perelman en 2002-2003. Ce théorème stipule que tout 3-manifold fermé et simplement connecté est homéomorphe à la 3-sphère. On notera que la preuve de ce théorème repose sur l'étude de structures géométriques avec des groupes d'isométrie à 7 dimensions, connues sous le nom de manifolds G2. Dit autrement une 3-sphère (ou glome ou hypersphère, qui est un analogue de dimension supérieure de la sphère) est l'analogue d'une sphère en dimension quatre. C'est l'ensemble des points équidistants d'un point central fixé dans un espace euclidien à 4 dimensions. Tout comme une sphère ordinaire (ou 2-sphère) est une surface bidimensionnelle formant la frontière d'une boule en trois dimensions, une 3-sphère est un objet à trois dimensions formant la frontière d'une boule à quatre dimensions. Une 3-sphère est un exemple de variété (différentielle) de dimension 3. 

Religions, spiritualités et traditions mondiales

Voici quelques exemples de l'importance du chiffre sept dans les cultures africaines : (à vérifier)

- Sept puissances africaines : Dans les religions afro-caribéennes et afro-latines telles que la Santeria et le Candomble, il existe un concept connu sous le nom des "Sept Puissances Africaines" ou "Sept Orishas Africains". Il s'agit de sept divinités ou esprits représentant différents aspects de la vie et de la nature, tels que l'amour, la sagesse et la protection.

- Sept directions : Certaines cultures africaines reconnaissent sept directions cardinales, dont les quatre directions principales (nord, sud, est, ouest) et trois directions supplémentaires : le haut (le ciel), le bas (la terre) et le centre (qui représente l'équilibre et l'harmonie).

- Rites d'initiation : Dans certains rites d'initiation africains, il y a souvent sept étapes ou rituels auxquels les individus doivent se soumettre pour passer d'un statut social ou spirituel à un autre. Ces étapes peuvent comprendre des tests, des enseignements et des cérémonies.

- Systèmes de divination : Certains systèmes de divination africains, comme la divination Yoruba Ifa, utilisent des ensembles d'outils de divination composés de 16 ou 256 éléments. Ces ensembles sont ensuite divisés en quatre groupes de sept, représentant différents modèles symboliques et interprétations.

- Dans l'Égypte ancienne, il y avait 7 étapes vers le jugement final dans l'au-delà.

- Dans la culture chinoiseLe chiffre sept revêt aussi une grande importance culturelle et historique, au-delà de la culture occidentale on y trouve ces exemples notables :

Les sept corps célestes : Dans la cosmologie chinoise ancienne, sept corps célestes étaient considérés comme importants : le Soleil, la Lune, Mars, Mercure, Jupiter, Vénus et Saturne. Ces corps étaient censés avoir une influence sur les affaires humaines et étaient associés à divers éléments, directions et couleurs.

Les sept étoiles de la Grande Ourse : La Grande Ourse, appelée "Ourse du Nord" dans la mythologie chinoise, est un astérisme important. On pense qu'elle est composée de sept étoiles, qui ont une signification dans divers contextes culturels et spirituels. La Grande Ourse est associée à l'orientation, à la protection et à la navigation.

Les sept trésors : Dans l'art et le symbolisme chinois, il existe sept trésors appelés les "sept trésors du bouddhisme". Ces trésors comprennent l'or, l'argent, le lapis-lazuli, le cristal, l'agate, le corail et une conque blanche. Ils représentent la richesse, la prospérité, les qualités spirituelles et le bon augure.

Les sept vertus : Le confucianisme, philosophie influente de la culture chinoise, met l'accent sur les valeurs éthiques et les vertus. L'un des enseignements fondamentaux du confucianisme est la culture des "sept vertus" ou "sept constantes", qui comprennent la bienveillance, la droiture, la bienséance, la sagesse, la fiabilité, la loyauté et la piété filiale.

Il y a aussi, dans la culture chinoise, le septième mois du calendrier lunaire est connu sous le nom de mois des fantômes et est rempli de superstitions et de tabous.

- La Torah mentionne 7 bénédictions et 7 malédictions.

- Ménorah à sept branches : La ménorah à sept branches est un chandelier symbolique utilisé lors des cérémonies religieuses juives. La ménorah a sept branches qui représentent les sept jours de la création dans le livre de la Genèse.

- Les sept anges qui se tiennent devant Dieu: Zadkiel, Gabriel, Japhiel, Michel, Saltiel et Uriel. Dans l'apocalypse, il y a aussi sept sceaux, sept trompettes, sept candélabres d'or, sept lettres adressées aux sept églises, sept tonnerres, etc... - Les sept patriarches bibliques : Aaron, Abraham, Isaac, Jacob, Joseph, Moïse et David

- Les 7 princes des Enfers sont Mammon, Azazel, Belzébuth, Asmodée, Belphégor, Dispater et Méphistophélès.

- Dans le christianisme le 7 représente l'achèvement ou la perfection, comme dans les jours de la création du monde du livre de la Genèse où Dieu est décrit comme ayant achevé son œuvre et se reposant le septième jour.

- Sept vertus cardinales : Dans la tradition chrétienne, les sept vertus cardinales sont un ensemble de vertus considérées comme essentielles à une vie vertueuse. Ces vertus sont la prudence, la justice, la tempérance, la force d'âme, la foi, l'espérance et la charité.

- L'Apocalypse, dans le Nouveau Testament, mentionne les sept sceaux, les sept trompettes et les sept coupes de la colère.

- L'Église catholique compte sept sacrements : le baptême, la confirmation, l'eucharistie, la réconciliation, l'onction des malades, l'ordre sacré et le mariage.

- Les 14 ( 2 x 7) stations du chemin de croix :  1ère station : Jésus est condamné à mort.  2e station :  Jésus est chargé de sa croix. 3e station : Jésus tombe sous le bois de la croix.  4e station : Jésus rencontre sa Mère. 5e station : Simon de Cyrène aide Jésus à porter sa croix.  6e station : Véronique essuie la face de Jésus. 7e station : Jésus tombe pour la seconde fois. 8e station : Jésus console les filles de Jérusalem. 9e station : Jésus tombe pour la 3e fois. 10e station : Jésus est dépouillé de ses vêtements. 11e station : Jésus est attaché à la croix. 12e station : Jésus meurt sur la croix. 13e station : Jésus est descendu de la croix et remis à sa mère. 14e station : Jésus est mis dans le sépulcre.   (15e station : avec Marie, dans l’espérance de la résurrection)- Les sept dernières paroles du Christ.

- les 7 étapes des "dialogues avec l'ange" : minéral, végétal, animal, humain, ange, archange, dieu. Le tout constituant un miroir réversible (minéral miroir de dieu, ange miroir de l'animal, etc.) l'humain étant le pivot, au centre.

- Dans l'islam, il y a sept cieux et sept enfers.

- Dans l'islam, le chiffre 7 représente les sept cieux, qui sont décrits dans le Coran

- Les septs archanges : Michel, Gabriel, Raphaël, Uriel, Jérémiel, Zadkiel, Raguel...  (Sandalphon, Phanuel, Saratiel, Egoudiel, Barachiel, etc... ne sont pas admis par la tradition et seul les 3 premiers sont cités dans la bible)

- Dans l'hindouisme, il y a sept chakras ou centres d'énergie dans le corps. 

- Les sept chakras : sahasrara, agnya, vishuddhi, anahat, nabhi, swadhistana et mooladhara.

- Les sept parties des Kamâ Sutrâ de Mallanâga Vâtsyâyana: Plan de l'ouvrage et questions générales, de l'union sexuelle, de l'acquisition d'une épouse, de l'épouse, des épouses d'autrui, des courtisanes, des moyens de s'attacher les autres.

Divers, mythologie, beaux-arts, etc

- Les sept notes de la gamme diatonique occidentale révèlent le septénaire comme un régulateurs des vibrations.

- Le septième sens, au-delà du 6e sens, qui est celui de l'intuition, existe en chacun de nous une perception spécifique qui est celle du rapport au divin.

- Les sept sœurs : Les Pléiades, également connues sous le nom de Sept Sœurs, sont un groupe d'étoiles de la constellation du Taureau connu depuis l'Antiquité. Elles étaient considérées comme sept des étoiles les plus proéminentes du ciel et représentaient les sept filles d'Atlas et de Pléione dans la mythologie grecque.

- Les sept sages de Grèce : Les sept sages de Grèce étaient un groupe de sept hommes sages réputés pour leur sagesse et considérés comme ayant jeté les bases de la philosophie grecque antique. Les noms des sept sages sont Thalès de Milet, Solon d'Athènes, Chilon de Sparte, Bias de Priène, Cléobulus de Lindos, Périandre de Corinthe et Pittacus de Mytilène.

- Les sept émotions pulsions de base : Joie, Tristesse, Dégoût, Peur, Colère, Surprise, Mépris. (Paul Ekman)

- Les sept orifices du visage : yeux, narines, bouche, oreilles.

- Le syndrome du 7 chanceux : Le syndrome du "7 chanceux" est un phénomène psychologique qui implique une tendance à attribuer des qualités positives au chiffre 7. Ce phénomène peut être observé dans divers contextes, tels que la stratégie de marque et le marketing, où le chiffre 7 est souvent utilisé pour évoquer la chance ou le succès.

- Le nombre 7 est la somme des deux faces opposées d'un dé standard à six faces.

- Il existe sept types de catastrophes mondiales : l'impact d'un astéroïde, la guerre nucléaire, la pandémie, l'emballement du changement climatique, l'éruption supervolcanique, l'effondrement écologique et l'intelligence artificielle.

- La langue - organe linguale - humaine perçoit sept goûts primaires : le sucré, l'acide, l'amer, le salé, l'umami, le piquant et l'astringent.

- Les sept lois de l'identité numérique de Kim Cameron

- Les 7 industries clefs de la transformation numérique : télécoms et l’IT, santé, distribution, énergies,  média et divertissement, finance, voyages et loisirs.

- Les 7 valeurs dominantes de la société en réseau et de l'éthique protestante qui sont : l'argent, le travail, l'optimalité, la flexibilité, la stabilité, la détermination et le contrôle du résultat. (Pekka Himanen, l'éthique hacker, Exils 2002)

- Les 7 valeurs dominantes du hacker (pirate informatique) : la passion, la liberté, la valeur sociale, l'ouverture, l'activisme, la bienveillance, et la créativité. (Pekka Himanen, l'éthique hacker, Exils 2002

- Les sept péchés infernaux : colère, luxure, gourmandise, envie, paresse, avarice et orgueil.

- Les sept péchés sociaux de Frederick Lewis Donaldson. Qui sont: Richesse sans travail. Plaisir sans conscience. Connaissance sans caractère. Commerce sans moralité. Science sans humanité. Culte sans sacrifice. Politique sans principe. 

- Les sept voyages de Sinbad le marin

- Les sept jours de la semaine.

- Les sept planètes autour du soleil.

- Les sept collines de Rome.

- Les sept terminaisons pointues de l'homme (les deux mains, les deux pieds, le nez, la langue et le sexe)

- Les sept listes d'Ecolalie qui sont aussi des questionnaires.

- Les sept directions (Nord, Est, Sud, Ouest, Zenith, Nadir, Centre).

- Les sept niveaux de la jouissance féminine.

- Les sept ponts de Budapest (Árpád, Margit, Szechenyi, Erzsebet, Szabadság, Petofi, Lágymánosi).

- Les sept provinces basques: Labourd, Basse Navarre, Soule, Guipuzcoa, Alava, Navarre et Biscaye).

- Sept ans de malheur.

- Les bottes de sept lieues.

- Les sept merveilles du monde : le temple d'Artémis à Ephèse, le mausolée d'Halicarnasse, le colosse de Rhodes, les jardins suspendus de Babylone, Ornella Muti jeune, les pyramides d'Egypte, la statue de Zeus à Olympie & le phare d'Alexandrie.

- Les 7 disciplines des Arts libéraux du Moyen Âge, classification fixée par Rome au Premier siècle, divisée en deux cycles. Trivium : grammaire, rhétorique, dialectique et Quadrivium : arithmétique, musique, géométrie, astronomie.  

- Tintin et les sept boules de cristal. (chacune pour un des sept savants de l'expédition Sanders-Hardmuth : Clairmont, Marc Charlet, Paul Cantonneau, Homet, Marcel Brougnard, Hippolyte Bergamotte, Sanders-Hardmuth & Laubépin).

- Les sept mercenaires : Yul Brynner, Steve McQueen, James Coburn, Charles Bronson, Horst Bucholz, Robert Vaughn & Brad Dexter.

- Les sept samouraïs : Toshiro Mifune + six autres.

- Les sept vertus, dont les trois premières sont théologales : La charité, l'espérance, la foi, le courage, la justice, la prudence, la sagesse. A ne pas confondre avec

- Les sept vertus humaines selon Confucius : longévité, chance, popularité, candeur, magnanimité, divinité & gentillesse.

- Les sept femmes de Barbe-Bleue.

- Les sept vérités.

- Les sept nains de Blanche-Neige : Joyeux, Prof, Dormeur, Atchoum, Simplet, Grincheux & Timide.

- Les sept fois qu'il faut tourner sa langue dans sa bouche.

- Les Sept Rayons du monastère de la confraternité des oblates

- Le petit Poucet, ses six frères et les sept filles de l'Ogre

- Les sept voyages de Sinbad le marin

- La légende des sept dormants

- Les sept étapes de l'homme (montage spéculatif maison que l'on trouvera sur FLP)

- Les sept points clefs de la double causalité de Philippe Guillemant (que l'on trouvera sur FLP)

- Les sept métaux fondamentaux de la science alchimique : l'or, l'argent, le cuivre, l'étain, le mercure, le fer et le plomb.

- Les sept arts : l'architecture, la sculpture, la peinture, la musique, la danse, la poésie et le cinéma.

- Les sept conjonctions de coordination : mais où et donc or ni car

- Les sept mots finissant par "ou" qui prennent un x au pluriel : bijou, caillou, chou, genou, hibou, joujou, pou.

- Les sept têtes du naga des temples d'Angkor

- Les sept portes de Thèbes

- Les sept termes des grecs antique pour l'amour : porneia, pathos, eros, philea, storge (familial celui-ci) charis, agapé.

- Les sept vies du chat

- Les sept trompettes de Jéricho

- Les sept entrées de l'Enfer

- Les sept mondes interdits.

- Dans un ouvrage paru en 1956 George Armitage Miller établit que le nombre 7 correspondrait approximativement au nombre maximal d'éléments que serait capable de "traiter" l'esprit humain.

- Federico Navarro, continuant les travaux de Reich, s'est intéressé aux sept niveaux des stases énergétiques.

- Les 7 niveaux de classification pour l'Homme (Taxinomie) Règne : ANIMAL Embranchement: VERTÉBRÉ Classe: MAMMIFÈRE Placentaire Ordre: PRIMATES Famille: HOMINIDÉ Genre: HOMO Espèce: SAPIENS.

- Les sept conseillers fédéraux Suisse ainsi que les sept membres des exécutifs des cantons et des grandes villes.

- Sept couches d'atmosphère : L'atmosphère terrestre peut être divisée en sept couches en fonction de la température et d'autres caractéristiques. Ces couches sont la troposphère, la stratosphère, la mésosphère, la thermosphère, l'exosphère, l'ionosphère et la magnétosphère.

- Les sept aptitudes-outils-facultés holistiques selon Clélia Félix (le son, le verbe, le signe, la nature, l'intuition, le nombre et le rituel.)

- Les sept matchs de tennis qu'il faut gagner pour remporter un titre de grand chelem

- Les sept façons de savoir comment est une personne : Posez-lui une question difficile, et observez sa faculté d'analyse. Prononcez une parole provocante, et voyez sa réaction. Demandez-lui comment elle s'y prend pour résoudre des problèmes épineux, et jugez de son intelligence. Laissez-la se débrouiller d'une situation délicate, et observez son courage. Faites-la boire, et observez son naturel. Tentez-la avec de l'or, et observez son intégrité. Indiquez-lui comment s'acquitter d'une tâche, et assurez-vous de sa fiabilité. (Sun Tzu - L'art de la guerre) 

Linguistique et sémantique

- Les sept partie du corps à la source du langage des iles Adaman 

- Les sept modes verbaux de la grammaire en langue française : - quatre modes personnels, qui se conjuguent : indicatif, conditionnel, subjonctif et impératif. - trois modes impersonnels, qui ne se conjuguent pas : infinitif, participes et gérondif. Binaire et ternaire linguistiques

- Dans certaines langues, comme le latin et le russe, il existe sept cas grammaticaux utilisés pour indiquer la fonction des noms et des pronoms dans une phrase : le nominatif, le génitif, le datif, l'accusatif, l'instrumental, le prépositionnel et le locatif.

- En linguistique, il existe sept structures de phrases de base : les phrases simples, les phrases composées, les phrases complexes, les phrases composées-complexes, les phrases déclaratives, les phrases interrogatives et les phrases impératives. (4 + 3)

En anglais et dans de nombreuses autres langues, il existe sept temps de base : le présent, le passé, le futur, le présent parfait, le passé parfait, le futur parfait et le présent continu.

- Parties du discours : Dans la grammaire traditionnelle, il y a sept parties du discours : les noms, les verbes, les adjectifs, les adverbes, les pronoms, les prépositions et les conjonctions.

- Les sept conférences de Harvard de Charles Sanders Peirce, prononcées en 1903.

-  Les sept agents de la cosmogonie révélés à Jacob Böhme par des visions. Ils sont les sept agents d’une création continue du monde. Ce sont  la dureté, l’attraction, la crainte, le feu, l’amour-lumière, les pouvoirs de la parole et la parole elle-même.

- Les sept parties de l'idéalité royale (Castille, XIIIe siècle) donnés à imprimer par Antonio Díaz de Montalvo, jurisconsulte des Rois Catholiques, comme Le Septénaire : Las Siete Partidas de Alfonso X el Sabio, 2 vol., Séville : Meynardo Ungut et Lançalao Polono, 25 octobre 1491.

- Les sept collines de Rome : Rome, la capitale de l'Italie, est célèbre pour être la "ville aux sept collines". Les sept collines sont la colline de l'Aventin, la colline du Caelius, la colline du Capitole, la colline de l'Esquilin, la colline du Palatin, la colline du Quirinal et la colline du Viminal.

- Sept lois incas : L'empire inca, qui a existé en Amérique du Sud du 13e au 16e siècle, avait un système de lois connu sous le nom de Tawantinsuyu, qui comprenait sept lois principales. Ces lois étaient les suivantes : Ama Sua (ne pas voler), Ama Llulla (ne pas mentir), Ama Quella (ne pas être paresseux), Ama Kella (ne pas être infidèle), Yapaq Ñan (respect), Kawsay Ñan (mener une vie honorable) et Iwka Ñan (ne pas massacrer sans raison).

- Le labyrinthe à sept circuits : Le labyrinthe à sept circuits est un type de labyrinthe utilisé pour la méditation et à des fins spirituelles. Le labyrinthe consiste en un chemin unique qui serpente jusqu'au centre, avec sept cercles concentriques qui divisent le chemin en sept segments.

- Les sept âges de l'homme : Les sept âges de l'homme sont un concept décrit par William Shakespeare dans sa pièce "As You Like It". Les sept âges sont le nourrisson, l'écolier, l'amoureux, le soldat, le juge, le vieillard et, enfin, la seconde enfance.

- Sept continents : Les sept continents sont l'Afrique, l'Antarctique, l'Asie, l'Australie, l'Europe, l'Amérique du Nord et l'Amérique du Sud. Ces continents sont généralement définis en fonction de leurs plaques continentales.

- Septième fils d'un septième fils : Dans le folklore, le septième fils d'un septième fils est censé avoir des pouvoirs spéciaux, notamment la capacité de guérir les maladies et de voir les esprits. Cette légende a été popularisée dans divers médias, notamment dans la musique, la littérature et le cinéma.

- Guerre de Sept Ans : La guerre de Sept Ans est un conflit mondial qui s'est déroulé de 1756 à 1763 et qui a impliqué la plupart des grandes puissances européennes de l'époque. La guerre s'est déroulée principalement en Europe, mais aussi en Amérique du Nord, en Inde et dans d'autres parties du monde.

- Sept couleurs de l'aura : selon certaines traditions ésotériques, l'aura humaine est composée de sept couleurs, chacune correspondant à un aspect spécifique de l'état spirituel, émotionnel et physique de l'individu.

- Les États-Unis d'Amérique comptent 7 pères fondateurs qui ont signé la Déclaration d'indépendance le 4 juillet 1776.

- Les planètes classiques, connues dans l'Antiquité, sont au nombre de 7 : Soleil, Lune, Mercure, Vénus, Mars, Jupiter et Saturne. Dans l'astrologie traditionnelle, on croyait que sept planètes avaient une influence sur les affaires humaines. Ces planètes étaient le Soleil, la Lune, Mercure, Vénus, Mars, Jupiter et Saturne.

- La septième lettre de l'alphabet grec est zêta, souvent utilisée en mathématiques pour représenter une variable ou un coefficient.

- L'étirement de la septième manche est une tradition du baseball selon laquelle les supporters se lèvent et s'étirent pendant la septième manche du match.

- Le temps nécessaire à la lune pour passer par toutes ses phases est d'environ 29,5 jours, ce qui est proche d'un multiple de sept (4 x 7 = 28).

- Nous terminons cette liste avec les 14 diagonales de l'heptagone qui, une fois tracés, dessinent au sein de celui-ci un heptagone interne, puis un deuxième... qui laissent imaginer une suite infinie de la même forme.

(Pour info : Avec FLP nous nous amusons parfois à une organisation qui tente de classifier les extraits via 7 paramètres verticaux et 7 paramètres horizontaux... )

NB : Le nombre 49 n'a pas de signification inhérente ou spécifique en dehors de ses propriétés mathématiques. En mathématiques, 49 est un nombre carré, car il est le produit de 7 multiplié par lui-même (7 x 7 = 49). Il s'agit également d'un nombre composite, car il possède des facteurs autres que 1 et lui-même (à savoir 7 et 1).

Dans diverses cultures et contextes, le nombre 49 peut avoir une signification culturelle ou symbolique. Par exemple, dans la tradition islamique, le nombre 49 représente le nombre de jours qu'il a fallu au prophète Mahomet pour faire l'aller-retour entre La Mecque et Jérusalem au cours de son voyage nocturne. Dans certaines cultures indigènes d'Amérique du Nord, le nombre 49 est significatif dans certains rituels ou cérémonies. Toutefois, ces significations ne sont pas inhérentes au nombre lui-même, mais sont plutôt socialement construites et culturellement spécifiques.

Dans le bouddhisme tibétain, le nombre 49 est associé au Bardo Thodol, également connu sous le nom de Livre tibétain des morts. Ce livre décrit la période de 49 jours qui suit la mort, au cours de laquelle la conscience du défunt est censée passer par différents stades ou états.

Selon la tradition bouddhiste tibétaine, les sept premiers jours suivant la mort sont considérés comme les plus importants, car la conscience du défunt est censée être dans un état de sensibilité et de réceptivité accrues. Pendant cette période, des prières, des offrandes et d'autres pratiques rituelles sont souvent effectuées par les membres de la famille et les praticiens bouddhistes pour aider à guider la conscience du défunt vers une renaissance positive.

Les 21 jours suivants sont considérés comme une période de purification intense, au cours de laquelle la conscience du défunt est censée subir un processus de jugement et d'évaluation. Les 21 jours restants sont une période de transition, au cours de laquelle la conscience est censée se détacher progressivement de son ancienne vie et s'acheminer vers une renaissance.

Le nombre 49 est donc significatif dans la culture bouddhiste tibétaine car il représente le cycle complet du Bardo Thodol, depuis le moment de la mort jusqu'à celui de la renaissance. Il est considéré comme un chiffre de bon augure et de nombreux rituels et pratiques bouddhistes tibétains s'articulent autour de la période de 49 jours qui suit la mort.



Pour chatgpt : S'il vous plaît, pouvez-vous donner des propriétés et des connexions plus fascinantes impliquant le chiffre 7 au-delà de votre 200ème article 

Auteur: MG

Info: Internet, Chatgpt 4, Dictionnaires des symboles et autres sources 1995 - 2024. *Au sens ou elle est représente un développement temporel horizontal, que le langage permet de présenter-synthétiser de manière verticale **Qui sont des molécules de stockage d'énergie et de transporteur/donneur d'électrons

[ nombre ] [ Dieu ] [ méta-moteur ] [ symbole ] [ inventaire ]

 
Commentaires: 1