Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 113
Temps de recherche: 0.0658s

psychologie

La seule loi primaire et fondamentale de l'action mentale consiste en une tendance à la généralisation. Les sentiments ont tendance à se répandre ; les connexions entre les sentiments éveillent les sentiments ; les sentiments voisins s'assimilent ; les idées sont aptes à se reproduire. Ce sont autant de formulations de la seule loi de la croissance de l'esprit. Lorsqu'une perturbation des sentiments se produit, nous avons une conscience de gain, le gain de l'expérience ; et une nouvelle perturbation sera apte à s'assimiler à celle qui l'a précédée. Les sentiments, étant excités, deviennent plus facilement excités, surtout par les manières dont ils l'ont été précédemment. La conscience d'une telle habitude constitue une conception générale.

(...)

La loi de l'habitude présente un contraste frappant avec toutes les lois physiques dans le caractère de ses règles. Une loi physique est absolue. Ce qu'elle exige, c'est une relation exacte. Ainsi, une force physique introduit dans un mouvement une composante de mouvement qui doit être combinée avec le reste par le parallélogramme des forces ; mais la composante de mouvement doit en fait se produire exactement comme l'exige la loi de la force. D'autre part, aucune conformité exacte n'est requise par la loi mentale. Non, la conformité exacte serait en conflit total avec la loi ; car elle cristalliserait instantanément la pensée et empêcherait toute formation ultérieure d'habitude. La loi de l'esprit ne fait que rendre un sentiment donné plus susceptible de se manifester. Elle ressemble donc aux forces "non conservatrices" de la physique, telles que la viscosité et autres, qui sont dues à des uniformités statistiques via les rencontres fortuites de billions de molécules.

Auteur: Peirce Charles Sanders

Info: The Architecture of Theories. The Monist, 1, 161-176. 1981

[ analogie ] [ renforcement itératif ] [ germe d'addiction ] [ source des habitudes ] [ orthogonale intégration ]

 

Commentaires: 0

Ajouté à la BD par miguel

unicité

La théorie de l'électron unique, également connue sous le nom d'hypothèse de l'univers à un électron, est une idée fascinante et quelque peu non conventionnelle en physique. Elle a été proposée par le célèbre physicien John Archibald Wheeler lors d'une conversation téléphonique avec Richard Feynman en 1940. Le concept central de cette hypothèse est qu'il n'y a qu'un seul électron dans tout l'univers, qui voyage dans le temps, apparaissant ainsi sous la forme d'innombrables électrons identiques à différentes positions dans l'espace et le temps.

L'idée de Wheeler était inspirée par le fait que tous les électrons ont des propriétés identiques, telles que la charge et la masse, et que ces propriétés sont les mêmes pour les électrons et leurs antiparticules, appelées positrons, à l'exception de leurs charges opposées. Il a proposé qu'un électron avançant dans le temps soit considéré comme un électron ordinaire, tandis que le même électron reculant dans le temps apparaîtrait comme un positron. En conséquence, tous les électrons et positrons de l'univers seraient en fait des manifestations de la même particule fondamentale, tissant un chemin complexe à travers l'espace et le temps.

La théorie de l'électron unique est une idée élégante et stimulante, mais elle n'a pas eu beaucoup de succès auprès de la communauté des physiciens. En effet, l'hypothèse est difficile à concilier avec les observations expérimentales et les principes établis de la physique moderne. Par exemple, la théorie exigerait que le nombre d'électrons et de positrons dans l'univers soit égal, mais les données expérimentales indiquent qu'il y a beaucoup plus d'électrons que de positrons. En outre, le modèle standard de la physique des particules, qui décrit avec succès le comportement des particules fondamentales et leurs interactions, ne soutient pas l'hypothèse d'un seul électron.

Auteur: Internet

Info: Sur le profil FB de Nassim Haramein

[ cosmologie ]

 

Commentaires: 0

Ajouté à la BD par miguel

évolution de l'univers

Question : l’équivalence entre information et entropie au signe près me semble être le point le plus délicat à comprendre dans votre théorie. Dans quelle mesure par exemple peut-on dire qu’une structure dissipative non-bio "mémorise" de l’information ?

Réponse : L’information est le sujet d’étude de l’informatique. Elle ne nécessite aucune intelligibilité. Lorsque vous regardez sur votre ordinateur la taille d’un fichier, vous mesurez son contenu d’information pas son intelligibilité. L’information est essentiellement une quantité qui peut être mémorisée, aussi bien dans la mémoire d’un ordinateur que dans votre propre cerveau. Elle est liée à l’existence de phénomènes non linéaires qui font qu’un même système peut exister dans plusieurs états, par exemple les phénomènes d’hystérésis. Avez-vous connu les mémoires à tores de ferrites des années 60?

Fondamentalement, une information est une modification d’un système induite par son environnement et qui subsiste ensuite, même si l’environnement évolue. Appliquez une force sur une boule de billard. Elle va se mettre en mouvement. Supprimez la force. La boule de billard va continuer à rouler. Elle a mémorisé de l’information. S’il y a des frottements, la boule de billard va finir par s’arrêter. L’information s’efface progressivement. Cette perte d’information est irréversible. On appelle cela de la dissipation de l’énergie.

Votre cerveau, vos gènes, comme ceux des autres organismes vivants, mémorisent de l’information. Il n’y a pas de solution de continuité entre les structures dissipatives purement physiques et les structures biologiques. Nous obéissons tous aux lois de la physique. Je suis surpris de voir à quel point de nos jours beaucoup de gens refusent encore cette idée. C’est peut être le message essentiel de mon livre: l’évolution de l’humanité obeit elle-même aux lois de la thermodynamique. L’important est d’en prendre conscience et de comprendre ces lois.

Auteur: Roddier François

Info: https://www.lemonde.fr/blog/petrole/2013/10/30/francois-roddier-par-dela-leffet-de-la-reine-rouge/#comment-18006

[ désorganisation ]

 

Commentaires: 0

Ajouté à la BD par miguel

transmutation

Pour la première fois, des scientifiques observent la création de matière à partir de lumière.

L'une des implications les plus fascinantes de la célèbre équation d'Einstein E=mc2 est que matière et énergie sont interchangeables.

En d'autres termes, il devrait être possible de créer de la matière à partir d'énergie pure, telle que la lumière. Ce processus, connu sous le nom de création de matière ou de production de paires, a été proposé pour la première fois par les physiciens Gregory Breit et John Wheeler en 1934. Cependant, il est resté insaisissable pendant des décennies, car il nécessite des photons de très haute énergie pour entrer en collision l'un avec l'autre et produire des paires d'électrons et de positons.

Aujourd'hui, une équipe de scientifiques du Brookhaven National Laboratory de New York a rapporté la première observation directe de la création de matière à partir de la lumière en une seule étape. Ils ont utilisé le collisionneur d'ions lourds relativistes (RHIC), un puissant accélérateur de particules capable d'assembler des ions lourds à une vitesse proche de celle de la lumière. Ce faisant, ils ont créé des champs électromagnétiques intenses contenant des photons virtuels, qui sont des perturbations de courte durée dans les champs qui se comportent comme de vrais photons.

Lorsque deux ions se sont croisés sans entrer en collision, certains de leurs photons virtuels ont interagi et se sont transformés en photons réels à très haute énergie. Ces photons sont ensuite entrés en collision et ont produit des paires électron-positron, qui ont été détectées par le détecteur STAR au RHIC. Les scientifiques ont analysé plus de 6 000 de ces paires et ont constaté que leur distribution angulaire correspondait à la prédiction théorique de la création de matière à partir de la lumière.

Cette expérience confirme non seulement une prédiction de longue date de l'électrodynamique quantique, mais démontre également une nouvelle façon d'étudier les propriétés de la matière et de l'antimatière dans des conditions extrêmes. Les scientifiques espèrent poursuivre l'étude de ce phénomène et de ses implications pour la physique fondamentale et la cosmologie. 


Auteur: Internet

Info: https://www.thesci-universe.com/ 5/18/2023

[ recherche fondamentale ]

 

Commentaires: 0

Ajouté à la BD par miguel

question

La séparabilité dynamique est "une sorte d'hypothèse du réductionnisme", explique M. Ormrod. "On peut expliquer les grandes choses en termes de petits morceaux.

Le fait de préserver le caractère absolu des événements observés pourrait signifier que ce réductionnisme ne tient pas : tout comme un état non local de Bell ne peut être réduit à certains états constitutifs, il se peut que la dynamique d'un système soit également holistique, ce qui ajoute un autre type de nonlocalité à l'univers. Il est important de noter que le fait d'y renoncer ne fait pas tomber une théorie en contradiction avec les théories de la relativité d'Einstein, tout comme les physiciens ont soutenu que la non-localité de Bell ne nécessite pas d'influences causales superluminales ou non locales, mais simplement des états non séparables.

"Peut-être que la leçon de Bell est que les états des particules distantes sont inextricablement liés, et que la leçon des nouveaux théorèmes est que leur dynamique l'est aussi", ont écrit Ormrod, Venkatesh et Barrett dans leur article.

"J'aime beaucoup l'idée de rejeter la séparabilité dynamique, car si cela fonctionne, alors ... nous aurons le beurre et l'argent du beurre", déclare Ormrod. "Nous pouvons continuer à croire ce que nous considérons comme les choses les plus fondamentales du monde : le fait que la théorie de la relativité est vraie, que l'information est préservée, et ce genre de choses. Mais nous pouvons aussi croire à l'absoluité des événements observés".

Jeffrey Bub, philosophe de la physique et professeur émérite à l'université du Maryland, College Park, est prêt à avaler quelques pilules amères si cela signifie vivre dans un univers objectif. "Je voudrais m'accrocher à l'absoluité des événements observés", déclare-t-il. "Il me semble absurde d'y renoncer simplement à cause du problème de la mesure en mécanique quantique. À cette fin, Bub pense qu'un univers dans lequel les dynamiques ne sont pas séparables n'est pas une si mauvaise idée. "Je pense que je serais provisoirement d'accord avec les auteurs pour dire que la non-séparabilité [dynamique] est l'option la moins désagréable", déclare-t-il.

Le problème est que personne ne sait encore comment construire une théorie qui rejette la séparabilité dynamique - à supposer qu'elle soit possible à construire - tout en conservant les autres propriétés telles que la préservation de l'information et la non-localité de Bell.

Auteur: Ananthaswamy Anil

Info: "Newtonian Space-Time", Texas Quarterly 10 : 174-200, May 22, 2023. Extrait de l'article : Le "problème de la mesure" de la théorie quantique pourrait être une pilule empoisonnée pour la réalité objective. La résolution d'un problème quantique notoire pourrait nécessiter l'abandon de certaines des hypothèses les plus chères à la science concernant le monde physique.

[ recherche fondamentale ] [ limites anthropiques ]

 

Commentaires: 0

Ajouté à la BD par miguel

physique quantique

Mais revenons à l’article de 1990, dont voici l’introduction : "Le concept de hasard intrigue depuis longtemps les physiciens, et même l'humanité en général. Quelle est l'origine du hasard ? Dans quelle mesure le futur peut-il être prédit ? Notre incapacité à prédire l'avenir est-elle la conséquence de nos limites humaines ou plutôt la conséquence d'une impossibilité de principe ? Ces questions ont, en physique, une longue histoire. La physique classique héritée d'Isaac Newton était complètement déterministe : la connaissance parfaite de l'état d'un système à un instant donné permettait en principe la détermination de son état à tout instant ultérieur. Puis vint au début de ce siècle la mécanique quantique, où probabilités et hasard interviennent au niveau le plus fondamental de la théorie ; en effet, celle-ci ne peut fournir que des probabilités de mesurer telle ou telle valeur de la position, de l'énergie, etc. La mécanique quantique introduisit donc une indétermination fondamentale dans la nature, chose qu'Einstein lui-même ne voulut jamais accepter, comme en témoigne son célèbre "Dieu ne joue pas aux dés". Puis, assez récemment, on s'aperçut avec l'étude des "systèmes dynamiques", qu'après tout, la physique classique avait aussi du hasard, ou plus exactement de l'imprévisibilité, enfouis en son sein, puisque certains systèmes même très simples, comme un système de pendules, peuvent exhiber un comportement imprévisible. Le hasard, souvent associé au désordre, est ainsi devenu, du moins en physique, une notion pleine de contenu." (…)
Mais définir le hasard (ou une suite aléatoire de résultats de mesure) par un programme "minimal", qu’on ne peut pas réduire par un algorithme, c’est faire sauter en souriant l’interprétation métaphysique qui établit une équivalence entre forme aléatoire et absence d’intentionnalité, de sens, de volonté et de conscience. On en revient finalement à Kant qui expliquait que l’on ne peut pas plus démontrer l’existence de Dieu que son inexistence, que toute la métaphysique échappe à la démonstration logique.(…)
Alors sans doute faut-il reconnaître aujourd’hui que ces limites sont inhérentes à la raison humaine, outil magnifique mais incapable de tout surplomber et que, plus nous avancerons dans la connaissance de l’univers et de nous-mêmes, plus nous buterons sur l’inconnaissable ou, plus exactement, l’inexprimable par nos langages, qu’il s’agisse des mots ou des équations. Un inexprimable qui n’empêche pas la conscience et semble jaillir des noces paradoxales de la rigueur et de la liberté, autre nom du hasard.

Auteur: Anonyme

Info: Dans "Les magiciens du nouveau siècle"

[ connaissance maximale ] [ butée ] [ impossible ]

 
Commentaires: 4
Ajouté à la BD par Coli Masson

biophysique

En résumé, nous avons réexaminé les aspects quantiques de la récolte de lumière dans la photosynthèse. Il est apparu clairement, à partir de considérations de base, qu'il n'y a pas d'équivalence entre la quanticité des processus et les cohérences observées dans les expériences de spectroscopie femtoseconde. Même la question très fondamentale de savoir si les cohérences non stationnaires des systèmes photosynthétiques peuvent être excitées par la lumière du soleil n'a pas encore été totalement clarifiée. Quelle que soit la configuration la préparation de l'état, la dynamique sera régie par les couplages associés du système et son interaction avec son environnement (bath)*. En outre, les affirmations concernant la persistance de ces cohérences dans les expériences femtoseconde ont été réévaluées de manière critique. En particulier, l'analyse détaillée d'un système  exemplaire utilisée en biologie quantique - le complexe FMO** - montre sans ambiguïté l'absence de cohérence interexcitonnelle de longue durée sur les échelles de temps pertinentes dans ce système, à la fois aux températures cryogéniques et physiologiques. Au contraire, il est devenu évident que les signaux oscillants à longue durée de vie proviennent de modes vibratoires principalement issu de l'état électronique fondamental. Des analyses de données plus avancées et des traitements théoriques utilisant une paramétrisation réaliste de l'environnement modélisé (bath) sont nécessaires pour identifier clairement les signaux de cohérence. La discussion approfondie sur l'attribution antérieure de ces signatures spectrales, qui se développe dans la communauté depuis une décennie, souligne cette nécessité.

Le principal résultat positif de ce travail est l'amélioration des méthodes théoriques et expérimentales qui ont conduit à une meilleure compréhension des interactions système-bath responsables de la décohérence et de la dissipation dans les structures biologiques. La nature ne produit pas le bain (bath) pour éviter la décohérence des processus fonctionnels directs ; une telle approche ne serait certainement pas robuste. La nature, plutôt qu'essayer d'éviter la dissipation, l'exploite spécifiquement avec l'ingénierie des énergies sur site via le couplage excitonique* pour le transport direct de l'énergie. Le rôle des paramètres thermodynamiques dans le pilotage des fonctions biologiques est bien apprécié à d'autres niveaux. Ici, nous voyons que ce principe s'applique même aux processus de transfert d'énergie impliqués dans la photosynthèse qui se produisent sur des échelles de temps probablement plus rapides. La physique de base de la thermalisation étant utilisée pour imprimer une direction. Ce concept simple, maîtrisé par la nature dans toutes les dimensions temporelles et spatiales pertinentes, est une véritable merveille de la biologie. 

Auteur: Internet

Info: https://advances.sciencemag.org, 3 avril 2020. "Quantum biology revisited. Conclusions". By Jianshu Cao, Richard J. Cogdell, David F. Coker, Hong-Guang Duan, Jürgen Hauer, Ulrich Kleinekathöfer, Thomas L. C. Jansen, Tomáš Mančal, R. J. Dwayne Miller, Jennifer P. Ogilvie, Valentyn I. Prokhorenko, Thomas Renger, Howe-Siang Tan, Roel Tempelaar, Michael Thorwart, Sebastian Westenhof, Donatas Zigmantas. *En physique, un système quantique ouvert est un système de quantique qui interagit avec un système quantique externe (bath). En général, ces interactions modifient considérablement la dynamique du système et entraînent une dissipation quantique, de sorte que les informations contenues dans le système sont perdues pour son environnement. Comme aucun système quantique n'est complètement isolé de son environnement, il est important de développer un tel cadre théorique pour traiter ces interactions afin d'améliorer la compréhension des systèmes quantiques. **Complexe Fenna-Matthews-Olson : complexe hydrosoluble, a été le premier complexe pigment-protéine à être analysé par spectroscopie aux rayons X ***Un exciton est une quasi-particule que l'on peut voir comme une paire électron-trou liée par des forces de Coulomb. Une analogie consiste à comparer l'électron et le trou respectivement à l'électron et au proton d'un atome d'hydrogène. Ce phénomène se produit dans les semi-conducteurs et les isolants. Mise en forme Mg

[ anabolisme ] [ épigénétique ] [ hyper-complexité ]

 

Commentaires: 0

Ajouté à la BD par miguel

nano-monde

Quelle est cette physique inconnue soulevée par le LHC ?

Une équipe internationale de chercheurs a observé pour la première fois une forme de désintégration inédite du boson de Higgs, jetant un éclairage nouveau sur les mystères de l'Univers et suggérant l'existence de phénomènes physiques encore inexplorés. Cette découverte, fruit de l'analyse de données recueillies lors des collisions de protons au Grand Collisionneur de Hadrons (LHC) du CERN, marque un pas de géant dans notre compréhension du monde subatomique.

Le boson de Higgs, une particule élémentaire prédite dans les années 1960 et découverte avec certitude en 2012, joue un rôle crucial dans le Modèle standard de la physique des particules. Il est associé à un champ, omniprésent dans l'Univers, qui confère leur masse aux autres particules. Sa capacité à interagir avec diverses particules et champs avait été mesurée avec précision, confirmant les prédictions jusqu'à présent.

L'observation récente concerne une désintégration du boson de Higgs en un photon, ou quantum de lumière, et un boson Z, une particule sans charge électrique impliquée dans la transmission de la force faible, l'une des quatre forces fondamentales de l'Univers. Selon la théorie, ce processus est extrêmement rare, survenant environ 15 fois sur 10 000 désintégrations. Toutefois, les données recueillies par les collaborations ATLAS et CMS montrent un taux de désintégration supérieur, à 34 occurrences pour 10 000, ce qui soulève des questions sur la possibilité de nouvelles particules ou forces au-delà du Modèle standard.

Cette différence notable par rapport aux prédictions théoriques, bien qu'encore insuffisante pour exclure une fluctuation statistique, suggère la possibilité d'une nouvelle physique. Elle ouvre notamment la porte à des théories telles que la supersymétrie, qui propose une relation entre les particules de demi-spin et de spin entier, offrant des réponses potentielles à certaines des grandes énigmes de la physique, comme la nature de la matière noire et l'énorme écart entre les forces faible et gravitationnelle.

La détection de cette désintégration a nécessité une analyse minutieuse des résultats des collisions de protons au LHC, où les scientifiques ont dû compenser l'incapacité à observer directement le boson Z en mesurant l'énergie des électrons ou des muons produits lors de sa désintégration. Cette prouesse technique souligne l'extraordinaire précision avec laquelle les physiciens peuvent aujourd'hui tester les fondements de notre compréhension de l'Univers.

Les chercheurs se tournent désormais vers l'avenir, avec l'anticipation de données encore plus précises provenant de la prochaine phase du LHC et du futur Grand Collisionneur de Hadrons à haute luminosité, promettant des découvertes sur la structure fondamentale de la matière.

 

Auteur: Internet

Info: https://www.techno-science.net/,  Adrien le 18/02/2024, Source: Physical Review Letters

[ physique fondamentale ] [ infra-monde ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

singularité

Quelle définition de l'individualité devons-nous donc prendre, et pourquoi cette question est-elle importante pour la théorie de la biologie, et n'est pas simplement une question de mots ? Pour poser un point de départ à notre discussion, on pourrait commencer par admettre qu'un individu est issu à la fois d'un seul programme génétique et d'un développement maintenant la continuité physique entre toutes les parties de l'organisme. Or le réseau fongique du Michigan soulève un problème capital qui est aussi illustré par de nombreux autres organismes, comme un plant d'herbe ou une tige feuillée de bambou.
Nous envisageons classiquement un individu comme une entité délimitée et dotée de formes définies : une baleine, un arbre, une blatte, un être humain. Par analogie, il semblerait qu'un plant d'herbe, ou bien une tige feuillée de bambou, ou bien un champignon pourrait être considéré comme un individu. Cependant pensez aux critères proposés ci-dessus sur la continuité physique entre toutes les parties et l'unicité de l'origine génétique. Une tige feuillée de bambou ressemble à l'entité que nous appelons habituellement une plante entière, mais chacune des tiges feuillées que l'on voit dans un champ de bambou peut provenir d'un même système de racines adventives ; elles sont donc toutes unies et dérivent toutes par multiplication végétative d'une même graine de départ. La tige feuillée individuelle de bambou n'est-elle donc pas une partie d'un plus grand individu, tout comme les carpophores d'Armillaria ne sont que les éléments visibles d'une vaste entité souterraine ?
Les botanistes rencontrent plus fréquemment que les zoologistes le problème posé par des parties d'un tout qui ressemblent à des individus (bien qu'une colonie de coraux soulève exactement le même dilemme). Ils ont donc mis au point une terminologie particulière pour traiter de ces cas ambigus où des parties d'un tout ressemblent à des organismes entiers dans le sens courant du mot, mais sont en réalité des organes d'une totalité plus vaste, si l'on se réfère à une définition génétique. Ils appellent ces éléments (parties d'un tout) morphologiquement bien définis tels qu'un plant d'herbe, une tige feuillée de bambou ou un champignon (plus exactement, le carpophore) un ramet ; tandis que le système entier, avec ses parties inter-reliées (les racines adventives souteraines et les tiges feuillées ; le réseau de rhizomorphes, avec ses occasionnels carpophores), est appelé un genet. En d'autres termes, l'individu, dans le sens courant, est un ramet, tandis que l'individu, au sens génétique, est un genet. Cette terminologie ne résout pas le problème conceptuel de savoir comment définir un individu, et les noms proposés ne font que mettre en lumière ces cas classiques d'ambiguïté fondamentale.

Auteur: Gould Stephen Jay

Info: Les Quatre Antilopes de l'Apocalypse

[ individu ] [ fractal ]

 

Commentaires: 0

humanité

Chez les primates sociaux, la force brute, la ruse, l’intelligence manœuvrière, l’empathie et l’art de nouer des alliances – bref, toute la palette des comportements politiques – sont utilisés communément. Ce qui implique des sociétés régulées par le sexe et/ou par la baffe (voire le meurtre), avec comme limite acceptable aux comportements extrêmes, l’intérêt supérieur du groupe. Des sociétés qui reposent également sur un minimum d’équité où même les plus forts ont intérêt au partage, ne serait-ce que pour maintenir leur position. Ce fait politique (au sens de l’organisation permettant l’exercice du pouvoir) explique pourquoi dans une société aussi violente que celle des chimpanzés, ce sont souvent des vieilles femelles, beaucoup plus faibles physiquement que les jeunes mâles, qui dirigent le groupe. Elles allient une expérience précieuse à la survie de tous à une grande capacité à nouer des alliances, tout en sachant maintenir le dissensus à un niveau acceptable.
Mais s’il n’existe pas de différences comportementales fondamentales entre l’animal et l’homme, nous avons cependant la possibilité de partager des constructions mentales beaucoup plus élaborées. Sans doute sont-elles apparues et finalement sélectionnées par l’évolution pour l’énorme avantage qu’elles représentent (le partage d’un même univers mental sur l’habitus des différentes proies, et sur les actions coordonnées qu’il convient d’appliquer pour aller à leur contact en se servant de l’environnement immédiat).
Cependant, toutes les armes étant à double tranchant, il nous est possible également de créer des univers mentaux éloignés de la réalité, voire totalement déconnectés, comme le démontrent les idéologies mortifères passées ou présentes.
Dans nos sociétés ‘modernes’ immensément complexes et peuplées, il est bien plus facile de tricher (voir d’opter pour un comportement sociopathe), que dans un clan de quelques dizaines d’individus où chacun agit sous le regard de tous. Il semble même, que plus vous êtes riche moins vous êtes moral ! Comme tendraient à le démontrer les expériences du professeur Paul Piff de l’université de Berkeley, qui mettent en évidence une plus grande cupidité et un comportement moins respectueux des règles pour les catégories à hauts revenus.
Et de fait, les classes les plus favorisées (les 0,1% et leurs affidés du 1%) peuvent désormais partager un même univers mental, ainsi que les artefacts qui vont avec (‘marchés’, havres fiscaux, etc). Ce faisant, ils inversent les valeurs ; les bases biologiques de nos comportements comme l’altruisme, la morale ou la simple décence – toutes choses héritées de l’état de nature – ne leur sont plus nécessaires. Pire, ces bases deviennent dans leur univers mental, des faiblesses empêchant une prédation sans limites. Loin des discours de façade, ne sont-ils pas les vrais maîtres du monde ?

Auteur: Boulant Roberto

Info: Blog Jorion, 16 janv. 2017

[ ethnologie ] [ oligarchie ] [ question ] [ éthologie ]

 

Commentaires: 0