Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 125
Temps de recherche: 0.0816s

disponibilité mentale

Une zone du cerveau qui serait la porte de la conscience

Le cortex insulaire antérieur serait la porte de la conscience, d'après de nouveaux travaux américains. Inactivée, elle empêcherait la prise de conscience des stimuli.

Parmi les milliers de stimuli visuels, auditifs ou autres que notre cerveau traite en continu chaque jour, seuls certains passent la porte de notre conscience. Mais le mécanisme qui permet de sélectionner les stimuli dont nous avons conscience des autres n'est toujours pas clair. Pour des chercheurs du Center for Consciousness Science du Michigan Medicine (Etats-Unis), la clé se situerait dans une partie de notre cerveau appelée le cortex insulaire antérieur. Ces travaux sont publiés dans la revue Cell Reports.

LES 4 THÉORIES DE LA CONSCIENCE. Pour comprendre, mais aussi pour analyser les observations issues des expériences, la science de la conscience a besoin de théories. Il en existe quatre principales : l’espace de travail global, l’ordre supérieur, l’information intégrée et le processus récurrent ou de premier ordre. Pour en savoir plus, lisez le passionnant numéro de La Recherche d'avril-juin 2021 !

Une "structure critique" contrôlerait l'entrée des informations dans la conscience

"Le traitement de l'information dans le cerveau a deux dimensions : le traitement sensoriel de l'environnement sans conscience et celui qui se produit lorsqu'un stimulus atteint un certain niveau d'importance et entre dans la conscience", explique dans un communiqué Zirui Huang, premier auteur de la publication. "Malgré des décennies de recherche en psychologie et en neurosciences, la question de savoir pourquoi certains stimuli sensoriels sont perçus de manière consciente alors que d'autres ne le sont pas reste difficile à résoudre", introduisent les auteurs dans la publication. Ils émettent alors l'hypothèse qu'il existe une "structure critique" où "l'accès conscient aux informations sensorielles est contrôlé". Ils ont même un suspect : le cortex insulaire antérieur, qui a précédemment été reconnu comme une plaque tournante centrale du cerveau, notamment "car il reçoit des entrées de différentes modalités sensorielles et de l'environnement interne", comme les émotions. 

Lorsque le cortex insulaire antérieur est éteint, la conscience aussi

Pour le prouver, l'équipe se penche sur 26 sujets qu'ils examinent à l'IRM fonctionnelle, qui permet de voir les zones activées du cerveau dans le temps. Ils leur injectent alors un anesthésiant, le propofol, pour contrôler leur niveau de conscience. Comme imaginer une action active les mêmes zones du cerveau que de les réaliser réellement, les chercheurs ont ensuite demandé aux sujets de s'imaginer dans plusieurs situations. Ils devaient s'imaginer en train de jouer au tennis, de marcher le long d'un chemin ou de serrer leur main, ainsi que d'effectuer une activité motrice (serrer une balle en caoutchouc) alors qu'ils perdaient progressivement conscience et la retrouvaient après l'arrêt du propofol.

Résultat, la perte de conscience due au propofol "crée un dysfonctionnement du cortex insulaire antérieur" ainsi qu'une altération des réseaux cérébraux nécessaires aux états de conscience. En revanche, aucune des autres régions impliquées dans la régulation sensorielle ou l'éveil, comme le thalamus, ne répondaient de cette façon. "Un stimulus sensoriel active normalement le cortex insulaire antérieur", explique Hudetz. "Mais lorsque vous perdez conscience, le cortex insulaire antérieur est désactivé et les changements de réseau dans le cerveau qui soutiennent la conscience sont perturbés." Le cortex insulaire antérieur pourrait donc agir comme un filtre qui ne permet qu'aux informations les plus importantes d'entrer dans la conscience.

Le cortex insulaire antérieur serait la porte de la conscience

Pour confirmer ces résultats, la deuxième expérience cherche à savoir si l'activation du cortex insulaire antérieur est prédictive de la prise de conscience d'une information. Pour le savoir, les chercheurs montrent un visage sous forme d'image subliminale – qui reste 33 millisecondes à l'écran – à 19 volontaires sains placés dans l'IRM fonctionnelle. Les volontaires doivent ensuite dire s'ils ont vu ou non le visage. Les scientifiques constatent alors que l'activation préalable du cortex insulaire antérieur était prédictif de la capacité du sujet à percevoir consciemment l'image du visage. "Le cortex insulaire antérieur a une activité qui fluctue continuellement", explique Zirui Huang. "La détection d'un stimulus dépend de l'état de l'insula antérieure lorsque l'information arrive dans le cerveau : si l'activité de l'insula est élevée au moment du stimulus, vous verrez l'image. Sur la base des résultats de ces deux expériences, nous concluons que le cortex insulaire antérieur pourrait être une porte pour la conscience."



 

Auteur: Internet

Info: https://www.sciencesetavenir.fr/ - Camille Gaubert, 4.05.2021

[ présence ] [ joignable ] [ accessible ] [ disponible ]

 

Commentaires: 0

Ajouté à la BD par miguel

extension

La conscience humaine pourrait être un effet de l’entropie 

Une nouvelle étude suggère que la conscience pourrait être une caractéristique émergente découlant de l’effet d’entropie, soit le mécanisme physique faisant que le désordre au sein de tout système ne peut faire qu’augmenter, et par le biais duquel le cerveau maximiserait les échanges d’informations. Cette conclusion a été déduite de l’analyse de l’activité cérébrale de patients épileptiques ou non, indiquant que les états d’éveil normaux (ou conscients) sont associés à des valeurs entropiques maximales.

En thermodynamique, l’entropie se traduit par le passage inéluctable d’un système d’un agencement ordonné à désordonné. La valeur entropique est le niveau de désorganisation de ce système. Les physiciens suggèrent qu’après le Big Bang, l’Univers est progressivement passé d’un état entropique faible à élevé et qu’à l’instar du temps, l’entropie ne peut qu’augmenter au sein d’un système. De leur côté, les neurobiologistes estiment que le principe est transposable à l’organisation de nos connexions neuronales.

La question est de savoir quel type d’organisation neuronale sous-tend les valeurs de synchronisation observées dans les états d’alerte normaux ou non. C’est ce que des chercheurs de l’Université de Toronto et de l’Université de Paris Descartes ont exploré. " Nous avons cherché à identifier les caractéristiques globales de l’organisation du cerveau qui sont optimales pour le traitement sensoriel et qui peuvent guider l’émergence de la conscience ", expliquent-ils dans leur étude, publiée dans la revue Physical Review E.

Les observations de l’activité cérébrale chez l’Homme ont montré qu’elle est sujette à une importante fluctuation au niveau des interactions cellulaires. Cette variabilité serait à la base d’un large éventail d’états, incluant la conscience. D’un autre côté, des travaux antérieurs traitant du fonctionnement cérébral ont suggéré que l’état conscient n’est pas nécessairement associé à des degrés élevés de synchronisation entre les neurones, mais davantage à des niveaux moyens. Les chercheurs de la nouvelle étude ont alors supposé que ce qui est maximisé au cours de cet état n’est pas la connectivité neuronale, mais le nombre de configurations par lesquelles un certain degré de connectivité peut être atteint.

État de conscience = entropie élevée ?

Dans le cadre de leur analyse, les scientifiques ont utilisé la mécanique statistique pour l’appliquer à la modélisation de réseaux neuronaux. Ainsi, cette méthode permet de calculer des caractéristiques thermodynamiques complexes. Parmi ces propriétés figure la manière dont l’activité électrique d’un ensemble de neurones oscille de façon synchronisée avec celle d’un autre ensemble. Cette évaluation permet de déterminer précisément de quelle façon les cellules cérébrales sont liées entre elles.

Selon les chercheurs, il existerait une multitude de façons d’organiser les connexions synaptiques en fonction de la taille de l’ensemble de neurones. Afin de tester leur hypothèse, des données d’émission de champs électriques et magnétiques provenant de 9 personnes distinctes ont été collectées. Parmi les participants, 7 souffraient d’épilepsie. Dans un premier temps, les modèles de connectivité ont été évalués et comparés lorsqu’une partie des volontaires était endormie ou éveillée. Dans un deuxième temps, la connectivité de 5 des patients épileptiques a été analysée, lorsqu’ils avaient des crises de convulsions ainsi que lorsqu’ils étaient en état d’alerte normal. Ces paramètres ont ensuite été rassemblés afin de calculer leurs niveaux d’entropie cérébrale. Le résultat est le même dans l’ensemble des cas : le cerveau affiche une entropie plus élevée lorsqu’il est dans un état de conscience.

Les chercheurs estiment qu’en maximisant l’entropie, le cerveau optimise l’échange d’informations entre les neurones. Cela nous permettrait de percevoir et d’interagir de manière optimale avec notre environnement. Quant à la conscience, ils en ont déduit qu’elle pourrait tout simplement être une caractéristique émergente découlant de cette entropie. Toutefois, ces conclusions sont encore hautement spéculatives en raison des limites que comporte l’étude, telles que le nombre restreint de participants à l’étude. Le terme " entropie " devrait même être considéré avec parcimonie dans ce cadre, selon l’auteur principal de l’étude, Ramon Guevarra Erra de l’Université de Paris Descartes.

De nouvelles expériences sur un échantillon plus large sont nécessaires afin de véritablement corroborer ces résultats. On pourrait aussi évaluer d’autres caractéristiques thermodynamiques par le biais de l’imagerie par résonance magnétique, qui peut être utilisée pour mesurer l’oxygénation — une propriété directement liée au métabolisme et donc à la génération de chaleur (et de ce fait d’augmentation de l’entropie). Des investigations menées en dehors de conditions d’hôpital seraient également intéressantes afin d’évaluer des états de conscience associés à des comportements cognitifs plus subtils. On pourrait par exemple analyser l’activité cérébrale de personnes exécutant une tâche spécifique, comme écouter ou jouer de la musique.

Auteur: Internet

Info: https://trustmyscience.com/ - Valisoa Rasolofo & J. Paiano - 19 octobre 2023

[ complexification ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

homme-animal

Ce que l'Homme et le gorille ont en commun
Des chercheurs du Wellcome Trust Sanger Institute (Royaume-Uni), avec la participation de l'équipe d'Emmanouil Dermitzakis, professeur Louis-Jeantet à la Faculté de médecine de l'UNIGE, ont réussi à séquencer le génome du gorille, le seul hominidé dont le génome n'avait pas encore été décodé. Cette étude a révélé qu'une partie du génome humain ressemble davantage à celui du gorille qu'à celui du chimpanzé. Les résultats de cette recherche offrent des perspectives inédites sur l'origine de l'Homme.
L'être humain, le chimpanzé et le gorille présentent de nombreuses similitudes anatomiques et physiologiques. Des études moléculaires ont confirmé que l'Homme est plus proche des grands singes d'Afrique, en particulier du chimpanzé, que des ourang-outans. Des analyses complémentaires ont ensuite exploré les différences fonctionnelles entre les espèces de grands singes et déterminé leur influence sur l'évolution de l'être humain à travers le séquenc¸age de l'ADN du chimpanzé et de l'orang-outan, mais pas celui du gorille.
L'équipe de chercheurs menée par le Wellcome Trust Sanger Institute propose la première analyse génomique du gorille jamais réalisée qui constitue une base d'étude de l'évolution des hominidés. C'est la première fois que des scientifiques réussissent à comparer les génomes des quatre espèces d'hominidés: les humains, les chimpanzés, les gorilles et les orangs-outangs.
"Le séquençage du génome du gorille est important puisqu'il permet de lever le voile sur la période de l'évolution durant laquelle nos ancêtres ont commencé à s'éloigner de nos cousins les plus proches. Nous pouvons ainsi examiner les similitudes et les dissemblances entre nos gènes et ceux du gorille, le plus grand des primates anthropoi¨des, explique Aylwyn Scally du Wellcome Trust Sanger Institute. Nous avons assemblé l'ADN de Kamilah, un gorille femelle des plaines de l'ouest, et nous l'avons comparé aux génomes d'autres grands singes. Nous avons également prélevé l'ADN d'autres gorilles afin d'analyser les différences génétiques entre les espèces de gorille."
Cette étude met en lumière la période à laquelle trois espèces étroitement liées, le gorille, le chimpanzé et l'Homme, ont commencé à se différencier. Contrairement à ce que l'on pourrait penser, les espèces ne divergent pas toujours brutalement à un moment donné, elles se séparent parfois progressivement sur une longue période.
L'équipe a découvert que la divergence génétique entre les gorilles et les humains et chimpanzés date d'il y a environ 10 millions d'années. La dissemblance génomique entre les gorilles des plaines de l'est et de l'ouest est, quant à elle, beaucoup plus récente et remonte à 1 million d'années. Leur génome se sont graduellement éloignés jusqu'à être complètement distincts. Cette divergence est comparable, à certains égards, à celle qui existe entre les chimpanzés et les bonobos, et entre l'Homme moderne et l'homme de Néanderthal. L'équipe a analysé plus de 11 000 gènes chez l'humain, le chimpanzé et le gorille afin de déterminer les changements génétiques apparus au cours de l'évolution.
Bien que l'Homme et le chimpanzé soient génétiquement proches, les chercheurs ont découvert que cette ressemblance ne s'appliquait pas à la totalité du génome. En réalité, 15% du génome humain se rapproche davantage de celui du gorille que de celui du chimpanzé. Les chercheurs ont découvert que, chez ces trois espèces, les gènes liés à la perception sensorielle, à l'oui¨e et au développement cérébral, ont montré des signes d'évolution accélérée, particulièrement chez l'humain et le gorille. Les résultats de cette recherche ont révélé non seulement des dissemblances entre les espèces, mettant en lumière des millions d'années de divergence évolutionniste, mais également des similarités.
Les gorilles et les humains partagent en effet de nombreuses modifications génétiques, impliquées notamment dans l'évolution de l'audition. Il y a quelques années, des scientifiques avaient suggéré que l'évolution rapide des gènes humains liés à l'audition était en corrélation avec celle du langage. Cette déclaration est aujourd'hui remise en question puisque cette étude démontre que les gènes de l'audition ont évolué au même rythme chez l'être humain et chez le gorille.
Grâce à cette recherche, les scientifiques ont fait le tour de toutes les comparaisons entre les espèces d'hominidés. Après des décennies de débats, leurs interprétations génétiques sont désormais cohérentes avec le registre fossile. Les paléontologues et les généticiens peuvent dorénavant travailler sur les mêmes bases.
"Cette étude offre des perspectives inédites sur l'évolution de nos ancêtres et de nos origines. Les conclusions de ce travail de recherche sont pertinentes d'un point de vue historique, mais ce n'est pas tout. Elles sont d'une importance fondamentale pour la compréhension de notre génome, de la variabilité génétique et des conséquences médicales des mutations", commente Emmanouil Dermitzakis. Avec son équipe genevoise, ce a participé à l'analyse des activités génétiques à partir de cellules prélevées chez le gorille, l'Homme, le chimpanzé et le bonobo. Ses résultats démontrent que d'un point de vue général l'expression des gènes correspond aux différences génétiques entre les espèces.

Auteur: Internet

Info: http://www.unige.ch/communication/archives/2012/gorilles.html

[ quadrumane ] [ métamorphose ]

 

Commentaires: 0

réversibilité

La gravité quantique pourrait inverser causes et effets.

Toute théorie de la gravité quantique va devoir se colleter avec des trucs temporels bizarres.

Vous avez probablement entendu parler du chat de Schrödinger, ce  malheureux félin, dans une boîte, où il est simultanément vivant et mort jusqu'à ce que la boîte soit ouverte pour révéler son état réel. Maintenant, faites-vous une idée du temps de Schrödinger, une situation dans laquelle un événement peut être simultanément la cause et l'effet d'un autre événement. 

Un tel scénario pourrait être inévitable dans la théorie de la gravité quantique, domaine encore flou d'une physique qui cherche à combiner la théorie de la relativité générale d'Albert Einstein avec les mécanismes de la mécanique quantique. Dans un nouvel article, des scientifiques créent un mélange des deux en imaginant des vaisseaux spatiaux près d'une énorme planète dont la masse ralentit le temps. Ils en concluent que les vaisseaux pourraient se retrouver dans un état où la causalité est inversée : Tel événement pourrait finir par causer un autre événement qui s'est produit avant le premier. 

"On peut imaginer ce genre de scénario dans l'ordre temporel, où la cause et l'effet sont en superposition, inversés ou non", a déclaré le co-auteur de l'étude, Igor Pikovski, physicien au Center for Quantum Science and Engineering du Stevens Institute of Technology, dans le New Jersey. "C'est quelque chose qui devrait normalement se produire une fois que nous aurons une théorie complète de la gravité quantique".

Le temps quantique

La célèbre expérience de pensée du chat de Schrödinger demande à un spectateur d'imaginer une boîte contenant un chat et une particule radioactive qui, une fois désintégrée, tuera le malheureux félin. En vertu du principe de superposition quantique, la survie ou la mort du chat est tout aussi probable jusqu'à ce qu'elle soit mesurée - ainsi, jusqu'à ce que la boîte soit ouverte, le chat est simultanément vivant et mort. En mécanique quantique, la superposition signifie qu'une particule peut exister dans plusieurs états en même temps, tout comme le chat de Schrödinger. 

Cette nouvelle expérience de pensée, publiée le 21 août dans la revue Nature Communications, combine le principe de superposition quantique avec la théorie de la relativité générale d'Einstein. Selon la relativité générale, la masse d'un objet géant peut ralentir le temps. Ce phénomène est bien établi et mesurable, a déclaré M. Pikovski ; un astronaute en orbite autour de la Terre verra le temps s'écouler un tout petit peu plus vite que son jumeau sur la planète. (C'est aussi pourquoi tomber dans un trou noir serait une expérience très graduelle). 

Ainsi, si un vaisseau spatial futuriste se trouve à proximité d'une planète massive, son équipage ressentira le temps comme un peu plus lent que les personnes situées dans un autre vaisseau spatial stationné plus loin. Ajoutez à ça un peu de mécanique quantique et vous pouvez imaginer une situation dans laquelle cette planète est superposée simultanément près et loin des deux vaisseaux spatiaux. 

Le temps devient bizarre

Dans ce scénario de superposition de deux vaisseaux qui expérimentent le temps sur des lignes temporelles différentes, la cause et l'effet peuvent devenir bizarres. Par exemple, supposons que les vaisseaux doivent effectuer une mission d'entraînement au cours de laquelle ils se tirent dessus et s'esquivent mutuellement, en sachant parfaitement à quel moment les missiles seront lancés et intercepteront leurs positions. S'il n'y a pas de planète massive à proximité qui perturbe l'écoulement du temps, c'est un exercice simple. En revanche, si cette planète massive est présente et que le capitaine du vaisseau ne tient pas compte du ralentissement du temps, l'équipage pourrait être en retard pour esquiver et être détruit. 

Avec une telle planète en superposition, simultanément proche et lointaine, il serait impossible de savoir si les vaisseaux esquivent trop tard et se détruisent mutuellement ou s'ils s'écartent et survivent. Qui plus est, la cause et l'effet pourraient être inversés, selon M. Pikovski. Bref il faut imaginer deux événements liés par la causalité

"A et B peuvent s'influencer mutuellement dans un état de superposition, mais dans un cas, A est avant B et inversément, explique M. Pikovski. Ce qui signifie que A et B sont simultanément la cause et l'effet l'un de l'autre. Heureusement pour les équipages, sans doute très confus, de ces vaisseaux spatiaux imaginaires, dit Pikovski, ils auraient un moyen mathématique d'analyser les transmissions de l'autre pour confirmer qu'ils sont dans un état de superposition.

Évidemment, dans la vie réelle c'est très différent. Mais l'expérience de pensée pourrait avoir des implications pratiques pour l'informatique quantique, même sans élaborer une théorie complète de cette dernière, a déclaré M. Pikovski. En utilisant les superpositions dans les calculs, un système d'informatique quantique pourrait évaluer simultanément un processus en tant que cause et en tant qu'effet. 

"Les ordinateurs quantiques pourraient être en mesure de l'utiliser pour des calculs plus efficaces", a-t-il déclaré.

Auteur: Internet

Info: https://www.livescience.com/. Stephanie Pappas Le 28 août 2019

[ nanomonde ] [ coexistence ]

 

Commentaires: 0

Ajouté à la BD par miguel

théorie du tout

Des chercheurs pourraient avoir découvert une nouvelle loi sur l'évolution de tout ce qui existe dans l'univers !

Comment les choses évoluent-elles ? C'est la question à laquelle les chercheurs tentent de répondre. Galaxies, étoiles et même la vie telle que nous la connaissons ont subi un processus d'évolution. La question est de comprendre comment ce processus se déroule et pourquoi il se produit.

(photo) Un exemple de systèmes complexes sont les galaxies et l'interaction entre elles lors d'une collision.

Lorsque nous regardons l'Univers, nous trouvons des structures complexes allant de la vie telle que nous la connaissons aux galaxies et aux étoiles. Dans différents domaines de la connaissance, le niveau de complexité semble être une question ouverte : comment les structures sont-elles parvenues à des niveaux aussi complexes ?

En biologie, une des questions est de comprendre comment la vie est arrivée à ce que nous connaissons aujourd’hui. En philosophie, la question de la conscience et de l'intelligence qui ont évolué vers des formes de plus en plus complexes. En astronomie, la question de savoir comment les galaxies ont évolué pour devenir ce que nous connaissons aujourd'hui reste jusqu'à présent un grand mystère.

Avec ces questions à l'esprit, un groupe de chercheurs de différents domaines se sont réunis pour proposer une nouvelle loi sur l'évolution des choses dans l'Univers. La loi est connue sous le nom de "loi de l'augmentation de l'information fonctionnelle" qui tente d'expliquer pourquoi les choses évoluent vers des structures plus complexes.

Systèmes Complexes

Des systèmes complexes peuvent être trouvés dans différents domaines allant de la sociologie à la physique. Le domaine se concentre sur la compréhension des unités d'un ensemble qui interagissent les unes avec les autres et ont une dynamique collective.

Un exemple de cela est le comportement d'un ensemble de personnes lors d'un concert de musique, chaque participant est une personne, mais il y a un comportement collectif.

La propre question de comment la vie est apparue est un problème qui a une intersection avec les systèmes complexes. Nous pouvons comprendre les êtres vivants comme une série d'interactions complexes entre les molécules qui à leur tour ont des interactions avec leurs atomes. Expliquer comment nous sommes arrivés à ce niveau de complexité est une grande question ouverte.

Complexité en Physique

En physique, le domaine des systèmes complexes est extrêmement riche pour expliquer différents types de problèmes. Les propres particules et interactions entre particules deviennent de véritables laboratoires. Mais peut-être que les grandes questions se trouvent à l'intérieur de l'astrophysique.

(photo) Les systèmes complexes peuvent être dans une variété de domaines allant de la sociologie à la physique.

Nous observons des galaxies de différents types avec des dynamiques compliquées. Notre propre Voie Lactée est un exemple de galaxie de type spirale, mais nous observons d'autres types tels que les elliptiques, les irrégulières et les lenticulaires. La dynamique complexe soulève des questions telles que : comment sont-elles apparues ?

L'une des missions principales du télescope spatial James Webb est de comprendre comment les galaxies se sont formées lorsque l'Univers était jeune. La réponse est si difficile qu'il y a un effort de la communauté scientifique pour analyser les détails des données pour commencer à tenter de répondre à la question.

Étude des Systèmes Complexes

Certains chercheurs de l'Université de Cornell se sont réunis pour répondre à la question : pourquoi les systèmes complexes, y compris la vie, évoluent-ils vers de plus grandes informations fonctionnelles au fil du temps ? L'étude a rassemblé des astronomes, des physiciens, des philosophes, un minéralogiste et un scientifique des données pour tenter de répondre.

Selon l'auteur de l'étude, c'était l'une des plus grandes réunions entre philosophes et scientifiques de la nature pour répondre à la question. Ensemble, ils ont introduit ce qu'ils ont appelé la "loi de l'augmentation de l'information fonctionnelle"Les lois aident à donner une direction pour comprendre la raison derrière ce que nous observons.

Loi de l'Augmentation de l'Information Fonctionnelle

Dans le travail publié par la revue PNAS, les chercheurs rapportent que la nouvelle loi stipule qu'un système évolue si différentes configurations du système sont utilisées pour une ou plusieurs fonctions. En d'autres termes, un système aura tendance à devenir de plus en plus complexe au fil du temps en fonction des fonctions.

La loi parle également de la sélection naturelle des systèmes et du fait que seuls certains survivront, c'est-à-dire que les plus complexes survivront. Cela est très similaire à la Théorie de l'Évolution de Darwin mais élargie à des systèmes qui ne sont pas vivants, comme l'arrangement des atomes ou même des galaxies.

Critiques

Le travail a été salué par différents chercheurs qui soutiennent que c'est un pas en avant dans la compréhension des systèmes complexes. Cependant, certains ont également examiné le travail avec critique, disant qu'il n'est pas nécessaire de trouver une loi analogue à la théorie de Darwin pour les systèmes non vivants.

Auteur: Internet

Info: https://www.tameteo.com, Roberta DuarteMeteored Brésil25/10/2023

[ réseaux bayésiens dynamiques ] [ macro ] [ micro ] [ nano ] [ giga ] [ astrophysique ] [ complexification ]

 

Commentaires: 0

Ajouté à la BD par miguel

technologie

Comment Internet modifie le cerveau
L'écran aspire-t-il notre cerveau ?
À force de passer des milliers d'heures à naviguer sur Internet, Nicholas Carr en est arrivé à une conclusion : Internet modifie l'esprit. Dans son dernier livre, Internet rend-il bête ?*, le journaliste et écrivain américain constate, comme de nombreux " travailleurs de l'écran ", qu'il a de plus en plus de mal à se concentrer sur une tâche complexe, ou même à ne faire qu'une seule chose à la fois. La vie en mode zapping fait des dégâts. " J'ai le sentiment désagréable que quelqu'un, ou quelque chose, bricole avec mon cerveau ", explique-t-il. Amoureux du Net, l'auteur a d'autant plus de difficultés à en dire du mal : Internet " est un si bon serviteur qu'il serait déplacé de remarquer qu'il est aussi notre maître ", s'amuse-t-il.
Ce qui importe, selon Nicholas Carr, ce n'est pas tant le contenu diffusé par les médias que la façon de les diffuser. " Les médias opèrent leur magie, ou leurs méfaits, sur le système nerveux lui-même ", explique-t-il. Notre cerveau est enfermé dans la boîte crânienne, ce qui nous laisse penser - à tort - qu'il serait insensible aux événements extérieurs ; qu'il les capterait et les analyserait sans en subir les influences. Mais " le cerveau est et sera toujours un chantier en cours ", rappelle l'auteur.
L'esprit devient affamé
Reprenant la thèse selon laquelle l'activité du cerveau le modèle et le façonne en permanence, comme l'eau qui coule dans le sable crée des chemins qu'elle empruntera toujours par la suite, Nicholas Carr tire la sonnette d'alarme. Les " médias électriques " ont changé notre façon de percevoir le monde. Radio, télévision, Internet : tous nous crient l'urgence de les consulter, au contraire des journaux papier et des " livres poussiéreux " d'antan, qui nous chuchotaient qu'on avait tout le temps pour les consulter au calme.
Résultat : "Le plongeur qui, naguère, explorait l'océan des mots, en rase maintenant la surface à la vitesse de l'éclair." Dans un clin d'oeil à Descartes, Nicholas Carr affirme même que " nous devenons ce que nous pensons ". L'effet est pire sur les jeunes, qui sont nés avec Internet. Selon une étude citée dans l'ouvrage, certains enfants trop habitués aux pages web ne sauraient plus vraiment lire une page de haut en bas et de gauche à droite. L'addiction est aussi présente : " Mon esprit n'était pas seulement à la dérive, il avait faim. Il demandait à être alimenté comme le Net le nourrit - et plus il était nourri, plus il avait faim. " La " surcharge cognitive " est telle que la capacité à réfléchir est menacée.
Nouvelle ère
Un constat alarmant ? Pas forcément. Nicholas Carr entrevoit une nouvelle ère pour la pensée, qui nous sortirait définitivement des Lumières et du rationalisme. En jeu, de nouveaux mécanismes cognitifs, dont on ne sait pas encore s'ils sont meilleurs ou moins bons que ceux que nous avions tous il y a encore vingt ans.
L'habitude du zapping, par exemple, permet de traiter plusieurs tâches à la fois de façon plus efficace, mais réduit la capacité à résoudre des problèmes complexes, et à mémoriser des souvenirs. Autre exemple : la généralisation du guidage GPS atrophie la partie du cerveau chargée de l'orientation dans l'espace, mais libère du temps et des neurones pour d'autres activités. Pour le moment, nous savons simplement que nous avons " sacrifié des parties de notre cerveau " au profit d'autres apports, que nous commençons tout juste à entrevoir. Reste à savoir si nous serons perdants. Le bilan semble négatif aujourd'hui, mais Carr veut être optimiste : peut-être l'homme apprendra-t-il bientôt a tirer profit de sa nouvelle capacité à ne jamais se concentrer...
Commentaire : Euh... pardon? Sa "nouvelle capacité"?
Demain, tous transformés
Ceux qui passent des heures sur leur écran et qui, le soir venu, se demandent ce qu'ils ont fait de leur journée, se reconnaîtront bien dans le livre de Nicholas Carr. Certains passages les feront sourire, notamment le récit de sa tentative de désintoxication durant la rédaction du livre. " Le démantèlement de ma vie en ligne ne s'est pas fait sans douleur [...] De temps en temps, je m'offrais une journée entière d'orgie sur le Net ", raconte-t-il.
Seul regret, la traduction depuis l'anglais du vocabulaire technique n'est pas toujours parfaite. Par exemple, le sigle ISP, qui signifie " Internet Service Provider ", c'est-à-dire fournisseur d'accès à Internet, n'est ni expliqué ni traduit. L'abonnement (account) qui va avec est traduit par " compte ". Quelques lignes plus loin, c'est la connexion broadband (haut-débit) qui est traduite par " large bande ". Mais ces petits détails ne sont pas gênants pour la compréhension. Internet rend-il bête ? n'en est pas moins un ouvrage ambitieux, qui essaie de cerner les évolutions du cerveau et de la pensée à l'ère numérique, et de nous préparer à ce qui nous attend dans le monde encore plus connecté de demain. Un livre à recommander à tous les forçats du Web !

Auteur: Internet

Info: Science de l'Esprit, Le Point 10 novembre 2011

[ sociologie ] [ lecture ]

 

Commentaires: 0

progrès

Pourquoi la victoire d’une Intelligence artificielle au poker est plus inquiétante qu’il n’y paraît
Une intelligence artificielle (IA) du nom de Libratus a fait mordre la poussière à 4 des meilleurs joueurs de Poker au monde, à l’issu d’un tournoi de poker de longue haleine, au Rivers Casino, à Pittsburgh, aux États-Unis. Dong Kim, Jason Les, Jimmy Chou et Daniel McAuley ont joué plusieurs jours à raison de 11h par jour, sans monnaie réelle – mais avec un enjeu financier selon leur capacité individuelle à se défaire de l’IA.
Jusqu’ici, il était relativement simple pour un algorithme de prévoir l’issue d’une partie d’échecs ou de Go, car tous les mouvements sont prévisibles à partir de la configuration du plateau de jeu. Mais au poker, il est impossible de connaître la main de ses adversaires ni leur état d’esprit, qui influe grandement leur prise de décision.
Le tournoi qui a opposé 4 joueurs de Poker professionels à l’IA Libratus. (Carnegie Mellon University)
Cette victoire constitue une première mondiale significative ; jusqu’ici, étant donné la grande complexité du poker et des facteurs humains impliqués, les machines qui s’étaient frottées au jeu avaient perdu. Sur les sites de paris en ligne, la victoire des 4 joueurs l’emportait à 4 contre 1.
Une victoire qui étonne même le créateur de l’algorithme
L’algorithme à la base de Libratus repose sur un “deep learning”. Libratus est une version améliorée d’un algorithme antérieur, déjà testé dans des circonstances similaires en 2015 – les joueurs de Poker l’avaient alors emporté.
La victoire confirme la puissance grandissante des algorithmes sur une période très courte. En octobre 2015, le programme alphaGo se débarrassait par 5 parties à 0 du champion européen Fan Hui. En mars 2016, le même programme battait le champion du monde Lee Sedol 4 parties à 1.
Le plus étonnant, selon Noam Brown, le créateur de Libratus, est que contrairement aux intelligences artificielles programmées pour gagner aux échecs, Libratus n’a jamais appris “comment” jouer au Poker. “Nous lui avons donné les règles de base”, et nous lui avons dit “apprends par toi-même”. Durant les pauses du tournoi, alors que les humains dînaient, dormaient ou analysaient les différentes mains de la partie, Brown connectait l’ordinateur au superordinateur de Pittsburg et affinait sa stratégie en rejouant des milliards de possibilités.
“Quand vous jouez contre un humain, vous perdez, vous arrêtez, vous faites une pause. Ici, nous devions donner le meilleur de nous-même 11 heures par jour. La différence est réelle, et émotionnellement, cela est dur à supporter si vous n’êtes pas habitués à perdre”, raconte Les, qui avait joué contre Claudico, une version antérieure de l’algorithme ayant servi de base à Libratus.
Libratus a joué de façon agressive, et n’a pas hésité à faire grimper les paris pour des gains minimes. “Ce n’est pas quelque chose que ferait un humain, en temps normal. Mais cela vous force à devoir donner le meilleur de vous à chaque tour”, évalue Les, qui après la performance de Libratus, a avoué que plus rien ne pourrait l’étonner désormais.
Des raisons de s’inquiéter
“Quand j’ai vu l’IA se lancer dans le bluff en face d’humains, je me suis dit “mais, je ne lui ai jamais appris à faire cela !” C’est une satisfaction pour moi de me dire que j’ai réussi à créer quelque chose capable de cela”, a commenté Noam Brown.
Si le professeur a exprimé un sentiment de “fierté paternelle”, d’autres scientifiques se sont inquiétés des conséquences de l’évolution de l’algorithme ayant donné naissance à Libratus.
Avec cette capacité à traiter l’"imperfection" comme une donnée d’équation, les intelligences artificielles ne jouent plus dans la même cour. On peut sans crainte avancer qu’il sera possible, à l’avenir, d’avoir des robots capables de rivaliser avec les humains sur des enjeux impliquant la décision humaine. Ils pourraient prendre de meilleures décisions dans les transactions financières, ou dresser de meilleures stratégies militaires.
“En fait, le poker est le moindre de nos soucis. Nous avons à présent une machine capable de vous botter les fesses en affaires ou sur le plan militaire", s’inquiète Roman V. Yampolskiy, professeur de sciences informatique de l’université de Louisville.
Au sujet du Deep learning
Le Deep learning dont il est question est une révolution en cela que les intelligence artificielles, qui s’en tenaient à analyser et comparer des données, peuvent maintenant les "comprendre" et apprendre d’elle même ; ce qui la porte à un niveau d’abstraction supérieur. "Par exemple, une IA à qui on donne des photos représentant des museaux, du pelage, des moustaches et des coussinets sous les pattes, est capable d’élaborer le concept de chat. Elle utilise une logique exploratoire qui crée des concepts, elle n’est pas uniquement constituée d’algorithmes préprogrammés", explique Stéphane Mallard, chargé de stratégie et d’innovation dans les salles de marché de la Société Générale.
En 2011, une expérience a été menée dans un jeu télévisé américain, Jeopardy, dans lequel les candidats doivent trouver la question à partir d’une réponse. Une IA développée par IBM, nommée Watson, a gagné haut la main. Or aujourd’hui, d’après Stéphane Mallard, cette IA serait 2 500 fois plus puissante.
Il semble impossible, même pour une IA, de prévoir aujourd’hui jusqu’où ira le développement de ces machines. Mais comme dans les fables tournant autour de l’apprenti-sorcier, il se pourrait que l’erreur ne soit comprise que trop tard.
D’après le producteur, auteur et conférencier Cyrille de Lasteyrie, la rapidité du développement de l’IA, le fait d’ignorer les conséquences du développement de l’IA est dangereux. "En 2005, les entreprises ne prenaient pas Internet au sérieux, et considéraient le phénomène comme un sujet secondaire. Dix ans après, ces mêmes boîtes nous appellent en panique pour mener une transformation digitale profonde et de toute urgence… Je suis convaincu que c’est la même problématique avec l’intelligence artificielle, multipliée par dix. Les conséquences business, organisationnelles, technologiques, humaines ou sociologiques sont énormes", indique t-il dans une interview accordée à Challenges en septembre dernier.

Auteur: Internet

Info: Daniel Trévise, Epoch Times,5 février 2017

[ évolution ]

 
Mis dans la chaine

Commentaires: 0

homme-animal

Domestication des chiens: le mystère de son origine enfin levé
Retracer précisément l'histoire de la domestication du chien est crucial pour la recherche fondamentale. Ce sujet nécessite une approche interdisciplinaire comme l'illustre une nouvelle étude internationale qui réunit des archéozoologues et des paleogénéticiens. Pilotés par une équipe de l'université d'Oxford en Angleterre, ces travaux ont mobilisé plusieurs laboratoires français.
"En savoir plus à ce sujet permet d'en savoir plus sur notre propre histoire ; car l'histoire du chien constitue une part de l'histoire de l'humanité", explique Anne Tresset, archéozoologue à Paris et coauteur de l'étude. En effet, d'une part, le chien présente la particularité d'être le premier à avoir été domestiqué par l'homme: "Il vit dans des sociétés humaines depuis la fin du Paléolithique supérieur, c'est-à-dire depuis au moins 15 000 ans. À titre de comparaison, la domestication des bovins, du mouton, de la chèvre et du porc n'a eu lieu, elle, que plusieurs millénaires après, au Néolithique, soit il y a 10 500 ans", précise notre contact. D'autre part, le chien a un statut très particulier: "Il est le meilleur ami de l'homme, et le fut sans doute dès l'origine. On a par exemple retrouvé des ossements de chiens aux côtés de défunts dans des tombes de la culture proche-orientale natoufienne, remontant à l'Épipaléolithique, donc à plus de 11 000 ans...", poursuit Anne Tresset.
Plus précisément, la nouvelle étude suggère que le chien dérive non pas d'une seule, mais de deux domestications indépendantes de loups: une, survenue en Europe il y a au moins 15 000 ans ; et l'autre, en Asie de l'Est, il y a au moins 12 500 ans. Puis entre le Ve et le IVe millénaire avant notre ère, des chiens d'Asie auraient migré vers l'Europe, sans doute en même temps que des populations humaines. Là, ils se seraient reproduits avec des chiens européens. Leurs descendants auraient ensuite peu à peu remplacé les chiens d'origine.
Dans les faits, les archéozoologues soupçonnent une double origine du chien depuis plusieurs décennies déjà. Et ce grâce à l'étude de restes de chiens anciens, datés de la fin du Paléolithique supérieur ou de l'Épipaléolithique. Problème, les généticiens restaient, eux, persuadés qu'il n'y avait eu qu'une seule domestication: en Asie.
Et pour cause: les généticiens en question analysaient l'ADN des chiens actuels. Lesquels appartiennent majoritairement à un ensemble de lignées génétiques particulier, d'origine asiatique: l'haplogroupe A. "Le problème avec cette démarche est qu'en cas d'événements gommant complètement le pool génétique antérieur de la population analysée - comme ici, l'arrivée de chiens asiatiques en Europe -, il est impossible de "voir" ce qu'il y avait avant, soit ici le fait qu'il existait déjà, avant l'arrivée des chiens asiatiques, des chiens en Europe de l'Ouest, appartenant à l'haplogroupe C...", explique Anne Tresset.
Des os remontant à l'époque des tout premiers chiens
"La force de notre nouvelle étude est justement qu'elle a permis d'analyser pour la première fois l'ADN de nombreux restes archéologiques couvrant une longue période de l'histoire du chien, les plus vieux remontant à 14 000 ans, soit au début de l'histoire évolutive de ce mammifère. De plus, nos échantillons provenaient de différentes zones géographiques en Europe (France, Suisse, Allemagne, Roumanie...) et en Asie (Iran, Turkménistan, Russie asiatique)", souligne la paléogénéticienne lyonnaise Catherine Hänni.
"La force de notre étude est qu'elle a permis d'analyser pour la première fois l'ADN de nombreux restes archéologiques."
Concrètement, les chercheurs ont reconstitué l'histoire évolutive des chiens en étudiant 59 restes archéologiques de chiens qui ont vécu entre 14 000 et 3 000 ans avant le présent. Les scientifiques ont extrait l'ADN ancien de ces ossements puis ont séquencé l'ADN mitochondrial (présent dans des structures particulières des cellules: les mitochondries). Le génome complet des restes d'un chien vieux de 4 800 ans a également été séquencé.
"Cette recherche n'aurait jamais abouti sans la collaboration étroite entre l'archéozoologie, la paléogénétique et l'analyse génomique", se réjouit Catherine Hänni.
Une alliance tripartite gagnante
En pratique, les archéo zoologues ont permis l'accès aux différents restes archéologiques de chiens analysés ici, qu'ils avaient étudiés lors de précédentes études indépendantes. "À elle seule, notre équipe a fourni plus des trois quarts des échantillons étudiés", indique Anne Tresset. Puis, les paléo généticiens - dont l'équipe lyonnaise de Catherine Hänni - ont extrait et séquencé l'ADN des ossements collectés par les archéo zoologues. Enfin, l'équipe d'Oxford a réalisé une modélisation informatique à partir des séquences génétiques anciennes et de celles de 2 500 chiens modernes étudiés précédemment. Ce qui a permis au final de reconstituer l'arbre évolutif du chien.
Chose surprenante, cette modélisation a révélé une divergence entre les chiens originaires d'Asie de l'Est et ceux d'Europe, remontant à il y a moins de 14 000 ans... soit après l'apparition du chien en Europe ! D'où la conclusion qu'il y avait à l'origine deux populations distinctes de chiens: une en Asie et une en Europe. Autre résultat important: les analyses des ADN mitochondriaux des chiens modernes et anciens ont montré que, si la majorité des anciens chiens européens appartenaient à l'haplogroupe C (60 % des chiens) ou D (20 %), la plupart des chiens européens modernes sont de l'haplogroupe A (64 %) et B (22 %), tous deux d'origines asiatiques. Ce qui est cohérent avec une arrivée de chiens originaires d'Asie en Europe.
D'autres zones d'ombre à éclaircir
À l'avenir, les équipes d'Anne Tresset et de Catherine Hänni espèrent pouvoir éclaircir plusieurs autres zones d'ombre de l'histoire européenne et proche-orientale du chien. "Par exemple, nous voudrions tenter de comprendre pourquoi on trouve dans l'Ouest de l'Europe plutôt des chiens petits, alors qu'à l'Est de l'Europe on a plutôt des grands types. Plus largement, nous souhaiterions étudier les facteurs à l'origine de l'évolution de la taille, de la couleur ou encore de la forme des chiens lors de leur histoire évolutive (sélection par l'homme,...)", précise Anne Tresset. L'histoire du chien est donc loin d'avoir livré tous ses secrets.

Auteur: Internet

Info: http://www.techno-science.net/?onglet=news&news=15224

 

Commentaires: 0

psychanalyse

Ce serait une erreur de croire que l'inconscient est quelque chose d'inoffensif, à propos de quoi on pourrait, par exemple, organiser des petits jeux de société, ou qu'on pourrait à la légère utiliser à des essais thérapeutiques. Assurément, l'inconscient n'est pas dangereux en toutes circonstances ni chez tout le monde. Mais, dès qu'il existe une névrose, celle-ci est un signal d'alarme qui indique qu'il s'est produit dans l'inconscient une accumulation toute particulière d'énergie, formant une sorte de charge susceptible d'exploser. C'est pourquoi, dès lors, des précautions s'imposent. On ignore totalement ce qu'on est susceptible de déclencher quand on commence à analyser les rêves d'un sujet. Il se peut qu'on mette ainsi en mouvement quelque chose d'intérieur, d'invisible; très probablement il s'agit de quelque chose qui, de toute façon se serait tôt ou tard frayé une issue au-dehors... mais il est possible aussi que cela ne se serait jamais produit. On creuse, en quelque sorte, dans l'espoir de trouver un puits artésien, et l'on risque de tomber sur un volcan. Dès que des symptômes névrotiques existent, la plus grande réserve est de mise, et l'on ne doit avancer qu'avec prudence. Mais les cas névrotiques ne sont pas à beaucoup près les plus dangereux. On peut rencontrer des sujets dont l'apparence est des plus normales, qui ne présentent aucun symptôme névrotique particulier eux-mêmes parfois médecins ou éducateurs qui font même étalage de leur "normalité" qui sont des modèles de bonne éducation, qui ont dans la vie des opinions et des habitudes des plus normales, et dont la normalité n'en est pas moins une compensation artificielle pour une psychose latente et cachée. Les intéressés eux-mêmes ne soupçonnent en rien leur état. L'intuition vague qu'ils en ont ne s'exprime peut-être indirectement que par l'attrait particulier que leur inspirent la psychologie et la psychiatrie, domaines qui les captivent comme la lumière attire les papillons. Or, du fait que la technique de l'analyse active l'inconscient et l'aide à s'exprimer, elle détruit, en pareil cas, la compensation salutaire qui s'était installée, et l'inconscient fait irruption sous forme d'imaginations irrépressibles, d'onirisme, donnant lieu à des états d'excitation qui, dans certaines circonstances, aboutissent à une aliénation mentale durable, à moins qu'elle n'ait poussé auparavant au suicide. Ces psychoses latentes, hélas! ne sont pas tellement rares. Quiconque s'occupe d'analyse de l'inconscient est exposé au danger de tomber sur des cas de cette nature, même s'il dispose d'une grande expérience et de beaucoup d'habileté. Abstraction faite de ces cas, il est d'ailleurs possible que le praticien, par maladresse, par des erreurs de conception, par des interprétations arbitraires, fasse échouer des cas qui ne comportaient pas nécessairement un dénouement fâcheux. Cela n'est pas, il est vrai, l'apanage exclusif de l'analyse de l'inconscient, mais marque de son sceau toute intervention médicale si elle est manquée. L'affirmation gratuite que l'analyse rend les gens fous est naturellement aussi stupide que l'idée du vulgaire qui prétend que le médecin aliéniste, à force de s'occuper de fous, doive le devenir à son tour. En dehors des risques inhérents au traitement, l'inconscient peut devenir dangereux par lui-même. Une des formes les plus fréquentes que revêtent les dangers qu'il fait encourir, c'est la détermination d'accidents. Un nombre d'accidents de toute nature, beaucoup plus considérable que le public ne le pense, répond à un conditionnement psychique; qu'il s'agisse de petits incidents comme de trébucher, de se cogner, de brûler les doigts, ou de grandes catastrophes, accidents d'automobiles ou chutes en montagne, tous ces accidents, petits ou grands, peuvent être motivés et causés psychologiquement et se trouvent parfois préparés depuis des semaines ou même des mois. J'ai examiné beaucoup de cas de ce genre et, bien souvent, j'ai constaté chez le sujet l'existence de rêves qui dénotaient, bien des semaines à l'avance, l'existence d'une tendance à s'endommager soi-même; tendance qui, bien entendu, s'exprimait la plupart du temps de façon symbolique. Tous les accidents qui arrivent soit disant par inattention devraient être examinés dans la perspective d'une détermination éventuelle de cette sorte. On sait bien que lorsque, pour une raison ou une autre, on est mal disposé, il vous arrive non seulement des anicroches plus ou moins sérieuses, mais aussi parfois des choses graves qui, si elles surviennent à un moment psychologiquement approprié, peuvent même mettre un terme à une existence. D'ailleurs la sagesse populaire le dit : "Un tel est mort au bon moment", sentiment inspiré par une intuition très juste de la causalité psychologique du cas. De façon analogue, des maladies physiques peuvent être engendrées et entretenues. Un fonctionnement défectueux de l'âme peut porter au corps de notables dommages, de même que réciproquement une affection physique peut entraîner une souffrance de l'âme. Car l'âme et le corps ne sont pas des éléments séparés; ils constituent, au contraire, une seule et même vie. Aussi y a-t-il rarement une maladie somatique qui, alors même qu'elle n'a pas été déterminée par des causes psychiques, n'entraîne des complications morales d'une nature quelconque, complications qui, à leur tour, retentissent sur l'affection organique. Mais ce serait une erreur de ne mettre en relief que le côté défavorable de l'inconscient. Dans tous les cas courants, l'inconscient ne devient défavorable et dangereux que parce que nous sommes en désaccord avec lui, donc en opposition avec des tendances majeures de nous-mêmes. L'attitude négative à l'adresse de l'inconscient, voire sa répudiation par le conscient, sont nuisibles dans la mesure où les dynamismes de l'inconscient sont identiques à l'énergie des instincts. Par conséquent, un manque de contact et de liens avec l'inconscient est synonyme de déracinement et d'instabilité instinctuelle. Mais si l'on réussit à établir cette fonction, que j'ai dite transcendante, la désunion avec soi-même cessera et le sujet pourra bénéficier des apports favorables de l'inconscient. Car dès que la dissociation entre les divers éléments de soi-même cesse, l'inconscient accorde - l'expérience le prouve abondamment - toute l'aide et tous les élans qu'une nature bienveillante et prodigue peut accorder aux hommes. De fait l’inconscient recèle des possibilités qui sont absolument incessibles au conscient ; car il dispose de tous les contenus psychiques subliminaux, de tout ce qui a été oublié ou négligé, et, en outre, de la sagesse conférée par l'expérience d'innombrables millénaires, sagesse déposée et confiée à ses structures archétypiques.

Auteur: Jung Carl Gustav

Info: Dans "Psychologie de l'inconscient", trad. Roland Cohen, Livre de Poche, Paris, 1993, pages 195-198

[ conciliation ] [ dialectique ] [ psychothérapie ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par Coli Masson

syncrétisme

Les modernes ont développé quatre répertoires différents qu’ils croient incompatibles pour accommoder la prolifération des quasi-objets*.

Le premier répertoire traite de la réalité extérieure d’une nature dont nous ne sommes pas maîtres, qui existe en dehors de nous et qui n’a ni nos passions ni nos désirs, bien que nous soyons capables de la mobiliser et de la construire.

Le deuxième répertoire traite du lien social, de ce qui attache les humains entre eux, des passions et des désirs qui nous agitent, des forces personnifiées qui structurent la société, laquelle nous dépasse tous bien que nous la construisions.

Le troisième traite de la signification et du sens, des actants qui composent les histoires que nous nous racontons, des épreuves qu’ils subissent, des aventures qu’ils traversent, des tropes et des genres qui les organisent, des grands récits qui nous dominent infiniment, bien qu’ils soient en même temps simple texte et discours.

Le quatrième enfin parle de l'Être et déconstruit ce que nous oublions toujours lorsque nous avons le seul souci de l’étant, bien que la différence de l’Être soit distribuée à travers les étants, coextensifs à leur existence même.

Ces ressources ne sont incompatibles que dans la vision officielle de la Constitution. En pratique, nous sommes bien en peine de distinguer les quatre. Nous mêlons sans vergogne nos désirs aux choses, le sens au social, le collectif aux récits. Dès que nous suivons à la trace quelque quasi-objet, il nous apparaît tantôt chose, tantôt récit, tantôt lien social, sans se réduire jamais à un simple étant. Notre pompe à vide dessine le ressort de l’air, mais trace aussi la société du XVIIe siècle et définit également un nouveau genre littéraire, celui du récit d’expérience en laboratoire. Faut-il, en la suivant, prétendre que tout est rhétorique, ou que tout est naturel, ou que tout est construit socialement, ou que tout est arraisonnement ? Faut-il supposer que la même pompe est dans son essence parfois objet, parfois lien social et parfois discours ? Ou qu’elle est un peu des trois ? Qu’elle est parfois un simple étant, et parfois marquée, décalée, brisée par la différence ? Et si c’était nous, les modernes, qui divisions artificiellement une trajectoire unique, laquelle ne serait d’abord ni objet, ni sujet, ni effet de sens, ni pur étant ? Si la séparation des quatre répertoires ne s’appliquait qu’à des états stabilisés et tardifs ?

Rien ne prouve que ces ressources demeurent incompatibles lorsque nous passons des essences aux événements, de la purification à la médiation, de la dimension moderne à la dimension non moderne, de la révolution à la contre-révolution copernicienne. Des quasi-objets quasi-sujets, nous dirons simplement qu’ils tracent des réseaux. Ils sont réels, bien réels, et nous les humains nous ne les avons pas faits. Mais ils sont collectifs puisqu’ils nous attachent les uns aux autres, qu’ils circulent entre nos mains et nous définissent par leur circulation même. Ils sont discursifs pourtant, narrés, historiques, passionnés, et peuplés d’actants aux formes autonomes. Ils sont instables et risqués, existentiels et porteurs d’être. Cette liaison des quatre répertoires nous permet de construire une demeure assez vaste pour y abriter l’Empire du Milieu, la véritable maison commune du monde non moderne en même temps que sa Constitution.

La synthèse est impossible tant que nous demeurons modernes pour de bon, puisque la nature, le discours, la société, l’Être nous dépassent infiniment et que ces quatre ensembles ne se définissent que par leur séparation, laquelle maintient nos garanties constitutionnelles. Mais la continuité devient possible si nous ajoutons aux garanties la pratique qu’elle permet parce qu’elle la dénie. Les modernes ont bien raison de vouloir à la fois la réalité, le langage, la société et l’être. Ils n’ont tort que de les croire à jamais contradictoires. Au lieu de toujours analyser le parcours des quasi-objets en séparant ces ressources, ne pouvons-nous pas écrire comme si elles devaient se lier continûment les unes aux autres ? Nous sortirions probablement de la prostration postmoderne.

J’avoue que j’en ai par-dessus la tête de me retrouver pour toujours enfermé dans le seul langage ou prisonnier des seules représentations sociales. Je veux accéder aux choses mêmes et non à leurs phénomènes. Le réel n’est pas lointain, mais accessible en tous les objets mobilisés de par le monde. La réalité extérieure n’abonde-t-elle pas au beau milieu de nous ?

Nous en avons plus qu’assez d’être pour toujours dominés par une nature transcendante, inconnaissable, inaccessible, exacte, et simplement vraie, peuplée d’entités assoupies comme la Belle au bois dormant jusqu’au jour où les charmants savants les découvrent enfin. Nos collectifs sont plus actifs, plus productifs, plus socialisés que les ennuyeuses choses-en-soi ne nous le laissaient prévoir.

N’êtes-vous pas un peu lassés de ces sociologies construites sur du social, et qui se tiennent par la seule répétition des mots "pouvoir" et "légitimité" parce qu’elles ne peuvent encaisser ni le monde des objets ni celui des langages qui les construisent pourtant ? Nos collectifs sont plus réels, plus naturalisés, plus discursifs que les ennuyeux hommes-entre-eux ne nous le laissaient prévoir.

Nous sommes fatigués des jeux de langage et de l’éternel scepticisme de la déconstruction du sens. Le discours n’est pas un monde en soi, mais une population d’actants qui se mêlent aux choses comme aux sociétés, qui font tenir les unes et les autres, et qui les tiennent. S’intéresser aux textes ne nous éloigne pas de la réalité car les choses ont droit, elles aussi, à la dignité d’être des récits. Quant aux textes, pourquoi leur dénier la grandeur d’être le lien social qui nous fait tenir ensemble ? 

Je n’en puis plus d’être accusé, moi et mes contemporains, d’avoir oublié l’Être, de vivre dans un bas monde vidé de toute sa substance, de tout son sacré, de tout son art, ou de devoir, afin de retrouver ces trésors, perdre le monde historique, scientifique et social dans lequel je vis. S’appliquer aux sciences, aux techniques, aux marchés, aux choses, ne nous éloigne pas plus de la différence de l’Être et des étants, que de la société, de la politique, ou du langage.

Réels comme la nature, narrés comme le discours, collectifs comme la société, existentiels comme l’Être, tels sont les quasi-objets que les modernes ont fait proliférer, tels il convient de les suivre en redevenant simplement ce que nous n’avons jamais cessé d’être, des non-modernes.

Auteur: Latour Bruno

Info: Nous n'avons jamais été modernes. Essai d'anthropologie symétrique. Lier les quatre répertoires modernes. pp 57-59 *hybrides nature-culture, des collectifs où les choses ne sont pas séparés de la société mais s'y combinent en collectifs de toutes sortes.

[ géolinguistique ] [ taxonomies intriquées ] [ tétravalence sociale ] [ psycho-sociologie ]

 
Commentaires: 1
Ajouté à la BD par miguel