Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 1171
Temps de recherche: 0.0563s

cosmologie

Vivons-nous dans un trou noir ?

Notre univers pourrait bien se trouver dans un vaste trou noir.
Remontons le temps : avant la venue de l’Homme, avant l’apparition de la Terre, avant la formation du soleil, avant la naissance des galaxies, avant toute lumière… il y a eu le Big Bang. C’était il y a 13,8 milliards d’années.

Mais avant cela ? De nombreux physiciens avancent qu’il n’y avait rien avant cela. Le temps a commencé à s’écouler, insistent-ils, au moment du Big Bang et méditer sur tout ce qui aurait pu se produire avant ne relève pas de la science. Nous ne comprendrons jamais à quoi pouvait ressembler le pré-Big Bang, ou bien ce dont il était constitué, ou encore qui a provoqué son explosion ayant mené à la formation de notre univers. Toutes ces notions vont au-delà de la compréhension dont l’Homme est capable.

Pourtant, quelques scientifiques non-conventionnels ne sont pas d’accord. D’après la théorie de ces physiciens, un peu avant le Big Bang, toute la masse et l’énergie de l’univers naissant étaient compactées dans une boule incroyablement dense – mais pas infinie. Appelons-la la graine d’un nouvel univers.

On imagine cette graine d’une taille incroyablement petite, peut-être des trillions de fois plus petite que n’importe quelle particule observable par l’Homme aujourd’hui. Et pourtant, il s’agit d’une particule capable de déclencher la particule de toutes les autres particules, sans oublier les galaxies, le système solaire, les planètes et les êtres vivants.

S’il n’y avait qu’une chose à appeler la particule de Dieu, cela y ressemble bien.

Mais comment une telle graine peut-elle se former ? Il y a bien une idée qui circule depuis quelques années, notamment soutenue par Nikodem Poplawski de l’Université de New Haven, selon laquelle la graine de notre univers a été forgée dans le four ultime, probablement l’environnement le plus extrême qui soit : dans un trou noir.

LA MULTIPLICITÉ DU MULTIVERS
Avant d’aller plus loin, il est essentiel d’avoir en tête qu’au cours des vingt dernières années, de nombreux physiciens théoriciens en sont venus à croire que notre univers n’est pas le seul. Au lieu de cela, nous faisons plus probablement partie du multivers, un immense tableau constitué d’univers distincts, chacun centré sur son étoile brillant dans le ciel de la nuit.

Comment, ou même si, un univers est lié à un autre fait l’objet de nombreuses discussions, toutes extrêmement spéculatives et impossibles à prouver à l’heure actuelle. Selon une théorie convaincante, la graine de l’univers ressemble à celle d’une plante : il s’agit d’un fragment de matériau essentiel, très compressé, caché dans une enveloppe protectrice.

C’est précisément ce qui se crée au sein d’un trou noir. Les trous noirs sont les restes d’étoiles géantes. Lorsqu’une telle étoile arrive à cours d’énergie, son noyau se détruit à l’intérieur et la gravité se charge de transformer le tout en un ensemble incroyablement puissant. Les températures atteignent 100 milliards de degrés ; les atomes sont écrasés ; les électrons sont broyés ; et tous ces éléments sont ballottés encore et encore.

À ce stade, l’étoile est devenue un trou noir dont l’attraction gravitationnelle est telle que pas même un faisceau de lumière ne peut s’en échapper. La frontière entre l’intérieur et l’extérieur d’un trou noir est nommée" l’horizon des événements". D’énormes trous noirs, certains des millions de fois plus massifs que le soleil, ont été découverts au centre de presque toutes les galaxies, dont notre propre Voie Lactée.

DES QUESTIONS À L'INFINI
Si vous vous basez sur les théories d’Einstein pour déterminer ce qui se produit au fond d’un trou noir, vos calculs vous mèneront à un endroit infiniment dense et petit : un concept hypothétique appelé singularité. Mais les infinités n’ont pas vraiment leur place dans la nature et le fossé se creuse avec les théories d’Einstein, qui permettent une incroyablement bonne compréhension du cosmos mais ont tendance à s’effondrer dès lors que d’énormes forces sont impliquées, comme celles en action dans un trou noir ou encore celles qui ont rythmé la naissance de notre univers.

Des physiciens comme le Dr. Poplawski avancent que la matière d’un trou noir atteint un point à partir duquel elle ne peut plus être écrasée. Aussi petite puisse-t-elle être, cette "graine" pèse le poids d’un milliard de soleils et est bien réelle, contrairement à une singularité.

Selon le Dr. Poplawski, le processus de compaction cesse car les trous noirs sont en rotation, ce qui dote la graine compactée d’une bonne torsion. Elle n’est alors pas seulement petite et lourde ; elle devient tordue et compressée, comme ces jouets montés sur ressorts, prêts à jaillir de leur boîte.

Jouets qui peuvent rapidement se rétracter lorsqu’on les y force. Appelez ça le Big Bang – ou le "big bounce" (le grand rebond) comme le Dr. Poplawski aime à le dire.

En d’autres termes, il est possible que le trou noir soit comme un conduit – une "porte à sens unique", explique le Dr. Poplawski – entre deux univers. Cela signifie que si vous tombez dans le trou noir au centre de la Voie Lactée, on peut imaginer que vous (ou du moins les particules complètement éclatées dont vous étiez auparavant composés) finirez dans un autre univers. Celui-ci ne se situe pas dans le nôtre, comme l’ajoute le scientifique : le trou fait tout bonnement office de lien, comme une racine partagée qui connecterait entre eux deux peupliers.

Qu’en est-il de nous autres, ici, dans notre propre univers ? Nous pourrions alors bien être le produit d’un autre univers, plus ancien. Appelons-le notre univers "mère". La graine que cette mère a forgée au sein d’un trou noir aurait peut-être connu son grand rebond il y a 13,8 milliards d’années. Et même si notre univers s’est étendu rapidement depuis, il se pourrait bien que nous soyons toujours cachés derrière l’horizon des événements d’un trou noir.

Auteur: Internet

Info: De Michael Finkel sur https://www.nationalgeographic.fr, avril 2019

[ spéculation ]

 

Commentaires: 0

Ajouté à la BD par miguel

progrès

Pourquoi la victoire d’une Intelligence artificielle au poker est plus inquiétante qu’il n’y paraît
Une intelligence artificielle (IA) du nom de Libratus a fait mordre la poussière à 4 des meilleurs joueurs de Poker au monde, à l’issu d’un tournoi de poker de longue haleine, au Rivers Casino, à Pittsburgh, aux États-Unis. Dong Kim, Jason Les, Jimmy Chou et Daniel McAuley ont joué plusieurs jours à raison de 11h par jour, sans monnaie réelle – mais avec un enjeu financier selon leur capacité individuelle à se défaire de l’IA.
Jusqu’ici, il était relativement simple pour un algorithme de prévoir l’issue d’une partie d’échecs ou de Go, car tous les mouvements sont prévisibles à partir de la configuration du plateau de jeu. Mais au poker, il est impossible de connaître la main de ses adversaires ni leur état d’esprit, qui influe grandement leur prise de décision.
Le tournoi qui a opposé 4 joueurs de Poker professionels à l’IA Libratus. (Carnegie Mellon University)
Cette victoire constitue une première mondiale significative ; jusqu’ici, étant donné la grande complexité du poker et des facteurs humains impliqués, les machines qui s’étaient frottées au jeu avaient perdu. Sur les sites de paris en ligne, la victoire des 4 joueurs l’emportait à 4 contre 1.
Une victoire qui étonne même le créateur de l’algorithme
L’algorithme à la base de Libratus repose sur un “deep learning”. Libratus est une version améliorée d’un algorithme antérieur, déjà testé dans des circonstances similaires en 2015 – les joueurs de Poker l’avaient alors emporté.
La victoire confirme la puissance grandissante des algorithmes sur une période très courte. En octobre 2015, le programme alphaGo se débarrassait par 5 parties à 0 du champion européen Fan Hui. En mars 2016, le même programme battait le champion du monde Lee Sedol 4 parties à 1.
Le plus étonnant, selon Noam Brown, le créateur de Libratus, est que contrairement aux intelligences artificielles programmées pour gagner aux échecs, Libratus n’a jamais appris “comment” jouer au Poker. “Nous lui avons donné les règles de base”, et nous lui avons dit “apprends par toi-même”. Durant les pauses du tournoi, alors que les humains dînaient, dormaient ou analysaient les différentes mains de la partie, Brown connectait l’ordinateur au superordinateur de Pittsburg et affinait sa stratégie en rejouant des milliards de possibilités.
“Quand vous jouez contre un humain, vous perdez, vous arrêtez, vous faites une pause. Ici, nous devions donner le meilleur de nous-même 11 heures par jour. La différence est réelle, et émotionnellement, cela est dur à supporter si vous n’êtes pas habitués à perdre”, raconte Les, qui avait joué contre Claudico, une version antérieure de l’algorithme ayant servi de base à Libratus.
Libratus a joué de façon agressive, et n’a pas hésité à faire grimper les paris pour des gains minimes. “Ce n’est pas quelque chose que ferait un humain, en temps normal. Mais cela vous force à devoir donner le meilleur de vous à chaque tour”, évalue Les, qui après la performance de Libratus, a avoué que plus rien ne pourrait l’étonner désormais.
Des raisons de s’inquiéter
“Quand j’ai vu l’IA se lancer dans le bluff en face d’humains, je me suis dit “mais, je ne lui ai jamais appris à faire cela !” C’est une satisfaction pour moi de me dire que j’ai réussi à créer quelque chose capable de cela”, a commenté Noam Brown.
Si le professeur a exprimé un sentiment de “fierté paternelle”, d’autres scientifiques se sont inquiétés des conséquences de l’évolution de l’algorithme ayant donné naissance à Libratus.
Avec cette capacité à traiter l’"imperfection" comme une donnée d’équation, les intelligences artificielles ne jouent plus dans la même cour. On peut sans crainte avancer qu’il sera possible, à l’avenir, d’avoir des robots capables de rivaliser avec les humains sur des enjeux impliquant la décision humaine. Ils pourraient prendre de meilleures décisions dans les transactions financières, ou dresser de meilleures stratégies militaires.
“En fait, le poker est le moindre de nos soucis. Nous avons à présent une machine capable de vous botter les fesses en affaires ou sur le plan militaire", s’inquiète Roman V. Yampolskiy, professeur de sciences informatique de l’université de Louisville.
Au sujet du Deep learning
Le Deep learning dont il est question est une révolution en cela que les intelligence artificielles, qui s’en tenaient à analyser et comparer des données, peuvent maintenant les "comprendre" et apprendre d’elle même ; ce qui la porte à un niveau d’abstraction supérieur. "Par exemple, une IA à qui on donne des photos représentant des museaux, du pelage, des moustaches et des coussinets sous les pattes, est capable d’élaborer le concept de chat. Elle utilise une logique exploratoire qui crée des concepts, elle n’est pas uniquement constituée d’algorithmes préprogrammés", explique Stéphane Mallard, chargé de stratégie et d’innovation dans les salles de marché de la Société Générale.
En 2011, une expérience a été menée dans un jeu télévisé américain, Jeopardy, dans lequel les candidats doivent trouver la question à partir d’une réponse. Une IA développée par IBM, nommée Watson, a gagné haut la main. Or aujourd’hui, d’après Stéphane Mallard, cette IA serait 2 500 fois plus puissante.
Il semble impossible, même pour une IA, de prévoir aujourd’hui jusqu’où ira le développement de ces machines. Mais comme dans les fables tournant autour de l’apprenti-sorcier, il se pourrait que l’erreur ne soit comprise que trop tard.
D’après le producteur, auteur et conférencier Cyrille de Lasteyrie, la rapidité du développement de l’IA, le fait d’ignorer les conséquences du développement de l’IA est dangereux. "En 2005, les entreprises ne prenaient pas Internet au sérieux, et considéraient le phénomène comme un sujet secondaire. Dix ans après, ces mêmes boîtes nous appellent en panique pour mener une transformation digitale profonde et de toute urgence… Je suis convaincu que c’est la même problématique avec l’intelligence artificielle, multipliée par dix. Les conséquences business, organisationnelles, technologiques, humaines ou sociologiques sont énormes", indique t-il dans une interview accordée à Challenges en septembre dernier.

Auteur: Internet

Info: Daniel Trévise, Epoch Times,5 février 2017

[ évolution ]

 
Mis dans la chaine

Commentaires: 0

illusionnisme

Le monde de la psychologie appliquée est un univers particulier qui se compose d’une multitude de techniques partagées avec le monde du mentalisme et ne forme avec lui en fait, qu’une seule et même entité. Un mentaliste est donc quelqu'un qui a exploré la psychologie assez profondément pour en extraire les techniques utiles, stratégies d’interaction choisies et appliquées avec soin et dans un but précis.

Nous vous déclinons ici 4 techniques de mentalisme très utiles dans un contexte conversationnel.

1) Le Yes set (théorie de l’engagement)

C'est un des piliers de l’influence, issu de la vue systémique de la persuasion développée par  Robert B. Cialdini dans les années 1980. Il est facilement vérifiable et très intuitive, stipule que le fait d’habituer les gens à effectuer une série d’actions les rend beaucoup plus susceptibles d’en effectuer par la suite. Cette idée "d’habituer" les gens prend ses sources directement dans le principe du conditionnement, que nous verrons plus en détail dans un prochain point. Cialdini explique calmement que l’engagement va de pair avec le principe de la cohérence psychologique, qui dit (en gros) que "puisque j’ai fait ceci, je devrais faire cela". Le cerveau cherchant constamment à rationaliser le monde pour mieux le comprendre, il a horreur de l’incohérence. D’où son classement en tant que technique de mentalisme de haut niveau.

2) L’Ancrage émotionnel

Un des effets stupéfiant du monde de la psychologie après l’effet miroir. Cette technique de mentalisme exploitée instinctivement par l’homme depuis des siècles. Mais il aura fallu attendre Ivan Pavlov, précurseur du comportementalisme, pour modéliser le processus de conditionnement au grand jour. En gros : Vous donnez des bonnes croquettes à votre chien, vous agitez une clochette, le chien mange les croquettes. Vous faites ça pendant une semaine, plusieurs fois par jour. A chaque fois que le chien mange, il entend le son des clochettes. Au bout d’une semaine, vous agitez les clochettes mais ne servez plus à manger… Et le chien salive. Vous recommencez des jours plus tard, le chien salive toujours. Que s’est-il passé ? Le chien a associé le son des clochettes à la nourriture et au démarrage de sa digestion. Il a été conditionné à saliver et à penser à sa nourriture au son des clochettes. Et bien sûr ça marche aussi pour les humains. 

Le processus d’ancrage a été largement amélioré et repris dans des domaines aussi divers que la publicité, l’humour, le storytelling, la thérapie, et est à la base du fonctionnement de l’hypnose. Parce que oui, l’ancrage fonctionne AUSSI avec les émotion et est bien sûr très exploité comme technique de mentalisme. 

En combinant  les domaines ci-dessus on "fabrique" la technique en piochant un peu partout et en l’adaptant à la situation. Il faut donc créer une atmosphère agréable et renforcer un lien émotionnel en utilisant la technique de l’ancrage émotionnel ?

3) Hypnose conversationnelle et suggestion d’idées

Nous sommes ici dans l’antichambre de la magie : cette technique de mentalisme, consiste ni plus ni moins en une maîtrise millimétrée du langage et des mots. Et ce contrôle, cette absolue suprématie sur l’histoire que votre cerveau articule, peut donner naissance à des résultats tout-à-fait remarquables. Les objectifs de l’hypnose conversationnelle sont principalement les deux suivants : 

- Éveiller des émotions chez votre interlocuteur en adoptant une forme colorée et percutante de discours

- Communiquer des suggestions d’idées en utilisant les mécanismes des sous-entendus.

Si ces buts conversationnels sont les mêmes que ceux définis dans l’hypnose thérapeutique, leur articulation est différente. On préférera une communication plus fine, car dans l’hypnose conversationnelle, l’environnement est rarement dévoilé (difficile d’être persuasif si on annonce d’emblée qu’on va être persuasif).

Au sein même de l’hypnose conversationnelle, deux techniques de mentalisme sont très souvent exploitées :

- La métaphore sous toutes ses formes (il y a plusieurs niveaux de complexité), qui permet de se projeter dans un cadre extérieur pour être libre de jouer avec les idées souhaitées (on appellera ce travail une communication "indirecte")

- La suggestion directe camouflée, qui permet d'instiguer des évocations agissantes dans le discours avec une dextérité très complexe à maîtriser. L’intonation des mots, la maîtrise des ancrages émotionnels et l’imagination y sont pour beaucoup.

4) La Synchronisation (ou l’effet miroir)

Le mystère et les incroyables résultats associés à l’effet miroir font partie des causes de la nécessité absolue de communiquer les techniques de mentalisme publiquement. L’effet miroir est le sujet d’innombrables recherches de psychologie sociale depuis au moins un demi-siècle. Comment ça marche ? C’est simple. En effet : si vous ressentez une connexion émotionnelle forte avec les gens qui vous ressemblent et qui s’impliquent aussi dans votre relation, c’est parce que vous fonctionnez souvent en "synchronisation" :

Vous pensez souvent aux mêmes choses et aux mêmes moments. Vous utilisez le même langage pour communiquer, les mêmes expressions, parfois le même ton, et les mêmes gestuelles. Vous prenez ou partagez choix et opinions similaires. Vous riez souvent de concert, il vous est plus facile de partager les émotions de l’autre (empathie affective). Etc.

Voilà donc l’effet "miroir", en référence à l’activation des fameux neurones éponymes de nos cerveaux. Essayez de remarquer les mécanismes de synchronisation/désynchronisation entre deux (ou plusieurs, mais c’est plus avancé) personnes autour de vous. Qui se synchronise sur qui ? Essayez de remarquer les conséquences de ces synchros/désynchros sur la qualité de la conversation et sur l’influence des participants… Gare aux surprises. 

Où cela mène-t-il de connaitre ou apprendre plus de techniques de mentalisme ?

Comprendre et développer l’univers de la psychologie appliquée, composée d’une multitude de techniques de mentalisme, vous permettra de les repérer et vous en protéger si elles sont utilisées avec de mauvaises intentions. Cela vous permettra aussi de savoir les utiliser et les améliorer, ce qui peut arriver si vous souhaitez renforcer un lien émotionnel, dynamiser un groupe, ou tout autre objectif.

Auteur: Internet

Info: https://humanize-project.com/atmosphere/4-techniques-mentalisme/

[ manipulation ] [ comédie ] [ rapports humains ] [ pnl ] [ programmation neurolinguistique ] [ effet Barnum ]

 
Commentaires: 8
Ajouté à la BD par miguel

horizon anthropique

Qu'est-ce que le paradoxe cérébral de Boltzmann ? Le cerveau est-il l'univers ultime ?

Avez-vous déjà contemplé la nature de votre existence et vous êtes-vous demandé si vous étiez vraiment une personne ayant vécu une vie, ou simplement un cerveau récemment formé avec des souvenirs artificiels, développant momentanément une réalité qui n'est pas réelle ? Cette question, connue sous le nom de paradoxe du cerveau de Boltzmann, peut sembler absurde, mais elle trouble les cosmologistes depuis des générations.

Le paradoxe tire son nom de Ludwig Boltzmann, un éminent physicien du XIXe siècle qui a apporté des contributions significatives au domaine de la thermodynamique. À son époque, les scientifiques étaient engagés dans des débats passionnés sur la question de savoir si l'univers a une durée infinie ou finie. Boltzmann a révolutionné notre compréhension de l'entropie, qui mesure le désordre au sein d'un système. Par exemple, un verre est considéré comme ordonné, alors qu'un verre brisé est dans un état de désordre. La deuxième loi de la thermodynamique affirme que les systèmes fermés tendent à devenir plus désordonnés avec le temps ; un verre brisé ne se reconstitue pas spontanément dans son état originel.

Boltzmann a introduit une nouvelle interprétation de l'entropie en appliquant un raisonnement statistique pour expliquer le comportement des systèmes. Il a mis en évidence que les systèmes évoluent vers un état plus désordonné parce qu'une telle transformation est la plus probable. Cependant, si la direction opposée n'est pas impossible, elle est incroyablement improbable. Par exemple, nous ne verrons jamais des œufs brouillés redevenir des œufs crus. Néanmoins, dans un univers infiniment vieux, où le temps s'étend sans limites, des événements hautement improbables, tels que la formation spontanée de structures complexes à partir de combinaisons aléatoires de particules, finiraient par se produire.

Qu'est-ce que cela signifie dans le contexte d'un univers hypothétique qui existe depuis un temps infini ? Imaginez une étendue apparemment banale de quasi-néant, où environ huit octillions* d'atomes convergent fortuitement pour créer le "Le Penseur" de Rodin, sauf qu'elle est cette fois entièrement constituée de pâtes alimentaires. Cependant, cette sculpture de pâtes se dissout rapidement en ses particules constitutives. Ailleurs dans cette vaste toile cosmique, les particules s'alignent spontanément pour former une structure ressemblant à un cerveau. Ce cerveau est rempli de faux souvenirs, simulant une vie entière jusqu'au moment présent où il perçoit une vidéo véhiculant ces mêmes mots. Pourtant, aussi rapidement qu'il est apparu, le cerveau se décompose et se dissipe. Enfin, en raison de fluctuations aléatoires, toutes les particules de l'univers se concentrent en un seul point, déclenchant l'émergence spontanée d'un univers entièrement nouveau.

De ces deux derniers scénarios, lequel est le plus probable ? Étonnamment, la formation du cerveau est nettement plus probable que la création spontanée d'un univers entier. Malgré sa complexité, le cerveau est minuscule par rapport à l'immensité d'un univers entier. Par conséquent, si l'on suit ce raisonnement, il apparaît très probable que tout ce que nous croyons exister n'est rien d'autre qu'une illusion fugace, destinée à disparaître rapidement.

Bien que Boltzmann lui-même n'ait pas approfondi ces conclusions, les cosmologistes qui se sont inspirés de ses travaux ont introduit le concept des cerveaux de Boltzmann. Il est intéressant de noter que ces cosmologistes, comme la majorité des individus, étaient raisonnablement certains de ne pas être eux-mêmes des cerveaux éphémères. D'où le paradoxe suivant : comment pouvaient-ils avoir raison dans leur hypothèse tout en postulant l'existence d'un univers éternel ?

Le paradoxe a trouvé sa résolution dans un concept communément accepté aujourd'hui : notre univers n'existe pas de manière infinie mais a eu un commencement connu sous le nom de Big Bang. On pourrait donc penser que le paradoxe a été résolu une fois pour toutes. Or, ce n'est peut-être pas le cas. Au cours du siècle dernier, les scientifiques ont découvert des preuves substantielles à l'appui de la théorie du Big Bang, mais la question de savoir ce qui l'a précédé et causé reste sans réponse. Que l'univers soit apparu dans un état extrêmement ordonné et improbable ? Notre univers pourrait-il faire partie d'un cycle sans fin de création et d'effondrement, ou sommes-nous simplement l'un des innombrables univers en expansion dans un vaste multivers ?

Dans ce contexte intrigant, le paradoxe de Boltzmann a suscité un regain d'intérêt chez les cosmologistes contemporains. Certains affirment que les modèles dominants de l'univers suggèrent encore que les cerveaux de Boltzmann ont plus de chances d'exister que les cerveaux humains, ce qui soulève des inquiétudes quant à la validité de ces modèles. Cependant, d'autres réfutent ces arguments en proposant de légères modifications des modèles cosmologiques qui élimineraient le problème ou en affirmant que les cerveaux de Boltzmann ne peuvent pas se manifester physiquement.

Dans le but d'explorer les probabilités impliquées, certains chercheurs ont même tenté de calculer la probabilité qu'un cerveau émerge spontanément à partir de fluctuations quantiques aléatoires et survive suffisamment longtemps pour générer une seule pensée. Le résultat de leurs calculs a donné un nombre étonnamment grand, avec un dénominateur dépassant 10 élevé à une puissance environ un septillion de fois plus grande que le nombre d'étoiles dans l'univers.

Malgré sa nature apparemment absurde, le paradoxe du cerveau de Boltzmann est utile. Il place la barre très haut pour les modèles cosmologiques. Si l'état actuel de l'univers semble excessivement improbable par rapport à des nombres d'une telle ampleur, cela indique que quelque chose ne va pas dans le modèle. Ce paradoxe nous pousse à remettre en question notre compréhension de la réalité et nous incite à rechercher une représentation plus complète et plus précise de l'univers.

Alors que nous continuons à explorer les mystères du cosmos, la nature énigmatique de notre existence reste une source de fascination et un catalyseur pour la poursuite de la recherche scientifique. Dans notre quête de réponses, nous pourrons peut-être découvrir des vérités profondes qui nous éclaireront sur la nature de notre réalité et sur la tapisserie complexe de l'univers.

Auteur: Sourav Pan

Info: *un octillion = 10 puissance 48)

[ humain miroir ] [ monde consensuel ]

 

Commentaires: 0

Ajouté à la BD par miguel

linguistique de masse

L'intelligence artificielle travaille-t-elle en anglais ? 

Des scientifiques de l’EPFL ont montré que les grands modèles de langage semblent utiliser l’anglais en interne même lorsqu’ils sont sollicités dans une autre langue, ce qui pourrait avoir des conséquences en termes de biais linguistiques et culturels.

Les grands modèles de langage (LLM), tels que ChatGPT d’Open AI et Gemini de Google, ont conquis le monde et surprennent par leur capacité à comprendre les utilisatrices et utilisateurs et à leur répondre avec un discours en apparence naturel.

Bien qu’il soit possible d’interagir avec ces LLM dans n’importe quelle langue, ces derniers sont entraînés avec des centaines de milliards de paramètres textuels, principalement en anglais. Certaines personnes ont émis l’hypothèse qu’ils effectuaient la majeure partie de leur traitement interne en anglais et traduisaient ensuite dans la langue cible au tout dernier moment. Mais il y avait peu de preuves de cela, jusqu’à aujourd’hui.

Tests de Llama

Des chercheuses et chercheurs du Laboratoire de science des données (DLAB) de la Faculté informatique et communications de l’EPFL ont étudié le LLM open source Llama-2 (grand modèle de langage IA développé par Meta) pour essayer de déterminer quelles langues étaient utilisées à quels stades de la chaîne informatique.

" Les grands modèles de langage sont entraînés pour prédire le mot suivant. Pour cela, ils font correspondre chaque mot à un vecteur de nombres, c’est-à-dire à un point de données multidimensionnel. Par exemple, l’article le se trouvera toujours exactement à la même coordonnée fixe des nombres ", explique le professeur Robert West, responsable du DLAB.

" Les modèles enchaînent environ 80 couches de blocs de calcul identiques, chacun transformant un vecteur qui représente un mot en un autre vecteur. À la fin de cette séquence de 80 transformations, on obtient un vecteur représentant le mot suivant. Le nombre de calculs est déterminé par le nombre de couches de blocs de calcul. Plus il y a de calculs, plus votre modèle est puissant et plus le mot suivant a de chances d’être correct. "

Comme l’explique la prépublication intitulée Do Llamas Work in English? On the Latent Language of Multilingual TransformersRobert West et son équipe ont forcé le modèle à répondre après chaque couche chaque fois qu’il essayait de prédire le mot suivant au lieu de le laisser effectuer les calculs à partir de ses 80 couches. Ils ont ainsi pu voir quel mot le modèle aurait prédit à ce moment-là. Ils ont mis en place différentes tâches telles que demander au modèle de traduire une série de mots français en chinois.

" Nous lui avons donné un mot français, puis la traduction en chinois, un autre mot français et la traduction en chinois, etc., de sorte que le modèle sache qu’il est censé traduire le mot français en chinois. Idéalement, le modèle devrait donner une probabilité de 100% pour le mot chinois. Mais lorsque nous l’avons forcé à faire des prédictions avant la dernière couche, nous avons remarqué que la plupart du temps, il prédisait la traduction anglaise du mot français, bien que l’anglais n’apparaisse nulle part dans cette tâche. Ce n’est qu’au cours des quatre ou cinq dernières couches que le chinois est en fait plus probable que l’anglais ", affirme Robert West.

Des mots aux concepts

Une hypothèse simple serait que le modèle traduit la totalité de l’entrée en anglais et la traduit à nouveau dans la langue cible juste à la fin. Mais en analysant les données, les chercheuses et chercheurs sont parvenus à une théorie bien plus intéressante.

Dans la première phase des calculs, aucune probabilité n’est attribuée à l’un ou l’autre mot. Selon eux, le modèle s’attache à résoudre les problèmes d’entrée. Dans la seconde phase, où l’anglais domine, les chercheuses et chercheurs pensent que le modèle se trouve dans une sorte d’espace sémantique abstrait où il ne raisonne pas sur des mots isolés mais sur d’autres types de représentations qui concernent davantage des concepts, sont universels dans toutes les langues et représentent plus un modèle du monde. C’est important car, pour bien prédire le mot suivant, le modèle doit en savoir beaucoup sur le monde et l’un des moyens d’y parvenir est d’avoir cette représentation des concepts.

" Nous supposons que cette représentation du monde en termes de concepts est biaisée en faveur de l’anglais, ce qui serait très logique car les données utilisées pour entraîner ces modèles sont à environ 90% en anglais. Ils cartographient les mots en entrée à partir d’un espace de mots superficiel, dans un espace de signification plus profond avec des représentations de la façon dont ces concepts sont liés les uns aux autres dans la réalité – et les concepts sont représentés de la même manière que les mots anglais, plutôt que les mots correspondants dans la langue d’entrée réelle ", déclare Robert West.

Monoculture et biais

Cette domination de l’anglais amène à se poser la question suivante: " est-ce important "? Les chercheuses et chercheurs pensent que oui. D’après de nombreuses recherches, les structures qui existent dans le langage influencent la manière dont nous construisons la réalité et les mots que nous employons sont profondément liés à la façon dont nous pensons le monde. Robert West suggère de commencer à étudier la psychologie des modèles de langage en les traitant comme des êtres humains et, dans différentes langues, en les interrogeant, en les soumettant à des tests de comportement et en évaluant leurs biais.

" Je pense que cette recherche a vraiment touché un point sensible, car les gens s’inquiètent de plus en plus de ce genre de problème de monoculture potentielle. Les modèles étant meilleurs en anglais, bon nombre de chercheuses et chercheurs étudient aujourd’hui la possibilité d’introduire un contenu en anglais et de le traduire dans la langue souhaitée. D’un point de vue technique, cela pourrait fonctionner, mais je pense que nous perdons beaucoup de nuances, car ce que vous ne pouvez pas exprimer en anglais ne sera pas exprimé ", conclut Robert West.

Auteur: Internet

Info: https://actu.epfl.ch/news/l-intelligence-artificielle-travaille-t-elle-en--2/#:~:text=Les%20chercheuses%20et%20chercheurs%20pensent%20que%20oui.,dont%20nous%20pensons%20le%20monde.

[ anglocentrisme ] [ spécificités des idiomes ] [ homme-machine ] [ symboles univers ] [ ethnocentrisme ]

 

Commentaires: 0

Ajouté à la BD par miguel

visionnaire

Initiateur de l'astronautique, Constantin Tsiolkolvski était un grand rêveur. Un peu fou, un peu naïf, il s'est souvent égaré et a commis beaucoup d'erreurs. Mais il a eu le courage de rêver à ce à quoi d'autres n'auraient même pas osé penser. Qui, au temps de la Première Guerre mondiale, aurait pu rêver à des vols sur la Lune, au génie génétique, à la résurrection des morts ? Un seul, Tsiolkovski.

Sa vie débuta dans la tragédie. Encore jeune enfant, Tsiolkovski fut atteint de la scarlatine. Sa maladie fut suivie de complication et il devint sourd. C'est la raison pour laquelle il n'a pas reçu d'éducation traditionnelle. Le grand savant fut autodidacte. Il apprit très tôt à lire. Plus que tout au monde, il aimait lire et inventer. Il pouvait lire et inventer des jours entiers. Tour à charioter, petites maisons, horloges à pendant, automobiles miniatures…

En dépit de sa surdité, il ne se considérait en aucune façon diminué. Au contraire. Quand Tsiolkovski est tombé amoureux pour la première fois, il écrivit à la jeune fille en question la lettre suivante : "Je suis un grand homme qu'il n'y avait pas encore eu et qu'il n'y aura plus ". Pour ce qui est de l'opinion qu'il avait de lui-même, il n'avait pas de problème.

A 16 ans, il partit étudier à Moscou. Il passait des heures dans les bibliothèques, ne mangeait pas. Il vivait avec 10 roubles pour le mois. Enfin il passa avec succès ses examens pour être professeur d’arithmétique. Il ne cessa pourtant pas d'inventer. Il travaillait sur des quantités innombrables de théories et les envoyait à des magazines. Au début, il inventa une étrange théorie de "zéro agité" qui prouvait l'inutilité de la vie humaine.

Puis il travailla sur une théorie des gaz et l'envoya à Mendeleev. Celui-ci félicita le jeune savant mais lui écrivit qu'en réalité, la théorie des gaz avait déjà été découverte 25 ans auparavant.

Cinq idées de Constantin Tsiolkovski qui anticipèrent la conquête spatiale

Il travaillait à ses inventions presque quotidiennement. Dans un court laps de temps, il inventa : l'aérostat, les échasses, la signalisation interplanétaire, le chauffage solaire, un rafraîchisseur de chambre, la machine à écrire, son propre système de mesures et même un alphabet commun à tous. Il parvint même a déposer un brevet pour quelques unes de ces inventions, mais Tsiolkovski ne perçut jamais d'argent. Une fois quelqu'un voulut le payer 500 roubles mais le facteur ne put trouver son adresse. On ne l'a donc pas payé. A 30 ans, Tsiolkovski devint, à sa grande surprise, écrivain. Il se mit à écrire un récit de science-fiction à propos de la Lune. Avec des détails tels qu'on croirait qu'il y était allé. Gagarine racontera plus tard que ce qu'il a vu dans le cosmos ressemblait beaucoup aux descriptions de Tsiolkovski. Il a aussi décrit avec force détails l'apesanteur dans ses livres. Mais d'où a-t-il bien pu le tenir ?

Personne ne le prenait au sérieux. On le prenait pour un citadin fou. Et lui-même se comportait comme un original. Il dépensait tout son salaire dans les livres et les réactifs. Avec les enfants il faisait voler des serpents en papier, faisait du patin avec un parapluie. Avec celui-ci, il prenait de la vitesse avec le vent arrière. Les chevaux de ferme fuyaient ses parapluies, les paysans juraient. Mais Tsiolkovski n'en avait cure. Il était sourd et n'entendait pas les jurons.

Tsiolkovski croyait que la matière inanimée avait une âme. Le vivant et le non-vivant, c'est une chose. Il n'y a pas de mort, il n'y a qu'un seul univers, il n'y a pas de frontière entre les mondes... La philosophie étonnante de Tsiolkovski frôle quelques fois le délire et quelques fois est proche d'une vison géniale. Par exemple, il découvrit que la forme géométrique idéale pour l'homme est la sphère. C'est pourquoi tout le monde aura, dans l'avenir, la forme d'une sphère. Il croyait aussi au clonage. Le génie vers le génie, le talent vers le talent, c'est comme cela que l'on peut améliorer la race humaine.

Mais qui se serait souvenu de Tsiolkovski s'il n'avait consacré son temps qu'à ses folies et à sa philosophie de chambre ? Il a donné naissance à plusieurs idées réellement fondamentales. Le satellite artificiel de la Terre, la fusée multiple, le moteur nucléaire... Étonnamment, tout cela fut fait avec désintéressement. Aucune base scientifique, aucun espoir de réaliser ces idées... Les premiers avions se sont écrasés les uns après les autres, et il écrivit : "je suis sûr que les voyages interplanétaires deviendront réalité. Les héros et les braves poseront les premières routes aériennes : la Terre est l'orbite de la lune, la Terre est l'orbite de Mars et pour aller plus loin, Moscou est la Lune et Kalouga est Mars..."

Tsiolkovski a avoué une fois à ses élèves qu'il conversait avec les anges. Les anges, selon sa conception, sont des êtres raisonnables supérieurs, bien plus parfaits que les gens. Les gens , dans l'avenir, devront se transformer en anges. Viendra le jour où l'humanité s'unira au cosmos, deviendra immortelle et se transformera en énergie cosmique.

Il marchait dans les rues de Kalouga avec un air attristé. De temps en temps il s'asseyait par terre et réfléchissait longuement, le dos contre le tronc d'un arbre … De l'extérieur, il ressemblait à un messager d'autres mondes. Ou bien à un homme venu du futur qui se serait retrouvé par erreur dans la Russie des années 1920.

Après sa mort, on commença à l'appeler père de l'aéronautique soviétique. Le grand constructeur Sergueï Korolev s'empara de ses idées et les développa. Bien sûr, il s'en serait sorti même sans l'aide de Tsiolkovski. Tous les calculs furent vérifiés par des savants. Mais ce n'étaient des savants, alors que lui était un rêveur. Sans lui ils ne seraient arrivés à rien. Il existe beaucoup de savants, mais il n'y a que très peu de rêveurs géniaux. De gens capables de converser avec les anges dans leur propre langue.

Auteur: Shenkman Yan

Info: Tsiolkovski : le savant qui conversait avec les anges, 4 avril 2014

[ personnage ] [ surdité ]

 

Commentaires: 0

envahisseurs

Des guerriers mystérieux ont effectué la migration la plus rapide de l'histoire ancienne. L'adn confirme que les Avars sont passés la Mongolie à la Hongrie en l'espace d'une ou deux décennies.

Les Avars, mystérieux guerriers à cheval , ont contribué à accélérer la fin de l'Empire romain. Ils ont dominé les plaines entre Vienne et Belgrade en Serbie, pendant plus de deux siècles. Puis ils ont disparu sans laisser de trace. Les chercheurs ont cherché leurs origines depuis lors. Aujourd'hui, des preuves archéologiques et génétiques révèlent que les Avars étaient des migrants venus de Mongolie et que leur migration fut alors la progression longue distance le plus rapide de l'histoire de l'humanité.

Les Avars n'avaient pas d'archives écrites. Les tombes et les récits historiques suggèrent qu'ils ont dominé les plaines de l'actuelle Hongrie peu après leur arrivée en Europe, il y a environ 1500 ans. Ils enterraient leurs élites dans d'immenses tumulus, entourés d'armes et de récipients en or et en argent finement décorés. Ils étaient souvent enterrés avec des chevaux et des équipements d'équitation. (Les plus anciens étriers d'Europe proviennent de leurs tombes).

Ce sont ces sépultures très élaborées qui ont fourni des indices sur les origines des Avars. Une équipe internationale de chercheurs a extrait de l'ADN ancien des squelettes de dizaines d'hommes et de femmes de haut rang enterrés dans 27 sites de l'actuelle Hongrie. En comparant cet ADN avec les bases de données existantes sur l'ADN ancien, l'équipe a découvert que les correspondances les plus proches provenaient de tombes datant du sixième siècle dans ce qui est aujourd'hui la Mongolie. "Génétiquement parlant, les Avars d'élite ont un profil très, très oriental", déclare Choongwon Jeong, co-auteur et généticien à l'Université nationale de Séoul.

Les premières sépultures avars correspondent presque parfaitement à celle d'un individu enterré quelques décennies plus tôt dans l'est de la Mongolie, ainsi les premiers Avars d'Europe ont probablement fait eux-mêmes un voyage de près de 7 000 kilomètres. Ils ont probablement profité de leur mode de vie nomade, des réseaux commerciaux qui s'étendaient dans la vaste steppe et de leurs prouesses à cheval pour se déplacer rapidement dans les prairies d'Eurasie. "L'ADN est si proche qu'il ne doit pas y avoir plus d'une génération d'écart, voire moins", déclare Jeong.

Ces données génétiques corroborent deux récits historiques sur les origines des Avars. Une source chinoise du VIe siècle décrit un peuple de steppe énigmatique appelé les Rouran, un des nombreux groupes de nomades à cheval qui ont déferlé des steppes mongoles qui attaquaient leurs frontières septentrionales. L'empire des prairies du Rouran aurait été vaincu par des nomades rivaux en 552 de notre ère.

Et, à un continent de là, et à peine 15 ans plus tard, des diplomates de Byzance, puissants vestiges orientaux de l'Empire romain autrefois puissant, signalent l'arrivée d'un nouveau groupe venu de l'est sur les rives de la mer Caspienne. Les nouveaux arrivants se nommaient Avars et se disaient apparentés à un peuple lointain connu sous le nom de Rouran. Leur histoire d'origine était-elle vraie, ou simplement une vantardise ?

Les nouvelles données génétiques semblent répondre à cette question selon Walter Pohl, historien à l'université de Vienne. "Nous avons des  indications très claires qu'ils provenaient sûrement du cœur de l'empire Rouran. Ils étaient les voisins des Chinois."

Après leur arrivée aux marges de l'Empire romain, les Avars ont poussé vers l'Europe centrale, conquérant les plaines le long du Danube entre les actuelles Vienne et Belgrade, assiégeant même Constantinople, aujourd'hui Istanbul, en 623 avant J.-C. Ils furent finalement vaincus par Charlemagne - un roi dont l'armée, plus grande et plus performante, détruisit leur capitale et finit par unifier la majeure partie de l'Europe pour la première fois depuis des siècles - à la fin des années 700.

Pour en savoir plus sur la structure de la société avar, les chercheurs ont comparé les tombes avars de différentes périodes, localisations et couches sociales. Leurs tombes et leurs gènes suggèrent que les membres de l'élite de la société Avar formaient un groupe soudé. L'ADN des sépultures des élites au début des années 700 présente encore des caractéristiques est-asiatiques, ce qui suggère que les élites ne se mélangeaient pas à la population européenne locale. Les sépultures moins ornées situées plus loin du centre du royaume, quant à elles, présentent une ascendance plus mélangée.

"Les non-élites se sont probablement mélangées à la population locale", déclare Guido Gnecchi-Ruscone, généticien des populations à l'Institut Max Planck d'anthropologie évolutive, "mais il apparaît que l'élite est restée homogène".

Les preuves génétiques suggèrent également que le groupe qui s'est déplacé de la Mongolie vers la Hongrie était beaucoup plus important que ce que les chercheurs avaient prévu. Si les arrivants n'avaient été qu'un petit groupe de guerriers et leurs épouses, leurs descendants auraient présenté de puissants signaux génétiques de consanguinité après deux siècles. Mais il n'y a pas de tels signaux, la plupart des restes étudiés dans les tombes d'élite conservent une puissante signature est-asiatique. Cela suggère que la population était forte de dizaines de milliers de personnes ou que d'autres migrants de leur patrie ont continué à rejoindre les Avars en Europe pendant des décennies après leurs premières conquêtes.

Selon les archéologues, cette étude multidisciplinaire marque un tournant par rapport aux recherches qui se limitent à l'examen des données génétiques pour faire des déclarations hâtives sur les migrations passées. "Ils essaient d'examiner des questions sociales et des échelles de temps plus fines, et c'est la direction que nous devrions prendre", déclare Bryan Miller, archéologue à l'université du Michigan à Ann Arbor. "C'est le genre d'article qu'il faut pour une parution au sujet de génomique".

Ce qui s'est passé après la défaite des Avars face à Charlemagne reste flou. Leur signature génétique s'est rapidement réduite à presque rien dans les régions qu'ils ont autrefois gouvernées, dit Gnecchi-Ruscone. "Quelque chose s'est produit, mais nous ne savons pas quoi : ont-ils déménagé ? Sont-ils simplement submergés par la population locale ? C'est l'une des choses que nous voulons découvrir". 


Auteur: Internet

Info: https://www.cell.com/

[ historique ]

 

Commentaires: 0

Ajouté à la BD par miguel

cognition

Les secrets de la conscience : l'imagerie cérébrale révèle pour la première fois des connexions critiques 

Des chercheurs américains ont réussi à cartographier un réseau cérébral essentiel dans l'intégration de l'éveil et de la conscience humaine, en utilisant des techniques d'IRM multimodales avancées. Cette approche offre de nouvelles pistes pour traiter certains troubles neurologiques.

(Image : illustration d'une galaxie dans la silhouette d'une tête humaine représentant l'éveil de la conscience)

Au cœur des neurosciences se trouve un défi complexe : comprendre les fondements de la conscience humaine. Entre éveil et perception, se dessinent des réseaux cérébraux dont les mystères ont longtemps échappé à nos outils d'observation. Mais grâce à la neuro-imagerie, les chercheurs ont identifié un réseau cérébral crucial pour la conscience humaine.

Dans un article publié le 1er mai 2024 dans Science Translational Medicine, un groupe de chercheurs du Massachusetts General Hospital et du Boston Children's Hospital, aux États-Unis, tous deux faisant partie du système de santé Mass General Brigham, ont réussi à cartographier un réseau cérébral sous-cortical crucial dans l'intégration de l'éveil et de la conscience humaine. 

Éveil et conscience : deux dimensions de l'activité cérébrale

L'éveil concerne l'activité et l'attention du cerveau, tandis que la conscience implique nos pensées et sensations résultant de l'intégration d'informations sensorielles et émotionnelles. Il est intéressant de noter que ces deux aspects de la conscience peuvent être dissociés, comme chez les patients en état végétatif qui présentent des cycles d'éveil mais une absence de conscience.

Si le cortex cérébral est considéré comme le siège principal des processus neuronaux de la conscience, les voies sous-corticales ascendantes du tronc cérébral, de l'hypothalamus, du thalamus et du cerveau basal sont essentielles pour l'éveil. Les voies ascendantes transportent des informations sensorielles et des signaux moteurs depuis le tronc cérébral vers le cerveau.

Visualiser les connexions cérébrales à une résolution submillimétrique

À l'aide de techniques d'IRM multimodales avancées, les chercheurs ont pu visualiser les connexions cérébrales à une résolution spatiale submillimétrique.

Cette approche leur a permis de cartographier des connexions jusqu'alors inconnues entre le tronc cérébral, le thalamus, l’hypothalamus, le prosencéphale basal et le cortex cérébral, formant ainsi ce qu'ils nomment le "réseau d'éveil ascendant par défaut", essentiel pour maintenir l'éveil.

Le tronc cérébral est une partie essentielle du cerveau située à la base, qui contrôle des fonctions vitales comme la respiration et la fréquence cardiaque. Le thalamus agit comme un relais pour les informations sensorielles, aidant à les transmettre au cortex cérébral pour le traitement. L’hypothalamus joue un rôle clé dans la régulation des fonctions corporelles telles que la faim, la soif, et le sommeil. Le prosencéphale basal est impliqué dans le contrôle des mouvements et des émotions. Le cortex cérébral est la couche externe du cerveau responsable des fonctions cognitives supérieures telles que la pensée, la perception et la conscience. Ensemble, ces régions forment un réseau appelé le "réseau d'éveil ascendant par défaut", crucial pour maintenir l'état de veille et la conscience dans le cerveau.

(Illustration : Anatomie du cerveau en coupe)

"Notre objectif était de cartographier un réseau cérébral (ensemble de régions du cerveau qui travaillent conjointement pour effectuer des fonctions spécifiques, connectées par des voies de communication neuronales) crucial pour la conscience humaine et de fournir aux cliniciens des outils améliorés pour détecter, prédire et favoriser la récupération de la conscience chez les patients atteints de graves lésions cérébrales", explique Brian Edlow, premier auteur de l'étude, co-directeur du Neuroscience Mass General et directeur associé du Center for Neurotechnology and Neurorecovery (CNTR), dans un communiqué.

Ce réseau " ascendant par défaut de l'éveil" maintient l'éveil dans le cerveau conscient au repos. Le concept d'un réseau " par défaut" repose sur l'idée que certains systèmes de neurones dans le cerveau sont le plus activement fonctionnels lorsque le cerveau est dans un état de repos conscient. En revanche, d'autres réseaux sont plus actifs lorsque le cerveau effectue des tâches dirigées vers des objectifs.

Intégration des données IRM pour cartographier le réseau cérébral

Pour étudier les propriétés fonctionnelles de ce réseau cérébral par défaut, les chercheurs ont combiné des techniques d'imagerie cérébrale avancées, intégrant des données de tractographie par IRM de diffusion ex vivo (cultures cellulaires) et d'IRM fonctionnelle (IRMf) in vivo (humain) à 7 Tesla (7-T).

Les données d'IRM ont ainsi permis de localiser les zones dans le cerveau et d'étudier leurs connexions à l'aide de techniques de tractographie par IRM de diffusion. L’analyse des données d'IRM fonctionnelle, quant à elle, a permis aux chercheurs de comprendre comment ces connexions influent sur l'état d'éveil et de conscience du cerveau humain.

Ces analyses ont finalement révélé des connexions fonctionnelles entre le réseau ascendant par défaut du tronc cérébral et le réseau mode par défaut cortical qui contribue à la conscience de soi dans le cerveau conscient au repos. Les cartes de connectivité structurelle et fonctionnelles complémentaires fournissent une base neuroanatomique pour intégrer l'éveil et la conscience dans la conscience humaine.

(image en coupe montrant un exemple de données de tractographie par IRM de diffusion. Il s'agit là d'une vue latérale du tractus moteur, le tractus corticospinal, d'un sujet humain.)

Feuille de route pour mieux comprendre 

"Les connexions cérébrales humaines que nous avons identifiées peuvent être utilisées comme une feuille de route pour mieux comprendre un large éventail de troubles neurologiques associés à une conscience altérée, allant du coma, aux crises, au syndrome de mort subite du nourrisson (SIDS)", précise Hannah Kinney, MD, Professeure Émérite à l'Hôpital pour Enfants de Boston et à l'École de Médecine de Harvard, dans un communiqué.

Les données de cette étude pourraient servir de base pour comprendre divers troubles neurologiques liés à une altération de la conscience. Les chercheurs ont mis à disposition des données IRM et des méthodes de cartographie cérébrale, ainsi qu'un nouvel atlas du Réseau Ascendant de l'Éveil de Harvard, pour soutenir de futures recherches dans ce domaine.

Les auteurs mènent actuellement des essais cliniques pour stimuler le réseau ascendant par défaut de l'éveil chez les patients en coma après une lésion cérébrale traumatique, dans le but de réactiver le réseau et de restaurer la conscience.

Auteur: Internet

Info: sciencesetavenir.fr - Juliette Frey le 10.05.2024

[ vigilance ] [ proencéphale basal ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

paliers évolutionnaires

Des chercheurs découvrent une extinction de masse jusqu’alors inconnue de l’histoire de la Terre

Une extinction de masse désigne un événement ayant entraîné la disparition d’au moins 75 % des espèces présentes sur Terre. Les paléobiologistes affirment que notre planète a déjà connu cinq principaux épisodes de ce type ; certains estiment que nous sommes en train de vivre la sixième extinction. Mais la liste ne s’arrête pas là : des chercheurs de Virginia Tech ont découvert que la Terre aurait subi une extinction de masse il y a environ 550 millions d’années. Ce serait ainsi la toute première extinction que notre planète ait connu.

À ce jour, l’extinction de l’Ordovicien-Silurien, survenue il y a environ 440 millions d’années, est considérée comme la première extinction massive de notre planète. Celle-ci s’est vraisemblablement produite à la suite d’une grande glaciation, à laquelle auraient succombé près de 85% des espèces, faute de réussir à s’adapter à ces nouvelles conditions. Mais des preuves suggèrent aujourd’hui qu’un autre événement d’extinction l’aurait précédée : une diminution de la disponibilité mondiale d’oxygène aurait entraîné la perte d’une majorité d’animaux présents vers la fin de l’Édiacarien, il y a environ 550 millions d’années.

La première extinction de l’histoire de la Terre

Le déclin soudain de la diversité fossile il y a 550 millions d’années est connu depuis longtemps, mais les scientifiques n’avaient pas pu en déterminer la cause avec certitude. Il était possible que les espèces en présence soient entrées en compétition pour la survie, s’éliminant les unes les autres, ou simplement que les conditions environnementales de l’époque n’étaient pas propices à la préservation des fossiles édiacariens. Une nouvelle étude publiée dans Proceedings of the National Academy of Sciences permet aujourd’hui d’affirmer que ce déclin résulte bel et bien d’une extinction de masse.

Notre planète compte cinq extinctions de masse connues, les "Big Five", selon Shuhai Xiao, professeur de géobiologie à Virginia Tech : l’extinction de l’Ordovicien-Silurien (il y a 440 millions d’années), l’extinction du Dévonien tardif (il y a 370 millions d’années), l’extinction du Permien-Trias (il y a 250 millions d’années), l’extinction du Trias-Jurassique (il y a 200 millions d’années) et enfin, l’extinction du Crétacé-Paléogène (il y a 65 millions d’années), qui a anéanti environ 75 % des plantes et des animaux, y compris les dinosaures non aviens.

Toutes sont liées à des changements environnementaux majeurs et à grande échelle. Un changement climatique ou un événement de désoxygénation peuvent entraîner une extinction massive d’animaux, ainsi qu’une perturbation et une réorganisation profondes des écosystèmes. Ce premier événement d’extinction survenu lors de l’Édiacarien n’échappe pas à la règle : lui aussi a été induit par une modification significative de l’environnement.

Près de 80 % des animaux vivant sur Terre auraient disparu lors de cette première extinction massive. "Cela comprenait la perte de nombreux types d’animaux différents, mais ceux dont les plans corporels et les comportements indiquent qu’ils dépendaient d’importantes quantités d’oxygène semblent avoir été particulièrement touchés", explique Scott Evans, chercheur postdoctoral au Département des géosciences de Virginia Tech et premier auteur de l’étude décrivant l’événement.

Un "coup de pouce" à l’évolution ?

Les fossiles à corps mou du biote d’Ediacara – du nom des collines situées au sud de l’Australie où ont été découverts ces fossiles en 1946 – font partie des plus anciens organismes pluricellulaires complexes connus. Les empreintes fossiles datant de la période édiacarienne – soit d’environ -635 à -539 millions d’années – montrent que les animaux qui ont péri lors de cette extinction de masse avaient une apparence très étrange, en forme de feuille, de plume ou de tube.

Selon Evans, les organismes de l’époque semblaient expérimenter différentes façons de construire leurs grands corps multicellulaires. Par conséquent, les fossiles mis au jour datant d’avant l’extinction, ne correspondent pas toujours aux classifications actuelles des animaux. "Cette extinction a peut-être contribué à ouvrir la voie à l’évolution des animaux tels que nous les connaissons", conclut le chercheur. À savoir que la plupart des plans d’organisation animaux existant aujourd’hui sont apparus au cours du Cambrien (soit la période qui succède à l’Édiacarien).

Evans et ses collègues ont scrupuleusement examiné et catalogué l’ensemble des fossiles de la période édiacarienne décrits dans la littérature. Ils ont ainsi identifié 70 genres d’animaux, dont seuls 14 existaient encore quelque 10 millions d’années plus tard. L’équipe n’a toutefois trouvé aucun signe suggérant que ces animaux étaient en concurrence avec les premiers animaux du Cambrien, ni rien qui pouvait expliquer la non-préservation des fossiles.

En revanche, les animaux qui ont survécu arboraient tous un plan d’organisation favorisant la survie en cas d’anoxie : une surface corporelle relativement élevée par rapport à leur volume. Des preuves géochimiques confirment par ailleurs une faible disponibilité d’oxygène dans les océans il y a 550 millions d’années.

Une anoxie dont la cause reste à éclaircir

Qu’est-ce qui a causé cette baisse de la disponibilité globale de l’oxygène ? "La réponse courte à la façon dont cela s’est produit est que nous ne savons pas vraiment", a déclaré Evans. En réalité, plusieurs événements, individuels ou combinés, pourraient être à l’origine du phénomène explique le scientifique : éruptions volcaniques, mouvements de plaques tectoniques, impact d’astéroïde, etc. Des changements dans les niveaux de nutriments des océans pourraient être une autre cause possible. 

 Dans tous les cas, cette extinction a largement influencé l’évolution de la vie sur Terre et cette étude nous donne un aperçu de l’impact à long terme du manque d’oxygène sur la vie aquatique. Il se trouve que dans une autre étude, les scientifiques de Virginia Tech ont récemment découvert que les lacs d’eaux douces du monde perdaient actuellement rapidement de l’oxygène.

Ce phénomène est lié non seulement au réchauffement des eaux induit par le changement climatique, mais aussi à l’excès de ruissellement de substances polluantes (phosphore, azote) lié aux pratiques agricoles : "le réchauffement des eaux diminue la capacité de l’eau douce à retenir l’oxygène, tandis que la dégradation des nutriments dans le ruissellement par les microbes d’eau douce engloutit l’oxygène", expliquent les chercheurs.

En d’autres termes, la découverte de cette nouvelle extinction donne un aperçu des dangers de la crise climatique actuelle pour la vie animale.

Auteur: Internet

Info: https://www.science-et-vie.com, 7 déc 2022  Fleur Brosseau

[ stases ] [ Gaïa ]

 

Commentaires: 0

Ajouté à la BD par miguel

onomasiologie algébrique

Critique réciproque de l’intelligence artificielle et des sciences humaines

Je me souviens d’avoir participé, vers la fin des années 1980, à un Colloque de Cerisy sur les sciences cognitives auquel participaient quelques grands noms américains de la discipline, y compris les tenants des courants neuro-connexionnistes et logicistes. Parmi les invités, le philosophe Hubert Dreyfus (notamment l’auteur de What Computers Can’t Do, MIT Press, 1972) critiquait vertement les chercheurs en intelligence artificielle parce qu’ils ne tenaient pas compte de l’intentionnalité découverte par la phénoménologie. Les raisonnements humains réels, rappelait-il, sont situés, orientés vers une fin et tirent leur pertinence d’un contexte d’interaction. Les sciences de la cognition dominées par le courant logico-statistique étaient incapables de rendre compte des horizons de conscience qui éclairent l’intelligence. Dreyfus avait sans doute raison, mais sa critique ne portait pas assez loin, car ce n’était pas seulement la phénoménologie qui était ignorée. L’intelligence artificielle (IA) n’intégrait pas non plus dans la cognition qu’elle prétendait modéliser la complexité des systèmes symboliques et de la communication humaine, ni les médias qui la soutiennent, ni les tensions pragmatiques ou les relations sociales qui l’animent. A cet égard, nous vivons aujourd’hui dans une situation paradoxale puisque l’IA connaît un succès pratique impressionnant au moment même où son échec théorique devient patent.

Succès pratique, en effet, puisqu’éclate partout l’utilité des algorithmes statistiques, de l’apprentissage automatique, des simulations d’intelligence collective animale, des réseaux neuronaux et d’autres systèmes de reconnaissance de formes. Le traitement automatique du langage naturel n’a jamais été aussi populaire, comme en témoigne par exemple l’usage de Google translate. Le Web des données promu par le WWW consortium (dirigé par Sir Tim Berners-Lee). utilise le même type de règles logiques que les systèmes experts des années 1980. Enfin, les algorithmes de computation sociale mis en oeuvre par les moteurs de recherche et les médias sociaux montrent chaque jour leur efficacité.

Mais il faut bien constater l’échec théorique de l’IA puisque, malgré la multitude des outils algorithmiques disponibles, l’intelligence artificielle ne peut toujours pas exhiber de modèle convaincant de la cognition. La discipline a prudemment renoncé à simuler l’intelligence dans son intégralité. Il est clair pour tout chercheur en sciences humaines ayant quelque peu pratiqué la transdisciplinarité que, du fait de sa complexité foisonnante, l’objet des sciences humaines (l’esprit, la pensée, l’intelligence, la culture, la société) ne peut être pris en compte dans son intégralité par aucune des théories computationnelles de la cognition actuellement disponible. C’est pourquoi l’intelligence artificielle se contente dans les faits de fournir une boîte à outils hétéroclite (règles logiques, syntaxes formelles, méthodes statistiques, simulations neuronales ou socio-biologiques…) qui n’offrent pas de solution générale au problème d’une modélisation mathématique de la cognition humaine.

Cependant, les chercheurs en intelligence artificielle ont beau jeu de répondre à leurs critiques issus des sciences humaines : "Vous prétendez que nos algorithmes échouent à rendre compte de la complexité de la cognition humaine, mais vous ne nous en proposez vous-mêmes aucun pour remédier au problème. Vous vous contentez de pointer du doigt vers une multitude de disciplines, plus complexes les unes que les autres (philosophie, psychologie, linguistique, sociologie, histoire, géographie, littérature, communication…), qui n’ont pas de métalangage commun et n’ont pas formalisé leurs objets ! Comment voulez-vous que nous nous retrouvions dans ce bric-à-brac ?" Et cette interpellation est tout aussi sensée que la critique à laquelle elle répond.

Synthèse de l’intelligence artificielle et des sciences humaines

Ce que j’ai appris de Hubert Dreyfus lors de ce colloque de 1987 où je l’ai rencontré, ce n’était pas tant que la phénoménologie serait la clé de tous les problèmes d’une modélisation scientifique de l’esprit (Husserl, le père de la phénoménologie, pensait d’ailleurs que la phénoménologie – une sorte de méta-science de la conscience – était impossible à mathématiser et qu’elle représentait même le non-mathématisable par exellence, l’autre de la science mathématique de la nature), mais plutôt que l’intelligence artificielle avait tort de chercher cette clé dans la seule zone éclairée par le réverbère de l’arithmétique, de la logique et des neurones formels… et que les philosophes, herméneutes et spécialistes de la complexité du sens devaient participer activement à la recherche plutôt que de se contenter de critiquer. Pour trouver la clé, il fallait élargir le regard, fouiller et creuser dans l’ensemble du champ des sciences humaines, aussi opaque au calcul qu’il semble à première vue. Nous devions disposer d’un outil à traiter le sens, la signification, la sémantique en général, sur un mode computationnel. Une fois éclairé par le calcul le champ immense des relations sémantiques, une science de la cognition digne de ce nom pourrait voir le jour. En effet, pour peu qu’un outil symbolique nous assure du calcul des relations entre signifiés, alors il devient possible de calculer les relations sémantiques entre les concepts, entre les idées et entre les intelligences. Mû par ces considérations, j’ai développé la théorie sémantique de la cognition et le métalangage IEML : de leur union résulte la sémantique computationnelle.

Les spécialistes du sens, de la culture et de la pensée se sentent démunis face à la boîte à outils hétérogène de l’intelligence artificielle : ils n’y reconnaissent nulle part de quoi traiter la complexité contextuelle de la signification. C’est pourquoi la sémantique computationnelle leur propose de manipuler les outils algorithmiques de manière cohérente à partir de la sémantique des langues naturelles. Les ingénieurs s’égarent face à la multitude bigarrée, au flou artistique et à l’absence d’interopérabilité conceptuelle des sciences humaines. Remédiant à ce problème, la sémantique computationnelle leur donne prise sur les outils et les concepts foisonnants des insaisissables sciences humaines. En somme, le grand projet de la sémantique computationnelle consiste à construire un pont entre l’ingénierie logicielle et les sciences humaines de telle sorte que ces dernières puissent utiliser à leur service la puissance computationnelle de l’informatique et que celle-ci parvienne à intégrer la finesse herméneutique et la complexité contextuelle des sciences humaines. Mais une intelligence artificielle grande ouverte aux sciences humaines et capable de calculer la complexité du sens ne serait justement plus l’intelligence artificielle que nous connaissons aujourd’hui. Quant à des sciences humaines qui se doteraient d’un métalangage calculable, qui mobiliseraient l’intelligence collective et qui maîtriseraient enfin le médium algorithmique, elles ne ressembleraient plus aux sciences humaines que nous connaissons depuis le XVIIIe siècle : nous aurions franchi le seuil d’une nouvelle épistémè.

Auteur: Lévy Pierre

Info: https://pierrelevyblog.com/2014/10/08/intelligence-artificielle-et-sciences-humaines/

[ mathématification idiomatique ]

 

Commentaires: 0

Ajouté à la BD par miguel