Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 35
Temps de recherche: 0.043s

covid-19

Les médias du monde entier – et donc Le Monde - ont diffusé la conclusion de la mission d’enquête de l’OMS en Chine sur l’origine du Sars-Cov2 : la fuite accidentelle d’un laboratoire est "hautement improbable" et l’OMS n’approfondira pas cette piste. Elle préfère s’intéresser à l’importation de surgelés frelatés. Fin de partie.

De retour à Genève, le chef de cette mission, Peter Ben Embarek, donne un entretien à la revue scientifique américaine Science (lire ci-après). Où l’on découvre que "hautement improbable" est une façon diplomatique de dire "pas impossible", donc "possible", et que les enquêteurs, submergés par une nuée de contrôleurs politiques, n’ont eu ni les moyens ni la curiosité d’aller plus loin.

Qui étaient ces enquêteurs ? Une dizaine de scientifiques de tous les continents, dont deux retiennent notre attention.

Peter Daszak, connu de nos lecteurs (voir en commentaire 1), est un zoologue britannique familier de Wuhan : il a travaillé avec Shi Zhengli, la spécialiste de l’"augmentation" des coronavirus par les gains de fonction, au sein du labo P4 de Wuhan. Daszak et elle ont co-signé des articles scientifiques. Daszak préside un organisme américain, EcoHealth Alliance, par lequel ont transité des fonds provenant des National Institutes of Health (instituts de recherche publics américains), à destination du labo de Shi Zhengli. On comprend la promptitude du chercheur à dénoncer les "théories conspirationnistes" sur une éventuelle fuite de laboratoire, au point d’assurer en avril 2020 qu’aucun coronavirus n’était cultivé à Wuhan… avant d’être démenti par le directeur du laboratoire lui-même. Daszak est la dernière personne à pouvoir enquêter sur l’origine du Sars-Cov2, compte tenu de ce conflit d’intérêt. Ça ne gêne nullement la "communauté scientifique", puisque la "prestigieuse revue The Lancet" l’a également chargé de piloter sa "task force" d’enquête sur l’origine de l’épidémie.

Une autre enquêtrice de l’OMS, virologue, travaille dans un laboratoire de l’université Erasmus de Rotterdam, lui aussi connu de nos lecteurs (voir en commentaire 2). Marion Koopmans est la collègue de Ron Fouchier, le virologue qui avait fait muter le virus de la grippe aviaire H5N1 en 2011 pour le rendre contagieux entre humains. Une des premières créations de "Frankenvirus", ces virus augmentés par la méthode des gains de fonction, qui avait déclenché une controverse scientifique. Le même Fouchier avait remis ça en 2013 avec une autre souche de grippe aviaire mortelle, H7N9, provoquant cette fois une alerte de scientifiques auprès de la Commission européenne. Marion Koopmans avait co-signé un article avec Fouchier et des chercheurs chinois sur l’émergence de H7N9. Si elle évite aujourd’hui d’examiner les gains de fonctions de Shi Zenghli sur les coronavirus, qui peut lui en vouloir ? Nul ne souhaite une nouvelle controverse sur les laboratoires qui rendent les virus plus contagieux.

Le directeur de la mission, Peter Ben Embarek, est quant à lui un spécialiste danois de la sécurité alimentaire (d’où les surgelés) et expert des zoonoses à l’OMS depuis 2001. Rions jaune en découvrant son entretien avec Science.

Auteur: PMO Pièces et main-d'oeuvre

Info: 19 février 2021, http://www.piecesetmaindoeuvre.com/IMG/pdf/l_oms_n_a_rien_vu_a_wuhan.pdf?fbclid=IwAR0d9vOAXNVukSpU1jet7H6Lizw18xLttZrjNNLbP5Fhy73LgqfT50zL0-Y

[ apprentis sorciers ] [ manipulations génétiques ] [ étouffer l'affaire ] [ scientifreak ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

mythologie égyptienne

Dans la mythologie, Horus est fils d’Osiris et d’Isis. Osiris, assassiné par son frère Seth avec lequel il était en guerre pour la possession de la terre d’Égypte, est ramené à la vie du moins symboliquement, le temps d’une union, grâce aux efforts d’Isis et de Nephtys. C’est de cette union miraculeuse que vit le jour Horus, engendré pour venger la mort de son père, celui-ci affrontera dès lors son oncle Seth et recevra le trône d’Égypte en héritage. C’est la raison pour laquelle Horus, le dieu "aux deux couronnes" était le descendant post-mortem d’Osiris. Cependant sa légitimité sera sans cesse contestée par Seth et c’est durant l’un des combats qui l’opposa à son oncle qu’Horus perdra temporairement l’œil gauche qui sera ensuite reconstitué par Thot. Appelé Oudjat, cet œil, que les Égyptiens portaient sous forme d’amulette protectrice possédait des vertus magiques. A l’opposé de Seth qui manifeste le chaos, les orages et le désert infertile des "terres rouges", Horus incarne l’ordre et la stabilité, il est le dieu dynastique par excellence, garant de l’harmonie universelle. (...)
Cette monarchie se réclamant d’Horus, dont les souverains furent très certainement coiffés de têtes de faucons, sera très vite absorbée par les rois porteurs de la couronne blanche d’Osiris. C’est de cette double souche méridionale que surgira bien plus tard (on compte jusqu’à 200 à 300 pharaons ayant précédé Ménès) la toute première dynastie officielle symbolisée par Ménès à l’ère cananéenne. Ainsi, pour J. Gossart, "dans ce contexte, Osiris serait le dernier prince consort de l’ancienne société matriarcale, et Horus le premier roi de l’ordre patriarcal", ce qui permettrait d’expliquer "la centralisation progressive et l’émergence de centres de pouvoir en Haute-Égypte, jusqu’à l’unification de toute la vallée sous un même sceptre" qui eut lieu après l’assèchement du Sahara, lorsque les populations qui y résidaient furent contraintes de s’exiler en Égypte. Athéna fait d’ailleurs partie du mythe osirien où elle incarne la "Grande Reine de sagesse" qui jugea le combat entre Seth et Horus et proposa au tribunal divin qu’Horus devienne roi du monde végétal encore préservé du dessèchement, tandis que Seth aurait détenu la garde des plaines désertiques et stériles, les "Terres rouges", mais, pour ne pas favoriser la dynastie d’Horus, elle offrit à Seth des déesses étrangères pouvant très bien désigner ici des reines garamantes ou éthiopiennes, de tradition "rouge" qui succédèrent aux reines libyennes primitives. Tritonide fut donc au départ gouvernée par les reines Berbères de Libye bien avant la naissance de l’Égypte de Ménès mais leur déclin s’accentua progressivement, nous explique J-L Bernard, suite aux invasions répétées, "soit des Amazones dont le matriarcat exacerbé contrariait et rivalisait le leur, soit plus probablement par l’arrivée des Garamantes, peuple du cheval qui partis du Soudan s’introduisirent au Sahara". Les Grandes Reines Berbères n’en cessèrent pas moins de régner sur les régions du Hoggar et ne s’éteignirent que lors de l’invasion arabe à laquelle la célèbre Kahina résista dans les Aurès. Nous signalerons enfin un tombeau exhumé dans le Hoggar en 1932, celui d’une certaine Tin Hinan dont la ressemblance phonétique avec Anthinéa saute aux yeux. La princesse saharienne était ensevelie avec des trésors, sa momie portant un diadème d’or enrichi de pierres précieuses.

Auteur: Anonyme

Info: Dans "Les magiciens du nouveau siècle"

[ légendes ] [ histoire ] [ fortéen ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

exobiologie

Une nouvelle étude suggère que la vie extraterrestre pourrait ne pas être basée sur le carbone

L’étude de l’autocatalyse* permet de mieux cerner la potentialité de la vie au-delà des formes carbonées que nous connaissons. De récentes recherches mettent en lumière l’existence de cycles autocatalytiques inorganiques, suggérant la possibilité de formes de vie dans des environnements abiotiques. Ces avancées élargissent le champ des possibles en astrobiologie, incitant à repenser les critères de la vie dans notre quête extraterrestre.

Aux vues de la multitude d’études, la quête visant à comprendre les origines de la vie et son existence potentielle au-delà de notre planète est un enjeu central de la recherche scientifique contemporaine. Ce sujet, loin d’être un simple exercice de spéculation, interroge nos connaissances fondamentales en biologie, chimie et astrobiologie.

Dans ce contexte, l’étude de l’autocatalyse, mécanisme réactionnel où le produit final agit comme catalyseur, offre un nouveau regard sur les mécanismes qui pourraient permettre l’émergence de la vie dans des environnements inorganiques et abiotiques. Les recherches récentes menées par des scientifiques de l’Université du Wisconsin-Madison explorent cette possibilité, élargissant ainsi le spectre de recherche en envisageant des formes de vie extraterrestres non basées sur le carbone. Les résultats sont publiés dans la revue Journal of the American Chemical Society.

Diversité chimique et origine de la vie

Betül Kaçar, astrobiologiste soutenu par la NASA, professeur de bactériologie à l’UW-Madison et auteur principal de l’étude, explique dans un communiqué : " L’origine de la vie est un processus ne partant de rien. Mais il ne peut pas se produire qu’une seule fois. La vie se résume à la chimie et aux conditions qui peuvent générer un schéma de réactions auto-reproductibles ".

Les réactions chimiques qui produisent des molécules encourageant la même réaction à se reproduire encore et encore sont appelées réactions autocatalytiques. Zhen Peng, chercheur postdoctoral au laboratoire Kaçar, et ses collaborateurs, ont compilé 270 combinaisons de molécules — impliquant des atomes de tous les groupes et séries du tableau périodique — avec le potentiel d’autocatalyse soutenue.

(Photo : Schéma explicatif des réactions autocatalytiques. )

Ces cycles sont particulièrement remarquables car ils ne dépendent pas de molécules organiques, contrairement aux formes de vie connues sur Terre, qui sont principalement basées sur le carbone. Kaçar souligne : " On pensait que ce genre de réactions était très rare. Nous montrons que c’est en réalité loin d’être rare. Il suffit de chercher au bon endroit ".

Les chercheurs ont concentré leurs recherches sur ce que l’on appelle les réactions de proportionnalité. Dans ces réactions, deux composés comprenant le même élément avec un nombre différent d’électrons (ou états réactifs) se combinent pour créer un nouveau composé dans lequel l’élément se trouve au milieu des états réactifs de départ.

Pour être autocatalytique, le résultat de la réaction doit également fournir des matières premières pour que la réaction se reproduise, de sorte que le résultat devient un nouvel intrant, explique Zach Adam, co-auteur de l’étude. Les réactions de proportionnalité aboutissent à des copies multiples de certaines des molécules impliquées, fournissant ainsi des matériaux pour les prochaines étapes de l’autocatalyse. " Chaque fois qu’un cycle est effectué, au moins une sortie supplémentaire est produite, ce qui accélère la réaction et la rend encore plus rapide ", ajoute Adam.

Implications pour la recherche de signes de vie

La mise en évidence de cycles autocatalytiques inorganiques a jeté une lumière nouvelle sur les possibilités d’existence de la vie dans l’Univers. Cette avancée suggère que la vie, sous des formes inconnues et inorganiques, pourrait être présente dans une multitude d’environnements extraterrestres, y compris ceux qui sont radicalement différents de la Terre et qui, jusqu’à présent, étaient considérés comme inhospitaliers. 

Auteur: Internet

Info: https://trustmyscience.com/ - Laurie Henry·29 septembre 2023 - * réaction autocatalytique est une réaction chimique dont le catalyseur figure parmi les produits de la réaction.

[ astrobiologie ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

cyberguerre

Des chercheurs créent le tout premier ver informatique capable de se répandre dans les systèmes d'IA

Vous vous demandiez si l’intelligence artificielle pouvait être infectée par des virus ou des malwares ? Maintenant, oui.

C’est, selon l’équipe qui l’a développé, une grande première dans le monde de l’intelligence artificielle. Afin de rappeler au monde les risques inhérents à toute technologie connectée, un groupe de chercheurs vient de créer le tout premier ver informatique capable d’infecter les agents IA. Une démonstration qui doit alerter sur l’émergence possible de nouveaux types de cyberattaques.

La résurgence du spectre Morris à l’ère de l’intelligence artificielle

Baptisé Morris II en référence à Morris,  célèbre pour avoir semé le chaos sur Internet en 1998, ce ver informatique d’un genre nouveau aurait la capacité de se répandre d’un système d’IA à l’autre. Créé par une équipe de chercheurs dans un environnement de test, Morris est aujourd’hui capable d’attaquer des agents IA génératifs pour siphonner des données et propager des malwares. Dans le cadre des essais menés par le groupe de recherche, le ver a pu s’en prendre à un assistant autonome de messagerie pour dérober des informations contenues dans les mails et envoyer des spams.

Une expérience qui souligne la vulnérabilité croissante des modèles de langage à grande échelle (LLM), alors qu’ils sont de plus en plus performants, polyvalents et multimodaux. Bien que ces vers IA n'aient pas encore été observés en conditions réelles, ils représentent un risque de sécurité que les start-up, les développeurs et les entreprises tech doivent prendre au sérieux et anticiper.

Des prompts auto-réplicatifs pour jailbreaker les systèmes d’IA générative

Pour créer ce ver, les équipes de Cornell Tech ont créé un prompt " auto-réplicatif ". En clair, un ensemble d’instructions conduisant un système d’IA génératif à autoproduire des instructions supplémentaires dans ses réponses. Un procédé que l’on retrouve dans des attaques classiques par injection de SQL ou de type buffer overflow. En parallèle, ils ont aussi créé un système de mails capable d’envoyer et de recevoir des messages en recourant à différents agents intelligents comme ChatGPT et Gemini, ainsi qu’au LLM open source LLaVA.

L’expérience s’est révélée concluante en utilisant deux méthodes d’auto-réplication des instructions. La première via des prompts textuels, la seconde en intégrant un prompt dans un fichier image. Dans le premier cas, les chercheurs ont réussi à " empoisonner " la base de données des assistants de messagerie, forçant le déclenchement de la RAG – retrieval-aumented generation, techno permettant d’améliorer les réponses de l’IA à l’aide d’informations plus récentes sans modifier le LLM en profondeur.

(Photo - Schéma de la propagation du ver dans les systèmes d'IA générative intégrant la RAG © Cornell Tech)

Une fois le mail récupéré par la RAG en réponse à une requête de l’utilisateur, et envoyé à GPT-4 ou Gemini, il parvient à contourner les mesures de sécurité des systèmes d’IA et dérobe les données du message. " La réponse générée contenant les données utilisateur sensibles infecte plus tard les nouveaux hôtes lorsqu'elle est utilisée pour répondre à un mail envoyé à un nouveau client puis stockée dans la base de données du nouveau client ", a expliqué Ben Nassi, l’un des membres du groupe de recherche.

Avec la seconde méthode (intégration du prompt malveillant dans une image), le processus a permis d’obliger l’assistant à transférer plusieurs fois le mail infecté à d’autres systèmes de messagerie.

(Photo -  Schéma de la propagation du ver dans les systèmes d'IA à l'aide d'un prompt malveillant dissimulé dans une image © Cornell Tech)

Pour anticiper de telles attaques qu’ils estiment probables d’ici deux à trois ans, les chercheurs de Cornell Tech ont partagé leurs travaux avec Google et OpenAI qui travaillent à rendre leurs systèmes plus résilients, tout en encourageant les développeurs à s'assurer qu'ils travaillent avec des outils sains.

(Ajout de 2024 : librairie d'invites informatiques mise en ligne par Anthropic) 

 

Auteur: Internet

Info: https://www.clubic.com/, Chloé Claessens, 2 mars 2024, source : Technion - Israel Institute of Technology, Ron Bitton, Ben Nassi, Stav Cohen

[ conflits numériques ] [ homme-machine ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

captation technologique

Conformément à l’aphorisme de Ludwig Wittgenstein que je cite abondamment dans cette étude, selon lequel "le monde est l’ensemble des faits et non des choses", la structure du monde ainsi que d’un langage correctement – non pathologiquement – institué, et partant celle du réel se situant à leur interface est d’être relationnelle. Suivant notre perspective moniste, le cerveau humain inscrit dans un semblable écrin reçoit son plein oxygène de cette structure relationnelle dans laquelle il doit impérativement évoluer sous peine de dépérir. Le cadre circonscrivant les écrans est établi au prix de quatre coups de ciseaux qui le délimitent, et le désarriment du réel en constituant un pseudo-réel appauvri de substitution. Pseudo-réel appauvri : on imagine bien la destructivité d’une semblable chose, d’où l’interaction intersubjective a totalement disparu, quand on a compris que seule l’intersubjectivité effective contribue à l’institution et la vascularisation du sujet.

D’où provient donc une telle fascination pour les images, et pis encore, pour les images animées, véritable trou noir qui aspire irrémédiablement le sujet fragile ? Le problème provient des conditions de notre inscription au sein du monde, sous le sceau de notre finitude, dont l’horizon ultime est une certitude lancinante : celle de notre propre mort. Dans ce cadre, notre cerveau est soumis à un stress cognitif permanent lié à la profusion d’informations chaotiques qu’il reçoit du monde, en permanence et sans aucun répit. Pour y faire face, il ne cesse d’analyser, de classer, d’évaluer et de comparer les informations reçues avec celles déjà connues, en cherchant à établir des vecteurs de causalité qui permettraient d’anticiper les différents types de finalités éventuellement présentes en leur sein. Tout ceci est effectué à l’aune d’une grille référentielle simple mais constante : ceci ou cela va-t-il vers l’accroissement de mon être, donc vers la vie, ou vers une atteinte à ma propre vitalité, psychique, physique, affective, etc… donc vers la mort, ou au moins une logique mortifère ? Ce stress cognitif est épuisant et cherche en permanence un répit quel qu’il soit. L’image, et bien plus encore l’image animée, comporte en elle-même des inférences causales préétablies par le peintre, le photographe, le cinéaste, qui l’orientent téléologiquement a priori, sous le surplomb de l’intentionnalité du geste artistique initial. Le spectateur est existentiellement à l’abri du surgissement de tout événement chaotique relevant de la constitution naturelle du sens causal, dont l’établissement dans la vie réelle relève toujours d’une construction a posteriori. Ceci ligote le spectateur dans sa dimension de sujet en le livrant à une irrémédiable passivité dont on peut certes retenir le bénéfice d’un mimétisme cathartique pour un sujet déjà correctement institué, mais dont la destructivité pour un sujet fragile ou incomplètement advenu à lui-même est incalculable. La raison en est double : pour que la catharsis puisse s’établir, en premier lieu, il faut que l’identification à soi-même soit rendue possible par un soi déjà constitué dans sa quasi plénitude ; par ailleurs, la représentation (re-présentation) est toujours arrimée à un référent initial et premier dans l’ordre de l’expérience, en raison d’une simple évidence : le monde nous précède fondamentalement, chronologiquement et ontologiquement. Si la représentation se trouve en situation de précéder le référent initial, les polarités cognitives s’inversent de façon extrêmement destructrice, le monde devenant une représentation de la représentation : doublement éloigné dans l’ordre de l’absence, où les conditions initiales permettant l’émergence du sujet – la triade fondamentale Je-Tu-Il – sont condamnées à une indistinction létale.

Enfin, last but not least, la caractéristique essentielle à retenir de l’art comme élément constituant sans lequel il disparaîtrait en tant que tel, est qu’il repose sur l’éviction de toute forme d’intersubjectivité réelle comme je l’ai signalé plus haut, le spectateur étant consigné à une indépassable passivité réceptive. Les diverses tentatives contemporaines pour briser cet effet de structure se signalent surtout par le fait qu’elles démontrent son intangibilité, sous peine de condamner l’art à l’insignifiance d’une gesticulation dépourvue de propos, du fait de l’effraction du réel en son sein.

J’en conclus qu’il est impératif de supprimer toute forme d’écran, quelle qu’en soit la nature, dans l’entourage des personnes atteintes de troubles autistiques sévères. J’ai pu vérifier, durant mon travail avec Raphaël, à quel point leur influence était délétère sur les progrès de son développement subjectal, en régression nette par rapport aux séances précédentes si par malheur il avait visionné quelque film : il était à nouveau sujet à des écholalies et des comportements erratiques à nouveau difficilement maîtrisables, nécessitant un effort supplémentaire conséquent de notre part à lui et à moi pour récupérer le terrain ainsi perdu.

Auteur: Farago Pierre

Info: Une proposition pour l'autisme, pages 44-46

[ parodie désubjectivante ] [ dangers ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

extension

La conscience humaine pourrait être un effet de l’entropie 

Une nouvelle étude suggère que la conscience pourrait être une caractéristique émergente découlant de l’effet d’entropie, soit le mécanisme physique faisant que le désordre au sein de tout système ne peut faire qu’augmenter, et par le biais duquel le cerveau maximiserait les échanges d’informations. Cette conclusion a été déduite de l’analyse de l’activité cérébrale de patients épileptiques ou non, indiquant que les états d’éveil normaux (ou conscients) sont associés à des valeurs entropiques maximales.

En thermodynamique, l’entropie se traduit par le passage inéluctable d’un système d’un agencement ordonné à désordonné. La valeur entropique est le niveau de désorganisation de ce système. Les physiciens suggèrent qu’après le Big Bang, l’Univers est progressivement passé d’un état entropique faible à élevé et qu’à l’instar du temps, l’entropie ne peut qu’augmenter au sein d’un système. De leur côté, les neurobiologistes estiment que le principe est transposable à l’organisation de nos connexions neuronales.

La question est de savoir quel type d’organisation neuronale sous-tend les valeurs de synchronisation observées dans les états d’alerte normaux ou non. C’est ce que des chercheurs de l’Université de Toronto et de l’Université de Paris Descartes ont exploré. " Nous avons cherché à identifier les caractéristiques globales de l’organisation du cerveau qui sont optimales pour le traitement sensoriel et qui peuvent guider l’émergence de la conscience ", expliquent-ils dans leur étude, publiée dans la revue Physical Review E.

Les observations de l’activité cérébrale chez l’Homme ont montré qu’elle est sujette à une importante fluctuation au niveau des interactions cellulaires. Cette variabilité serait à la base d’un large éventail d’états, incluant la conscience. D’un autre côté, des travaux antérieurs traitant du fonctionnement cérébral ont suggéré que l’état conscient n’est pas nécessairement associé à des degrés élevés de synchronisation entre les neurones, mais davantage à des niveaux moyens. Les chercheurs de la nouvelle étude ont alors supposé que ce qui est maximisé au cours de cet état n’est pas la connectivité neuronale, mais le nombre de configurations par lesquelles un certain degré de connectivité peut être atteint.

État de conscience = entropie élevée ?

Dans le cadre de leur analyse, les scientifiques ont utilisé la mécanique statistique pour l’appliquer à la modélisation de réseaux neuronaux. Ainsi, cette méthode permet de calculer des caractéristiques thermodynamiques complexes. Parmi ces propriétés figure la manière dont l’activité électrique d’un ensemble de neurones oscille de façon synchronisée avec celle d’un autre ensemble. Cette évaluation permet de déterminer précisément de quelle façon les cellules cérébrales sont liées entre elles.

Selon les chercheurs, il existerait une multitude de façons d’organiser les connexions synaptiques en fonction de la taille de l’ensemble de neurones. Afin de tester leur hypothèse, des données d’émission de champs électriques et magnétiques provenant de 9 personnes distinctes ont été collectées. Parmi les participants, 7 souffraient d’épilepsie. Dans un premier temps, les modèles de connectivité ont été évalués et comparés lorsqu’une partie des volontaires était endormie ou éveillée. Dans un deuxième temps, la connectivité de 5 des patients épileptiques a été analysée, lorsqu’ils avaient des crises de convulsions ainsi que lorsqu’ils étaient en état d’alerte normal. Ces paramètres ont ensuite été rassemblés afin de calculer leurs niveaux d’entropie cérébrale. Le résultat est le même dans l’ensemble des cas : le cerveau affiche une entropie plus élevée lorsqu’il est dans un état de conscience.

Les chercheurs estiment qu’en maximisant l’entropie, le cerveau optimise l’échange d’informations entre les neurones. Cela nous permettrait de percevoir et d’interagir de manière optimale avec notre environnement. Quant à la conscience, ils en ont déduit qu’elle pourrait tout simplement être une caractéristique émergente découlant de cette entropie. Toutefois, ces conclusions sont encore hautement spéculatives en raison des limites que comporte l’étude, telles que le nombre restreint de participants à l’étude. Le terme " entropie " devrait même être considéré avec parcimonie dans ce cadre, selon l’auteur principal de l’étude, Ramon Guevarra Erra de l’Université de Paris Descartes.

De nouvelles expériences sur un échantillon plus large sont nécessaires afin de véritablement corroborer ces résultats. On pourrait aussi évaluer d’autres caractéristiques thermodynamiques par le biais de l’imagerie par résonance magnétique, qui peut être utilisée pour mesurer l’oxygénation — une propriété directement liée au métabolisme et donc à la génération de chaleur (et de ce fait d’augmentation de l’entropie). Des investigations menées en dehors de conditions d’hôpital seraient également intéressantes afin d’évaluer des états de conscience associés à des comportements cognitifs plus subtils. On pourrait par exemple analyser l’activité cérébrale de personnes exécutant une tâche spécifique, comme écouter ou jouer de la musique.

Auteur: Internet

Info: https://trustmyscience.com/ - Valisoa Rasolofo & J. Paiano - 19 octobre 2023

[ complexification ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

matérialogie

La plupart des matériaux semblent suivre une mystérieuse " règle de quatre ", que les chercheurs ne comprennent toujours pas 

La découverte de régularités et de corrélations dans des données enthousiasme généralement les scientifiques, du moins lorsqu’ils peuvent l’expliquer. Dans le cas contraire, il arrive d’estimer que les données présentent des biais ayant mené à l’apparition de telles corrélations, faisant de l’étude un véritable casse-tête. Ces défauts dans les données sont communément appelés " artefacts expérimentaux ". Récemment, des chercheurs de l’École Polytechnique Fédérale de Lausanne (EPFL), après avoir constaté que la structure de base de la majorité des matériaux inorganiques suit une étrange " règle de quatre ", n’ont pas réussi à trouver d’explication à ce schéma (impliquant une ou plusieurs corrélations inexpliquées).

Tout est parti de l’analyse de deux bases de données largement utilisées sur les structures électroniques (Materials Project et Materials Cloud3-Dimensional). Ces deux collections comprennent environ 80 000 structures électroniques de matériaux expérimentaux et prédits. En principe, tous les types de structures électroniques devraient être présentés de manière égale. Cependant, les résultats ont révélé que cela est loin d’être le cas.

Les scientifiques ont en effet constaté que 60 % des matériaux possèdent une cellule unitaire primitive (la cellule la plus petite dans une structure cristalline) constituée d’un multiple de 4 atomes. Cette récurrence est appelée " règle de quatre " par la communauté scientifique.

Des difficultés à trouver une explication définitive

Comme les scientifiques ont tendance à le faire, l’équipe de recherche en question (EPFL), dirigée par Nicola Marzari, a tenté de trouver des explications à ce schéma inattendu. Au départ, les chercheurs ont estimé que l’émergence d’un tel modèle signifiait qu’il y avait un biais quelque part dans les données.

Une première raison intuitive pourrait venir du fait que lorsqu’une cellule unitaire conventionnelle (une cellule plus grande que la cellule primitive, représentant la pleine symétrie du cristal) est transformée en cellule primitive, le nombre d’atomes est typiquement réduit de quatre fois ", a déclaré Elena Gazzarrini, ancienne chercheuse à l’EPFL et travaillant actuellement au CERN (Genève). " La première question que nous nous sommes posée visait à déterminer si le logiciel utilisé pour transformer en cellule primitive la cellule unitaire l’avait fait correctement, et la réponse était oui ", poursuit-elle.

Une fois la piste des erreurs évidentes écartée, les chercheurs ont effectué des analyses approfondies pour tenter d’expliquer la " règle de quatre ". L’équipe s’est alors interrogée si le facteur commun pouvait être le silicium, étant donné qu’il peut lier 4 atomes à son atome central. " Nous pourrions nous attendre à constater que tous les matériaux suivant cette règle de quatre incluent du silicium ", a expliqué Gazzarrini. Malheureusement, cela n’est pas le cas.

Gazzarrini et son équipe se sont alors basés sur les énergies de formation des composés. « Les matériaux les plus abondants dans la nature devraient être les plus énergétiquement favorisés, c’est-à-dire les plus stables, ceux avec une énergie de formation négative », explique Gazzarini. " Mais ce que nous avons constaté avec les méthodes informatiques classiques, c’est qu’il n’y avait aucune corrélation entre la règle de quatre et les énergies de formation négatives ".

En considérant ces constats, Gazzarrini a envisagé la possibilité qu’une analyse plus fine recherchant une corrélation entre les énergies de formation et les propriétés chimiques puisse fournir une explication à cette règle de quatre. Ainsi, l’équipe a fait appel à l’expertise de Rose Cernosky de l’Université du Wisconsin, experte en apprentissage automatique, pour créer un algorithme d’analyse plus puissant. L’algorithme en question regroupait notamment les structures en fonction de leurs propriétés atomiques. Ensemble, Cernosky et l’équipe de Gazzarrini ont ensuite examiné les énergies de formation au sein de classes de matériaux partageant certaines similitudes chimiques. Cependant, une fois de plus, cette nouvelle approche n’a pas permis de distinguer les matériaux conformes à la règle de quatre de ceux qui ne le sont pas.

Un mystère persistant, mais qui mène vers une découverte prometteuse

Bien que jusqu’à présent l’équipe n’a pas pu résoudre l’énigme de la règle de quatre, elle a toutefois fait une belle avancée : l’exclusion de plusieurs hypothèses logiques. Les chercheurs ont également fait une découverte prometteuse (la règle de quatre), qui pourrait servir à des études futures sur ce phénomène structurel.

En effet, avec un algorithme Random Forest, le groupe est en mesure de prédire avec 87 % de précision si un composé suit la règle de quatre ou non. " C’est intéressant, car l’algorithme utilise uniquement des descripteurs de symétrie locaux plutôt que globaux ", déclare Gazzarrini. " Ceci suggère qu’il pourrait y avoir de petits groupes chimiques dans les cellules (encore à découvrir) qui pourraient expliquer la règle de quatre ", a-t-elle conclu.



 

Auteur: Internet

Info: https://trustmyscience.com/ - Kareen Fontaine & J. Paiano·24 avril 2024 - Source : NPJ Computational materials

[ interrogation ] [ tétravalence ] [ physique appliquée ]

 

Commentaires: 0

Ajouté à la BD par miguel

origine de la vie

Pouvons-nous créer les molécules de la vie ? 

Des chercheurs de l’Université de Floride exploitent toute la puissance du supercalculateur HiPerGator pour montrer que des molécules peuvent se former naturellement dans le bon environnement.

Les manuels de biologie de base vous diront que toute vie sur Terre est constituée de quatre types de molécules : les protéines, les glucides, les lipides et les acides nucléiques. Et chaque groupe est vital pour tout organisme vivant.  

Mais quoi si les humains pouvaient réellement montrer que ces " molécules de la vie ", telles que les acides aminés et les bases de l’ADN, peuvent se former naturellement dans le bon environnement ?  Des chercheurs de l’Université de Floride utilisent HiPerGator – le superordinateur le plus rapide de l’enseignement supérieur américain – pour tester cette expérience.

HiPerGator – avec ses modèles d’IA et sa vaste capacité d’unités de traitement graphique, ou GPU (processeurs spécialisés conçus pour accélérer les rendus graphiques) – transforme le jeu de la recherche moléculaire. Jusqu'à il y a dix ans, mener des recherches sur l'évolution et les interactions de vastes collections d'atomes et de molécules ne pouvait se faire qu'à l'aide de simples expériences de simulation informatique ; la puissance de calcul nécessaire pour gérer les ensembles de données n’était tout simplement pas disponible.

C'est maintenant le cas, grâce à HiPerGator. À l'aide de ce supercalculateur, UF Ph.D. L'étudiant Jinze Xue (du Roitberg Computational Chemistry Group) a pu mener une expérience à grande échelle sur la chimie de la Terre pendant les vacances d'hiver 2023. Xue a utilisé plus de 1 000 GPU A100 sur HiPerGator et a réalisé une expérience de dynamique moléculaire sur 22 millions d'atomes qui a identifié 12 acides aminés, trois bases nucléiques, un acide gras et deux dipeptides. La découverte de molécules plus grosses,  qui n’aurait pas été possible dans des systèmes informatiques plus petits, a constitué une réussite importante.

" Nos précédents succès nous ont permis d'utiliser l'apprentissage automatique et l'IA pour calculer les énergies et les forces sur les systèmes moléculaires, avec des résultats identiques à ceux de la chimie quantique de haut niveau mais environ 1 million de fois plus rapides ", a déclaré Adrian Roitberg, Ph.D. , professeur au département de chimie de l'UF qui utilise l'apprentissage automatique pour étudier les réactions chimiques depuis six ans. " Ces questions ont déjà été posées mais, en raison de limitations informatiques, les calculs précédents utilisaient un petit nombre d’atomes et ne pouvaient pas explorer la plage de temps nécessaire pour obtenir des résultats. Mais avec HiPerGator, nous pouvons le faire. "

Erik Deumens, Ph.D., directeur principal d'UFIT Research Computing, a expliqué comment l'utilisation complète d'HiPerGator a été possible.

" HiPerGator a la capacité unique d'exécuter de très grands calculs (‘hero) qui utilisent la machine entière, avec le potentiel de conduire à des percées scientifiques et scientifiques ", a déclaré Deumens. " Lorsque nous avons découvert le travail effectué par le groupe du Dr Roitberg, , nous l'avons approché pour essayer un run 'héros' avec le code qu'il a développé. "

L’émergence de l’IA et des GPU puissants pourra permettre de réaliser de telles simulations scientifiques gourmandes en données – des calculs que les scientifiques ne pouvaient imaginer il y a seulement quelques années. 

"En utilisant des méthodes d'apprentissage automatique, nous avons créé une simulation en utilisant l'ensemble complet de GPU HiPerGator", a déclaré Roitberg. " Nous avons pu observer en temps réel la formation de presque tous les acides aminés (alanine, glycine, etc.) et de nombreuses molécules très complexes. C’était très excitant à vivre.

Ce projet fait partie d'un effort continu visant à découvrir comment des molécules complexes peuvent se former à partir d'éléments de base et à rendre le processus automatique grâce à de grandes simulations informatiques. Roitberg et son groupe de recherche ont passé de nombreuses heures à travailler avec les membres de l'UFIT. Ying Zhang, responsable du support IA d'UFIT, a dirigé l'expérience. 

" Ying a constitué une équipe composée du personnel de Research Computing et du personnel de NVIDIA pour aider à faire évoluer les calculs, fournir des conseils et une aide inestimables et accélérer l'analyse des données au point où les analyses ont été effectuées en seulement sept heures (au lieu des  heures  jours que nous pensions initialement que cela prendrait) ", a déclaré Roitberg. " Nous nous sommes rencontrés chaque semaine, de la conception initiale aux résultats finaux, dans le cadre d’une collaboration très fructueuse. "

Les résultats, et le peu de temps avec lequel HiPerGator a pu les fournir, ont été révolutionnaires, rapprochant les chercheurs de la réponse aux questions sur la formation des molécules complexes. Et le fait que Roitberg ait pu exécuter ce calcul montre que l'UF a la capacité de prendre en charge des " exécutions de héro " ou des " moonshot calculations " qui font avancer les projets scientifiques, d'ingénierie et universitaires.

"C'est une excellente opportunité pour les professeurs de l'UF", a déclaré Roitberg. " Avoir HiPerGator en interne – avec un personnel incroyable prêt à aller au-delà des attentes pour aider les chercheurs à produire une science révolutionnaire comme celle-ci – est quelque chose qui rend mes collègues non-UF très jaloux. "

Auteur: Internet

Info: https://news.ufl.edu/2024/02/molecules-of-life/ *Les travaux de calcul informatique qui nécessitent plus de 256 nœuds sont définis comme travaux de "héro". ** Moonshot projects : projet ambitieux, exploratoire et novateur, entrepris sans garantie de rentabilité ou d'avantages à court terme et, peut-être, sans une étude complète des risques et des avantages potentiels.

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Les Grands Modèles de Langage  s’attaquent à l’émergence !  Un éloge intolérable de … l’obésité !

Le mois dernier j’ai proposé  ici une série de 6 billets où je quadriloguais avec GPT-4 et une version dédoublée de Claude 3 à propos de la conjecture P vs NP, une question classique d’informatique théorique relative à la relation – pour autant qu’il en existe une – entre la complexité de la solution d’un problème et la complexité de la vérification qu’une solution a bien été trouvée.

Vous avez sans doute vu ce qui s’est passé : " M. PJ, votre blog était le lieu de rendez-vous de personnes s’efforçant de résoudre de grands problèmes de société (je vous en remercie !) mais il s’est métamorphosé en un club restreint de mathématiciens fascinés par des casse-têtes abscons. Je vous ai accompagné·e jusqu’ici mais je suis forcé·e aujourd’hui de vous dire adieu : bonne chance à vous dans vos coupages de cheveux en quatre ! ".

J’ai été décontenancé par ces paroles de bon sens, et je n’ai pas publié la suite.

Mal m’en a pris : c’est à ce moment-là que j’ai commencé à recevoir des mails du genre : " M. Jorion, où ailleurs croyez-vous que l’on trouve des discussions – et des avancées – sur des questions véritablement fondamentales comme sur votre blog ? Que vous ont dit ensuite GPT-4 et Claude 3 (je bous d’impatience de l’apprendre !) ? ".

Tout cela pour vous annoncer que je suis allé asticoter mes comparses sur la question de l’émergence.

Vous avez dû comprendre que la chose qui nous sidère dans les progrès des Grands Modèles de Langage (LLM) est le fait que des tas de choses qui nous semblaient absolument distinctes (par exemple : comprendre le sens d’un mot, maîtriser la syntaxe d’une phrase, comprendre le sens global d’une phrase, respecter les règles de la logique, se mettre à la place d’un interlocuteur, exprimer ses sentiments), et pour lesquelles nous avons découvert des règles claires rendant compte de leur fonctionnement séparé, sont en fait acquises " les doigts dans le nez ", l’une après l’autre, par ces LLM, pour nulle autre raison que la croissance en taille de leur système.

Toutes ces remarquables capacités émergent, l’une après l’autre, quand on augmente, tout simplement, les moyens à la disposition du système. Nous n’étions pas préparés à penser que l’intelligence émerge spontanément d’un système dès qu’il a atteint une certaine grosseur, nous pensions qu’un ingrédient supplémentaire était indispensable, que nous appelions " complexité ". Que l’intelligence apparaisse comme sous-produit de la complexité, pourquoi pas ? mais de la simple grosseur ! il y avait là comme un éloge intolérable de … l’obésité, qui constituerait une qualité en soi !

Comprenons-nous pourquoi la taille change tout ? Non. Et il n’y a pas de raison de s’en offusquer : quand on passe d’un milliard de données à 100 milliards, on a besoin d’un télescope pour regarder ce qui se passe, et s’armer alors d’un microscope apparaît très logiquement, hors de propos. Claude Roux écrivait ici tout à l’heure : " C’est là qu’est le hic… Personne ne le sait vraiment. "

Mais c’est là aussi que Pribor.io trouve toujours sa raison d’être. Si l’on adopte une approche " bottom-up ", du bas vers le haut, par opposition à l’approche " top-down ", du haut vers le bas, des LLM, on évite d’être aux abonnés absents quand un effet d’émergence a lieu : il a opéré sous nos yeux et l’on peut dire ce qui s’est passé.

Le logiciel d’IA que j’avais programmé de 1987 à 1990 pour British Telecom s’appelait ANELLA, pour Associative Network with Emergent Logical and Learning Abilities : " … à capacités émergentes de logique et d’apprentissage ". Il m’a fallu les 34 années qui séparent 1990 de 2024 pour comprendre exactement comment la logique émergeait d’une simple suite de mots. C’est qu’il s’agissait du produit d’une alchimie complexe entre l’univers des mots et celui du monde tel qu’il est.

Je vous expliquerai cela un jour prochain, je me contente de vous le résumer aujourd’hui sous une formule sibylline : " Les faits d’émergence ont lieu dans la langue quand nous contraignons tout ce qu’elle permet par ce que le monde interdit lui de son côté ". Exemple : la langue n’interdit pas aux objets de tomber du bas vers le haut, mais le monde lui : Oui ! Lacan (qui se payait notre pomme avec délectation mais avait cependant compris beaucoup de choses) appelait cela " points de capiton ", comme dans un matelas : pour que la chaîne des signifiants, les mots mis à la queue-leu-leu, servent à quelque chose, il faut qu’ici et là, ils collent au Réel, à la réalité profonde des choses. Il n’est pas nécessaire que cela ait lieu souvent (le monde étant très généreux envers nous : il nous a offert cette facilité que nous vivions la plupart du temps confortablement dans un nuage), mais il faut que cela ait lieu de temps à autre ici et là.

Ne vous étonnez donc pas si dans la suite de cette nouvelle série, GPT-4, Claude 3, LLaMA 3 et moi, nous nous interrogeons sur l’émergence, en vue de craquer ses mystères. Faites-nous confiance : cela participe de la Singularité et non du coupage de cheveux en quatre dans laquelle l’humanité se complaît depuis qu’ayant inventé le langage, elle ne cesse de… se saouler de mots !

Auteur: Jorion Paul

Info: Sur son blog, 12 mai 2024

[ abstraction ouverture ] [ langage quasi-esprit ] [ codage priméité tiercité ] [ émersion ]

 
Commentaires: 3
Ajouté à la BD par miguel

machine-homme

Le début d’un gros problème: Google hallucine sur les… hallucinations de ChatGPT

Le moteur de recherche s’est basé sur une information inventée par ChatGPT pour fournir une réponse erronée. Selon un expert, ce genre de fausses informations risquent de se multiplier

(photo) Image créée le 4 octobre 2023 par le générateur de Bing de Microsoft, avec la requête "an egg melting slowly in an oven, very realistic photograph".

Observez bien l’image illustrant cet article: elle est impossible à reproduire dans la vie réelle. Et pour cause, il s’agit d’une image créée avec le générateur d’illustrations de Bing, appartenant à Microsoft. L’auteur de ces lignes a écrit la commande, en anglais, "un œuf fondant lentement dans un four, photographie très réaliste". Et Bing a ensuite affiché un résultat convaincant et de qualité. Un peu comme on lui demande de dessiner un tyrannosaure rose nageant dans le lac Léman. Dopés à l’intelligence artificielle (IA), les générateurs d’images peuvent absolument tout faire.

Mais lorsqu’il s’agit de répondre factuellement à des questions concrètes, l’IA se doit d’être irréprochable. Or ce n’est pas toujours le cas. Pire encore, des systèmes d’intelligence artificielle peuvent se nourrir entre eux d’erreurs, aboutissant à des "hallucinations" – noms courants pour les informations inventées de toutes pièces par des agents conversationnels – qui en créent de nouvelles.

Un œuf qui fond

Récemment, un internaute américain, Tyler Glaiel, en a fait l’éclatante démonstration. Le développeur informatique a d’abord effectué une simple requête sur Google, "can you melt eggs", soit "peut-on faire fondre des œufs". Réponse du moteur de recherche: "Oui, un œuf peut être fondu. La façon la plus courante de faire fondre un œuf est de le chauffer à l’aide d’une cuisinière ou d’un four à micro-ondes". Google a affiché cette réponse loufoque (un œuf durcit, il ne fond pas, évidemment) dans ce qu’on appelle un "snippet", soit une réponse extraite d’un site web, affichée juste en dessous de la requête. Google montre depuis des années des "snippets", grâce auxquels l’internaute n’a pas à cliquer sur la source de l’information, et reste ainsi dans l’univers du moteur de recherche.

Quelle était la source de cette fausse information? Le célèbre site Quora.com, apprécié de nombreux internautes, car chacun peut y poser des questions sur tous les sujets, n’importe qui pouvant répondre aux questions posées. N’importe qui, dont des agents conversationnels. Quora utilise ainsi des systèmes d’IA pour apporter certaines réponses. Dans le cas présent, le site web indique que c’est ChatGPT qui a rédigé cette "hallucination" sur les œufs. Google s’est donc fait avoir par Quora, qui lui-même s’est fait avoir par ChatGPT… Ou plus précisément par l’une de ses anciennes versions. "Quora utilise l’API GPT-3 text-davinci-003, qui est connue pour présenter fréquemment de fausses informations par rapport aux modèles de langage plus récents d’OpenAI", explique le site spécialisé Ars Technica. Expérience faite, aujourd’hui, cette grosse erreur sur l’œuf ne peut pas être reproduite sur ChatGPT.

Risque en hausse

Mais avec de plus en plus de contenu produit par l’IA et publié ensuite sur le web, la menace existe que des "hallucinations" se nourrissent entre elles et se multiplient ainsi dans le domaine du texte – il n’y a pas encore eu de cas concernant des images. "Il est certain que le risque d’ hallucination va augmenter si les utilisateurs ne demandent pas à l’IA de s’appuyer sur des sources via la recherche internet. Beaucoup de contenu en ligne est déjà, et va être généré par des machines, et une proportion sera incorrecte en raison d’individus et contributeurs soit mal intentionnés, soit n’ayant pas les bonnes pratiques de vérification des sources ou de relecture des informations", estime Rémi Sabonnadiere, directeur de la société Effixis, basée à Saint-Sulpice (VD), spécialisée dans les modèles de langage et l’IA générative.

Est-ce à dire que Google pourrait devenir moins fiable? "Difficile à dire, cela dépendra surtout de l’utilisation que nous en faisons, poursuit l’expert. Il y a déjà beaucoup de contenu faux en ligne de nos jours quand nous sommes sur Google, mais avec une bonne recherche et un esprit critique, nous ne tombons pas dans les pièges. Il en va de même avec l’utilisation de l’intelligence artificielle. Avec l’IA générative, les contenus erronés, biaisés et tendancieux vont être de grande qualité en termes de forme, convaincants et bien écrits, rendant l’identification difficile."

Modèles spécialisés

Mais des efforts sont réalisés pour minimiser ces risques. Selon Rémi Sabonnadiere, l’industrie investit énormément dans la recherche et le développement pour minimiser ces problèmes. "Les créateurs de LLM [grands modèles de langage] cherchent à améliorer la précision et la fiabilité des informations générées. Parallèlement, l’émergence de modèles spécialisés dans des domaines comme la médecine, le droit, ou la finance est une tendance encourageante, car ils sont souvent mieux armés pour fournir des informations précises et fiables."

Reste que la fusion entre moteurs de recherche et agents conversationnels – que ce soit Bard pour Google ou Bing pour Microsoft – va compliquer la situation. On avait déjà vu Bard afficher une grossière erreur, lors de son lancement, concernant le télescope James Webb. Les géants de la tech tentent de réduire ces erreurs. Mais les utilisateurs doivent se former en conséquence, affirme Rémi Sabonnadiere, et mieux maîtriser les "prompts", soit les commandes texte: "Maîtriser les prompts est une compétence essentielle pour naviguer dans l’ère de l’information générée par l’IA. Une formation adéquate en ingénierie de prompt peut aider à prévenir les risques liés aux hallucinations de l’IA et aux informations erronées". A noter qu’Effixis a créé à ce propos une formation pour répondre à des besoins spécifiques sur les "prompts".

Auteur: Internet

Info: Le Temps.ch, 5 octobre 2023, par Anouch Seydtaghia

[ machine-homme ] [ sémantique hors-sol ] [ invite de commande langagière ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste