Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 39
Temps de recherche: 0.0571s

sciences

Les années 1897-1900, Bose focalisa son intérêt sur la physiologie comparative, la physiologie des plantes en particulier. Ses recherches permirent d'établir que toutes les caractéristiques de réponse données par les tissus des animaux sont forts similaires à celles des tissus végétaux. En 1901, Bose soumit au Royal Society une "preliminary note on the Electric Response of Inorganic Substances" dans laquelle il montrait comment il avait obtenu une forte réponse électrique de plantes suite à des stimuli mécaniques. Cependant le papier ne fut jamais publié en raison de l'opposition de Sir John Burdon Sanderson, principal electro-physiologiste de son temps. Bose avait des dizaines d'années d'avance sur son temps, ainsi, pour pouvoir mesurer la réponse mécanique des tissus végétaux il créa un levier optique raffiné afin d'amplifier et photographier et enregistrer les infimes mouvements des plantes. Il perfectionna un enregistreur résonant qui lui permit de déterminer avec une exactitude remarquable, (au millième de seconde), la période de réponse d'une plante "touch me not" le Mimosa pudica. Il avait aussi conçu un enregistreur oscillant pour mesurer les mouvements latéraux infimes de la même plante du télégraphe (Desmodium gyrans) en enregistrent automatiquement leurs mouvements battants.
Il put même enregistrer les mouvements de croissance micrographiques de plantes en concevant le crescographe. Avec cet instrument, il pouvait agrandir 10,000 fois et enregistrer automatiquement la croissance d'allongement de tissus végétaux et leurs modifications par des stimuli externes divers.

Auteur: Bose Jagadish Chandra

Info:

[ végétal ]

 

Commentaires: 0

intelligence artificielle

- Peux-tu nous parler des "transformateurs" dans le processus d'IA ?

- Les transformateurs (transformers) sont un type d'architecture de réseau neuronal qui a gagné en popularité et en succès dans les tâches de traitement du langage naturel (NLP), telles que la traduction linguistique, la réponse aux questions et la modélisation linguistique. Ils ont été introduits par Vaswani et al. dans un article fondateur en 2017, et sont depuis devenus un outil standard dans la communauté du TAL.

L'innovation clé de l'architecture du transformateur est l'utilisation de mécanismes d'auto-attention, qui permettent au réseau de s'intéresser à différentes parties de la séquence d'entrée lors du traitement de chaque élément de la séquence. Cela permet au réseau de saisir les dépendances complexes entre les mots ou les tokens de la séquence d'entrée, sans s'appuyer sur un traitement séquentiel*. Le mécanisme d'auto-attention permet également au réseau d'apprendre des représentations contextuelles des mots, qui peuvent être utilisées pour générer des traductions ou des prédictions plus précises et plus fluides.

L'architecture du transformateur présente plusieurs avantages par rapport aux modèles de réseaux neuronaux antérieurs pour les tâches de NLP. Elle peut traiter des séquences d'entrée de longueur variable, ce qui est important pour des tâches telles que la modélisation linguistique et la traduction automatique. Elle peut également capturer les dépendances à longue portée entre les mots, ce qui est important pour des tâches telles que la réponse aux questions et le résumé. En outre, il a été démontré que l'architecture des transformateurs est plus parallélisable et plus efficace sur le plan informatique que d'autres modèles de réseaux neuronaux, ce qui permet d'accélérer les temps d'apprentissage et d'inférence.

Dans l'ensemble, les transformateurs ont eu un impact significatif sur le domaine de l'IA et du NLP**, et ils continuent d'être un domaine actif de recherche et de développement. Ils sont largement utilisés dans de nombreuses applications pratiques, notamment les assistants virtuels, les chatbots et les systèmes de traduction automatique.

Auteur: chatGPT4

Info: 1 mai 2023 *traitement des données dans l'ordre où elles se présentent, sans sélection, regroupement ou tri préalable.**Natural langage processing

[ . ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Frank Rosenblatt est surtout connu pour son Perceptron, un dispositif électronique construit selon des principes biologiques et doté d'une capacité d'apprentissage. Les perceptrons de Rosenblatt ont d'abord été simulés sur un ordinateur IBM 704 au Cornell Aeronautical Laboratory en 1957. Lorsqu'un triangle était placé devant l'œil du perceptron, celui-ci captait l'image et la transmettait le long d'une succession aléatoire de lignes aux unités de réponse, où l'image était enregistrée.

Il a développé et étendu cette approche dans de nombreux articles et dans un livre intitulé Principles of Neurodynamics : Perceptrons and the Theory of Brain Mechanisms, publié par Spartan Books en 1962. Le Perceptron lui a valu une reconnaissance internationale. Le New York Times l'a qualifié de révolution en titrant "New Navy Device Learns By Doing", et le New Yorker a également admiré l'avancée technologique.

Des recherches sur des dispositifs comparables étaient également menées dans d'autres endroits, comme le SRI, et de nombreux chercheurs attendaient beaucoup de ce qu'ils pourraient faire. L'enthousiasme initial s'est toutefois quelque peu estompé lorsqu'en 1969, Marvin Minsky et Seymour Papert ont publié le livre "Perceptrons", qui contenait une preuve mathématique des limites des perceptrons feed-forward à deux couches, ainsi que des affirmations non prouvées sur la difficulté d'entraîner des perceptrons à plusieurs couches. Le seul résultat prouvé du livre, à savoir que les fonctions linéaires ne peuvent pas modéliser les fonctions non linéaires, était trivial, mais le livre a néanmoins eu un effet prononcé sur le financement de la recherche et, par conséquent, sur la communauté. 

Avec le retour de la recherche sur les réseaux neuronaux dans les années 1980, de nouveaux chercheurs ont recommencé à étudier les travaux de Rosenblatt. Cette nouvelle vague d'études sur les réseaux neuronaux est interprétée par certains chercheurs comme une infirmation des hypothèses présentées dans le livre Perceptrons et une confirmation des attentes de Rosenblatt.

Le Mark I Perceptron, qui est généralement reconnu comme un précurseur de l'intelligence artificielle, se trouve actuellement au Smithsonian Institute à Washington D.C. Le MARK 1 était capable d'apprendre, de reconnaître des lettres et de résoudre des problèmes assez complexes.

Auteur: Internet

Info: Sur https://en.wikipedia.org/wiki/Frank_Rosenblatt

[ historique ] [ acquisition automatique ] [ machine learning ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

intelligence artificielle

Résumé et explication du texte "Attention is All You Need"



Le texte "Attention is All You Need" (Vaswani et al., 2017) a révolutionné le domaine du traitement du langage naturel (TLN) en introduisant l'architecture Transformer, un modèle neuronal basé entièrement sur le mécanisme d'attention. Ce résumé explique les concepts clés du texte et son impact sur le TLN.



Concepts clés:





  • Attention: Le mécanisme central du Transformer. Il permet au modèle de se concentrer sur des parties spécifiques d'une séquence d'entrée (par ex., une phrase) lors du traitement, capturant ainsi les relations à longue distance entre les mots.




  • Encodeur-décodeur: L'architecture du Transformer. L'encodeur traite la séquence d'entrée et produit une représentation contextuelle. Le décodeur utilise ensuite cette représentation pour générer la séquence de sortie.




  • Positional encoding: Ajoute des informations de position aux séquences d'entrée et de sortie, permettant au modèle de comprendre l'ordre des mots.




  • Apprentissage par self-attention: Le Transformer utilise uniquement des mécanismes d'attention, éliminant le besoin de réseaux récurrents (RNN) comme les LSTM.





Impact:





  • Efficacité: Le Transformer a surpassé les modèles RNN en termes de performance et de parallélisation, permettant un entraînement plus rapide et une meilleure scalabilité.




  • Polyvalence: L'architecture Transformer s'est avérée efficace pour une large gamme de tâches en TLN, telles que la traduction automatique, le résumé de texte et la réponse aux questions.




  • Impact durable: Le Transformer est devenu l'architecture de base pour de nombreux modèles de pointe en TLN et continue d'inspirer des innovations dans le domaine.





En résumé:



"Attention is All You Need" a marqué un tournant dans le TLN en introduisant l'architecture Transformer. Le mécanisme d'attention et l'absence de RNN ont permis d'améliorer considérablement l'efficacité et la polyvalence des modèles de TLN, ouvrant la voie à de nombreuses avancées dans le domaine.



Points importants:





  • Le Transformer repose sur le mécanisme d'attention pour capturer les relations à longue distance dans les séquences.




  • L'architecture encodeur-décodeur avec self-attention offre une grande efficacité et une grande flexibilité.




  • Le Transformer a eu un impact profond sur le domaine du TLN et continue d'inspirer de nouvelles recherches.



Auteur: Internet

Info: Compendium de gemini

[ historique ] [ traitement automatique du langage ] [ écrit célèbre ]

 

Commentaires: 0

Ajouté à la BD par miguel

préconscient

Nous ne trouverons pas, dans l’inconscient d’Erickson, les données classiques des autres Ecoles. C’est davantage en terme de non conscient qu’il en parle, le conscient étant définit comme ce qui est directement accessible à notre système de pensée rationnelle et discursive parfois appelé "la raison". Il lui attribue des qualités particulières. Les processus inconscients ne sont pas perturbateurs (opposition complète à la psychanalyse), ce sont les processus conscients qui sont perturbateurs, l’inconscient aide au quotidien. "C’est un grand magasin de solutions et de ressources" dans lequel l’individu va pouvoir puiser pour résoudre ses difficultés. Il est ce que nous ne savons pas que nous savons. Ce sont les règles sociales et culturelles que nous utilisons spontanément, dans toutes nos relations et que nous serions bien en peine d’énoncer. Ce sont les expériences passées que nous pensons avoir oublié, les sentiments et émotions qui les accompagnaient dont une empreinte fidèle est conservée, comme les expérimentations en état d’hypnose l’ont prouvé. Ce sont nos gestes, actes, comportements automatiques s’ils ont d’abord été volontairement appris puis, engrammés pour qu’ils puissent être effectués sans occuper la conscience. C’est encore l’essentiel du langage non-verbal qui est un appareil de communication complet pouvant se suffire à lui-même ou accompagner le langage verbal et qui est au coeur de toutes nos relations.

L’inconscient se manifeste davantage dans l’action que dans la pensée (Lacan semble penser l’inverse, pour lui l’inconscient c’est le discours de l’autre, il est structuré comme un langage). Ce qui a fait le succès de la psychanalyse c’est une conception très intellectuelle de l’inconscient, pour Erickson il n’est justement pas intellectuel, c’est par l’action qu’il se construit.

L’inconscient n’a de sens que dans l’interaction, l’inconscient solipsiste, limité à lui-même est une conception nulle pour Erickson. L’inconscient ne se limite pas et ne se ferme pas à l’individu. Il protège la personne activement : "je pense qu’il faut que vous vous rendiez compte que l’inconscient de l’être humain est quelque chose d’assez compréhensif... L’histoire biologique de la race humaine nous révèle qu’un grand nombre de comportements humains ne viennent jamais à la conscience, pourtant ils sont largement utilisés pour gouverner les personnes". C’est pourquoi, en état d’hypnose, c’est une réponse inconsciente qui est recherchée car pertinente pour le sujet dans sa totalité.

Auteur: Internet

Info: www.interpsychonet.fr. Constructivisme. Milton Erickson. Auteur POUPPY. Mars 2002. Texte synthèse à partir d'entretiens entre Erickson et Ernest Rossl dans les années 70 et publiés dans l'ouvrage "Healing In Hypnosis" 1982

[ subconscient ] [ sous-jacent ]

 

Commentaires: 0

Ajouté à la BD par miguel

introspection

Je crois que l’interview est une nouvelle forme d'art. L'auto-interview est l'essence de la créativité. Se poser des questions et essayer de trouver des réponses. L'écrivain ne fait que répondre à des question qui n'ont pas été posées.

C'est un peu comme être appelé à la barre des témoins. C'est cette région étrange dans laquelle vous essayez de fixer quelque chose qui est arrivé dans le passé. Vous cherchez à vous souvenir, honnêtement, de ce que tentiez de faire à ce moment-là. C'est un exercice mental périlleux. Une interview vous donnera souvent l'occasion d'interroger votre esprit, ce qui est à mon avis, la définition de l'art. La chance vous est offerte d'éliminer tout remplissage... Vous devez être explicite, précis, aller directement l'essentiel... Pas de conneries. On trouve les antécédents de l'interview au confessionnal, dans un débat ou un contre-interrogatoire. Une fois la chose dite, vous ne pouvez pas la retirer. Trop tard. Il s'agit d'un moment existentiel.

Je suis, en quelque sorte, "accro" au jeu de l'art et de la littérature ; mes héros sont des artistes et des écrivains.

J'ai toujours désiré écrire, mais je me figurais que rien ne bon ne sortirait. A moins que, pour une raison quelconque, ma main se mette au travail sans que j'y sois vraiment pour quelque chose. Comme l'écriture automatique, mais cela n'est jamais arrivé.

Bien-sûr, j'ai fait des poèmes. Notamment "The pony express" quand j'étais en classe de sixième ou cinquième. C'est le premier dont je me rappelle. C'était un poème dans le style ballade mais je ne l'ai jamais vraiment achevé.

"Horse Latitudes" remontent à mes années de lycée. Au cours de mon adolescence j'ai rempli des tas de carnets. Puis, quand j'ai quitté l'école, je les ai tous jetés... pour des raisons stupides, peut-être par sagesse ? Je remplissais ces pages nuit après nuit. Si je ne les avais pas jetés ; sans doute n'aurais-je jamais écrit quoi que ce soit d'original. Ils étaient, essentiellement, des accumulations de choses que j'avais lues et entendues, des citations tirées de livres. Si je ne m'en étais pas débarrassé, je crois que je n'aurais jamais pu être libre.

La vraie poésie ne veut rien dire, elle ne fait que révéler les possibles. Elle ouvre toutes les portes, à vous de franchir celle qui vous convient.

[...] C'est la raison pour laquelle je suis tellement attiré par la poésie, elle est si éternelle. Tant qu'il y aura des hommes, ils pourront se souvenir des mots et de leurs combinaisons. Seules la poésie et les chansons peuvent survivre à un holocauste. Personne ne peut mémoriser un roman entier, un film, une sculpture ou une peinture. Mais tant qu'il y aura des êtres humains, les chansons et la poésie pourront perpétuer.

Si ma poésie a un but, c'est de libérer les gens de leur œillères, de démultiplier leurs sens.

Auteur: Morrison Jim

Info: Los Angeles, 1970

[ confrontation ] [ sens de l'éternité ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

homme-machine

Illustrer l'apprentissage par renforcement à partir de commentaires humains (RLHF*)

Les modèles de langage ont montré des capacités impressionnantes au cours des dernières années en générant des textes variés et convaincants à partir d'entrées humaines. Cependant, il est difficile de définir ce qu'est un "bon" texte, car c'est subjectif et ça dépend du contexte. Il existe de nombreuses applications telles que l'écriture d'histoires où l'on recherche la créativité, des textes informatifs qui doivent être véridiques, ou des extraits de code que l'on veut exécutables.

Rédiger une fonction de perte** pour capturer ces attributs semble impossible et la plupart des modèles de langage sont encore entraînés avec une simple perte de prédiction du prochain jeton (par exemple, l'entropie croisée). Pour compenser les lacunes de la perte elle-même, les gens définissent des métriques conçues pour mieux capturer les tropismes humains, telles que BLEU ou ROUGE. Bien qu'elles soient mieux adaptées que la fonction de perte elle-même pour mesurer les performances, ces mesures comparent simplement le texte généré à des références avec des règles simples et sont donc également limitées. Ne serait-il pas formidable d'utiliser le retour d'information humain sur le texte généré comme mesure de la performance ou d'aller encore plus loin et d'utiliser ce retour d'information comme perte pour optimiser le modèle ? C'est l'idée de l'apprentissage par renforcement à partir du feedback humain (RLHF)

Le RLHF a permis aux modèles de langage de commencer à aligner un modèle formé sur un corpus général de données textuelles sur celui de valeurs humaines complexes.

Le succès le plus récent de RLHF a été son utilisation dans ChatGPT. Compte tenu des capacités impressionnantes de ChatGPT, nous lui avons demandé de nous expliquer la RLHF :  

- Peux-tu m'expliquer comment le RL (reinforcement learning) avec retour d'information humain usant un modèle linguistique comme si j'avais 5 ans.

- Bien sûr, imagine que j'ai un robot nommé Rufus qui veut apprendre à parler comme un humain.  Rufus a un modèle linguistique qui l'aide a comprendre les mots et les phrases.

Tout d'abord Rufus va dire quelque chose en usant d'un modèle de langage, par exemple en disant :  - je suis un robot

Ensuite un humain va écouter ce qu'il a dit et va donner un avis pour dire si la réponse ressemble à langage naturel d'humain. Il pourra dire, par exemple. C'est pas très bon Rufus, un humain ne dit pas de manière générale "je suis un robot" mais plutôt "j'suis un robot" ou "je suis une machine".

Rufus va prendre en compte ce retour et l'utuiliser pour améliorer son modèle de langage, il va essayer de redire la phrase en utilisant  cette correction et va dire "j'suis un robot".

Ensuite l'humain va continuer de donner des retours de ce genre et petit à petit Rufus va commencer à s'exprimer comme un humain le fait en général.

Ici Chatgtp se débrouille étonnamment bien, mais ne couvre pas tout. Nous nous chargeons de combler ces lacunes !  (La suite sur le site en Info)

Auteur: Internet

Info: Sur guithub : https://huggingface.co/blog/rlhf, Nathan Lambert, Louis Castricato guest , Leandro von Werra, Alex Havrilla guest. Le 9 décembre 2022 *Reinforcement Learning from Human Feedback ... **Courbe de perte ? (loss function) À la base, une fonction de perte est très simple : c'est une méthode permettant d'évaluer dans quelle mesure votre algorithme modélise votre ensemble de données. Si vos prédictions sont totalement erronées, votre fonction de perte affichera un chiffre élevé. Si elles sont assez bonnes, elle affichera un chiffre plus bas.  C'est une pénalité pour  mauvaise prédiction. En d'autres termes, la perte (loss) est un nombre qui indique à quel point la prédiction du modèle est mauvaise sur un seul exemple. Si la prédiction du modèle est parfaite, la perte est nulle ; elle affichera le chiffre zéro.

[ apprentissage automatique ] [ idiome consensuel ] [ anti-poésie ] [ objectivation linguistique ] [ polysémie contextualisée ] [ mathématisation ]

 

Commentaires: 0

Ajouté à la BD par miguel

physique étonnante

Une pièce de métal fissurée s'auto-répare lors d'une expérience qui a stupéfié les scientifiques

A classer dans la catégorie "Ce n'est pas censé arriver" : Des scientifiques ont observé un métal en train de se guérir lui-même, ce qui n'avait jamais été vu auparavant. Si ce processus peut être entièrement compris et contrôlé, nous pourrions être à l'aube d'une toute nouvelle ère d'ingénierie.

Une équipe des laboratoires nationaux Sandia et de l'université A&M du Texas a testé cette résilience du métal en utilisant une technique spécialisée de microscope électronique à transmission pour tirer sur les extrémités du métal 200 fois par seconde. Ils ont ensuite observé l'autocicatrisation à très petite échelle d'un morceau de platine de 40 nanomètres d'épaisseur suspendu dans le vide.

Les fissures causées par le type de déformation décrit ci-dessus sont connues sous le nom de dommages dus à la fatigue : des contraintes et des mouvements répétés provoquent des cassures microscopiques, qui finissent par entraîner la rupture des machines ou des structures. Étonnamment, après environ 40 minutes d'observation, la fissure dans le platine a commencé à se ressouder et à se réparer d'elle-même Étonnamment, après environ 40 minutes d'observation, la fissure dans le platine a commencé à se ressouder et à se réparer avant de recommencer dans un sens différent.

"C'était absolument stupéfiant à observer de près", déclare Brad Boyce, spécialiste des matériaux aux laboratoires nationaux Sandia. "Nous ne l'avions certainement pas cherché... Ce que nous avons montré, c'est que les métaux ont leur propre capacité intrinsèque et naturelle à s'auto-guérir, au moins dans le cas de dommages causés par la fatigue à l'échelle nanométrique.

Il s'agit là de conditions précises, et nous ne savons pas encore exactement comment cela se produit ni comment nous pouvons l'utiliser. Toutefois, si l'on pense aux coûts et aux efforts nécessaires pour réparer toutes sortes de choses, des ponts aux moteurs en passant par les téléphones, on ne peut pas imaginer à quel point les métaux autoréparables pourraient faire la différence.

Bien que cette observation soit sans précédent, elle n'est pas totalement inattendue. En 2013, Michael Demkowicz, spécialiste des matériaux à l'université A&M du Texas, a travaillé sur une étude prédisant que ce type de nanocicatrisation pourrait se produire, grâce aux minuscules grains cristallins à l'intérieur des métaux qui déplacent essentiellement leurs limites en réponse au stress. Demkowicz a également travaillé sur cette dernière étude, utilisant des modèles informatiques actualisés pour montrer que ses théories, vieilles de dix ans, sur le comportement d'auto-guérison des métaux à l'échelle nanométrique correspondaient à ce qui se passait ici.

Le fait que le processus de réparation automatique se soit déroulé à température ambiante est un autre aspect prometteur de la recherche. Le métal a généralement besoin de beaucoup de chaleur pour changer de forme, mais l'expérience a été réalisée dans le vide ; il reste à voir si le même processus se produira dans les métaux conventionnels dans un environnement typique.

Une explication possible implique un processus connu sous le nom de soudure à froid, qui se produit à des températures ambiantes lorsque des surfaces métalliques se rapprochent suffisamment pour que leurs atomes respectifs s'enchevêtrent. En général, de fines couches d'air ou de contaminants interfèrent avec le processus ; dans des environnements tels que le vide spatial, les métaux purs peuvent être suffisamment rapprochés pour se coller littéralement l'un à l'autre.

"J'espère que cette découverte encouragera les chercheurs en matériaux à considérer que, dans les bonnes circonstances, les matériaux peuvent faire des choses auxquelles nous ne nous attendions pas", déclare M. Demkowicz.

Ces travaux de recherche ont été publiés dans la revue Nature.

Auteur: Internet

Info: sciencealert.com, 20 July 2023, By David Nieldhaji,

[ cicatrisation ] [ régénération ] [ science ]

 

Commentaires: 0

Ajouté à la BD par miguel

matérialogie

La plupart des matériaux semblent suivre une mystérieuse " règle de quatre ", que les chercheurs ne comprennent toujours pas 

La découverte de régularités et de corrélations dans des données enthousiasme généralement les scientifiques, du moins lorsqu’ils peuvent l’expliquer. Dans le cas contraire, il arrive d’estimer que les données présentent des biais ayant mené à l’apparition de telles corrélations, faisant de l’étude un véritable casse-tête. Ces défauts dans les données sont communément appelés " artefacts expérimentaux ". Récemment, des chercheurs de l’École Polytechnique Fédérale de Lausanne (EPFL), après avoir constaté que la structure de base de la majorité des matériaux inorganiques suit une étrange " règle de quatre ", n’ont pas réussi à trouver d’explication à ce schéma (impliquant une ou plusieurs corrélations inexpliquées).

Tout est parti de l’analyse de deux bases de données largement utilisées sur les structures électroniques (Materials Project et Materials Cloud3-Dimensional). Ces deux collections comprennent environ 80 000 structures électroniques de matériaux expérimentaux et prédits. En principe, tous les types de structures électroniques devraient être présentés de manière égale. Cependant, les résultats ont révélé que cela est loin d’être le cas.

Les scientifiques ont en effet constaté que 60 % des matériaux possèdent une cellule unitaire primitive (la cellule la plus petite dans une structure cristalline) constituée d’un multiple de 4 atomes. Cette récurrence est appelée " règle de quatre " par la communauté scientifique.

Des difficultés à trouver une explication définitive

Comme les scientifiques ont tendance à le faire, l’équipe de recherche en question (EPFL), dirigée par Nicola Marzari, a tenté de trouver des explications à ce schéma inattendu. Au départ, les chercheurs ont estimé que l’émergence d’un tel modèle signifiait qu’il y avait un biais quelque part dans les données.

Une première raison intuitive pourrait venir du fait que lorsqu’une cellule unitaire conventionnelle (une cellule plus grande que la cellule primitive, représentant la pleine symétrie du cristal) est transformée en cellule primitive, le nombre d’atomes est typiquement réduit de quatre fois ", a déclaré Elena Gazzarrini, ancienne chercheuse à l’EPFL et travaillant actuellement au CERN (Genève). " La première question que nous nous sommes posée visait à déterminer si le logiciel utilisé pour transformer en cellule primitive la cellule unitaire l’avait fait correctement, et la réponse était oui ", poursuit-elle.

Une fois la piste des erreurs évidentes écartée, les chercheurs ont effectué des analyses approfondies pour tenter d’expliquer la " règle de quatre ". L’équipe s’est alors interrogée si le facteur commun pouvait être le silicium, étant donné qu’il peut lier 4 atomes à son atome central. " Nous pourrions nous attendre à constater que tous les matériaux suivant cette règle de quatre incluent du silicium ", a expliqué Gazzarrini. Malheureusement, cela n’est pas le cas.

Gazzarrini et son équipe se sont alors basés sur les énergies de formation des composés. « Les matériaux les plus abondants dans la nature devraient être les plus énergétiquement favorisés, c’est-à-dire les plus stables, ceux avec une énergie de formation négative », explique Gazzarini. " Mais ce que nous avons constaté avec les méthodes informatiques classiques, c’est qu’il n’y avait aucune corrélation entre la règle de quatre et les énergies de formation négatives ".

En considérant ces constats, Gazzarrini a envisagé la possibilité qu’une analyse plus fine recherchant une corrélation entre les énergies de formation et les propriétés chimiques puisse fournir une explication à cette règle de quatre. Ainsi, l’équipe a fait appel à l’expertise de Rose Cernosky de l’Université du Wisconsin, experte en apprentissage automatique, pour créer un algorithme d’analyse plus puissant. L’algorithme en question regroupait notamment les structures en fonction de leurs propriétés atomiques. Ensemble, Cernosky et l’équipe de Gazzarrini ont ensuite examiné les énergies de formation au sein de classes de matériaux partageant certaines similitudes chimiques. Cependant, une fois de plus, cette nouvelle approche n’a pas permis de distinguer les matériaux conformes à la règle de quatre de ceux qui ne le sont pas.

Un mystère persistant, mais qui mène vers une découverte prometteuse

Bien que jusqu’à présent l’équipe n’a pas pu résoudre l’énigme de la règle de quatre, elle a toutefois fait une belle avancée : l’exclusion de plusieurs hypothèses logiques. Les chercheurs ont également fait une découverte prometteuse (la règle de quatre), qui pourrait servir à des études futures sur ce phénomène structurel.

En effet, avec un algorithme Random Forest, le groupe est en mesure de prédire avec 87 % de précision si un composé suit la règle de quatre ou non. " C’est intéressant, car l’algorithme utilise uniquement des descripteurs de symétrie locaux plutôt que globaux ", déclare Gazzarrini. " Ceci suggère qu’il pourrait y avoir de petits groupes chimiques dans les cellules (encore à découvrir) qui pourraient expliquer la règle de quatre ", a-t-elle conclu.



 

Auteur: Internet

Info: https://trustmyscience.com/ - Kareen Fontaine & J. Paiano·24 avril 2024 - Source : NPJ Computational materials

[ interrogation ] [ tétravalence ] [ physique appliquée ]

 

Commentaires: 0

Ajouté à la BD par miguel

artificialisation

L’élevage paysan est menacé parce que les lobbies financiers, ceux de l’agriculture productiviste et même une partie du lobby de la viande industrielle ont décidé de remplacer la vraie viande, plus assez rentable à leurs yeux, par de la fausse viande, du faux lait, du faux fromage, des faux œufs, beaucoup plus rentables.

Le système industriel de production de protéines animales est un échec financier comme le dénonce depuis trois décennies Via Campesina: les épizooties coûtent de 18 à 50 % du chiffre d’affaires, la Banque mondiale chiffre le coût de la grippe aviaire à 1250 milliards de dollars… mais pas question pour ces lobbies de laisser se développer l’élevage paysan. Leur réponse est simple : toujours plus d’industrialisation grâce aux biotech.

Ces lobbies veulent gagner la bataille de l’opinion publique car ils se souviennent de l’échec de la viande clonée qu’ils avaient précédemment voulu imposer, c’est pourquoi ils financent mondialement des groupes animalistes. L214 a reçu ainsi plus de 1,3 million de dollars d’une organisation états-unienne qui finance, par ailleurs le secteur de la fausse viande et notamment celui des faux œufs. Chacun appréciera à sa valeur qu’une organisation fondée par deux militants anarchistes soient subventionnée par le grand capital international et qu’elle se retrouve aux côtés des lobby financiers, de la malbouffe et de ce qu’il y a de pire dans l’industrie de la viande contre l’Internationale Via Campesina… Ce généreux donateur de L214, prénommé Open Philanthropy Project (OP2), a été créé par le fonds d’investissement de Dustin Moskovitz, co-fondateur de Facebook et son épouse Cari Tuna, journaliste au Wall Street Journal. Ce généraux donateur travaille aussi avec le Fonds d’investissement de Google, et avec des milliardaires comme Bill Gates, William Hewlett (Packard), etc…

Le secteur de la fausse viande n’est pas séparable des autres biotechnologies alimentaires, comme les OGM 2eet 3egénérations, comme les imprimantes 3D alimentaires, qui fonctionnent comme une imprimante classique sauf qu’elles utilisent différents ingrédients sous forme de pâte dont des hydro-colloïdes, une substance gélatineuse chimique que l’on peut structurer, aromatiser, coloriser à volonté.. La première imprimante 3D végane a été lancée, en avril 2019, en Israël, par la société Jet Eat, dont le PDG Eshchar Ben Shitrit est un personnage central de l’industrie alimentaire sous forme d’impression 3D ….

Les grandes firmes disposent déjà de tout un vocabulaire marketing pour imposer leurs productions, elles parlent de "viande propre", de "viande éthique", de "viande cultivée", une façon de sous-entendre que la vraie viande, le vrai fromage, le vrai lait, les vrais œufs ne seraient ni propres, ni éthiques, ni même, peut être, ne relèveraient d’une quelconque culture…

La fabrication industrielle de faux produits carnés comprend une production dite a-cellulaire et une autre dite cellulaire. La production acellulaire est une technique de biologie synthétique qui utilise des micro-organismes comme des bactéries, des levures, pour synthétiser des protéines et molécules. Le gène codant d’une protéine donnée est alors clonée dans un micro-organisme qui est ensuite en mesure de le produire. Pour obtenir des protéines de lait ou de blanc d’œuf, on cultive des micro-organismes génétiquement modifiés (des bactéries, des levures et autres champignons) et on mélange ensuite ces protéines à d’autres substances végétales.

La production cellulaire consiste à reconstituer des tissus animaux en mettant en culture des cellules prélevées sur l’animal. Elle utilise pour cela des bioréacteurs sur le modèle de ceux utilisés en médecine pour fabriquer de la fausse peau. La culture des cellules se fait avec du sérum de fœtus de veau. Certaines start-up, financées par la NASA, ont pour objectif de remplacer ce sérum par des extraits de champignon… Cette fausse viande cellulaire suppose toujours un animal donneur de cellules sous forme de biopsie (sous anesthésie locale) mais un seul échantillon pourrait permettre de produire jusqu’à 20 000 tonnes de viande. Mosa Meat explique que 150 vaches suffiraient pour satisfaire la demande actuelle mondiale de viande. Cette firme néerlandaise avait précédemment inventé le premier hamburger à base de cellules (un simple collage de 20 000 fibres). Son coût de 325 000 euros avait été financé par Sergey Brin, co-fondateur de Google, Patron de la firme Alphabet inc, une émanation de Google dénoncée pour être un faux nez permettant d’échapper à l’impôt via les paradis fiscaux, il dirige aussi Google X chargé de développer la voiture automatique Google et un service mondial de livraison par drone. Il fallait donc absolument dans l’intérêt de Google que la viande soit accusée de tous les maux plutôt que les transports. Sergey Brin est non seulement la treizième fortune mondiale, mais l'une des vedettes du Forum économique de Davos dont les membres, à peine descendus de leur jet privé, ordonnait en février 2019, au petit peuple de consommer moins de viande pour… sauver la planète (prétendent-ils).

Auteur: Ariès Paul

Info: https://blogs.mediapart.fr/paul-aries/blog/230419/futurs-deputes-europeens-resisterez-vous-au-lobby-de-la-viande-de-laboratoire?

[ apprentis sorciers ] [ culpabilité ] [ schizophrénie ] [ rendement économique ] [ malbouffe ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par Coli Masson