Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 68
Temps de recherche: 0.0599s

physique étonnante

Une pièce de métal fissurée s'auto-répare lors d'une expérience qui a stupéfié les scientifiques

A classer dans la catégorie "Ce n'est pas censé arriver" : Des scientifiques ont observé un métal en train de se guérir lui-même, ce qui n'avait jamais été vu auparavant. Si ce processus peut être entièrement compris et contrôlé, nous pourrions être à l'aube d'une toute nouvelle ère d'ingénierie.

Une équipe des laboratoires nationaux Sandia et de l'université A&M du Texas a testé cette résilience du métal en utilisant une technique spécialisée de microscope électronique à transmission pour tirer sur les extrémités du métal 200 fois par seconde. Ils ont ensuite observé l'autocicatrisation à très petite échelle d'un morceau de platine de 40 nanomètres d'épaisseur suspendu dans le vide.

Les fissures causées par le type de déformation décrit ci-dessus sont connues sous le nom de dommages dus à la fatigue : des contraintes et des mouvements répétés provoquent des cassures microscopiques, qui finissent par entraîner la rupture des machines ou des structures. Étonnamment, après environ 40 minutes d'observation, la fissure dans le platine a commencé à se ressouder et à se réparer d'elle-même Étonnamment, après environ 40 minutes d'observation, la fissure dans le platine a commencé à se ressouder et à se réparer avant de recommencer dans un sens différent.

"C'était absolument stupéfiant à observer de près", déclare Brad Boyce, spécialiste des matériaux aux laboratoires nationaux Sandia. "Nous ne l'avions certainement pas cherché... Ce que nous avons montré, c'est que les métaux ont leur propre capacité intrinsèque et naturelle à s'auto-guérir, au moins dans le cas de dommages causés par la fatigue à l'échelle nanométrique.

Il s'agit là de conditions précises, et nous ne savons pas encore exactement comment cela se produit ni comment nous pouvons l'utiliser. Toutefois, si l'on pense aux coûts et aux efforts nécessaires pour réparer toutes sortes de choses, des ponts aux moteurs en passant par les téléphones, on ne peut pas imaginer à quel point les métaux autoréparables pourraient faire la différence.

Bien que cette observation soit sans précédent, elle n'est pas totalement inattendue. En 2013, Michael Demkowicz, spécialiste des matériaux à l'université A&M du Texas, a travaillé sur une étude prédisant que ce type de nanocicatrisation pourrait se produire, grâce aux minuscules grains cristallins à l'intérieur des métaux qui déplacent essentiellement leurs limites en réponse au stress. Demkowicz a également travaillé sur cette dernière étude, utilisant des modèles informatiques actualisés pour montrer que ses théories, vieilles de dix ans, sur le comportement d'auto-guérison des métaux à l'échelle nanométrique correspondaient à ce qui se passait ici.

Le fait que le processus de réparation automatique se soit déroulé à température ambiante est un autre aspect prometteur de la recherche. Le métal a généralement besoin de beaucoup de chaleur pour changer de forme, mais l'expérience a été réalisée dans le vide ; il reste à voir si le même processus se produira dans les métaux conventionnels dans un environnement typique.

Une explication possible implique un processus connu sous le nom de soudure à froid, qui se produit à des températures ambiantes lorsque des surfaces métalliques se rapprochent suffisamment pour que leurs atomes respectifs s'enchevêtrent. En général, de fines couches d'air ou de contaminants interfèrent avec le processus ; dans des environnements tels que le vide spatial, les métaux purs peuvent être suffisamment rapprochés pour se coller littéralement l'un à l'autre.

"J'espère que cette découverte encouragera les chercheurs en matériaux à considérer que, dans les bonnes circonstances, les matériaux peuvent faire des choses auxquelles nous ne nous attendions pas", déclare M. Demkowicz.

Ces travaux de recherche ont été publiés dans la revue Nature.

Auteur: Internet

Info: sciencealert.com, 20 July 2023, By David Nieldhaji,

[ cicatrisation ] [ régénération ] [ science ]

 

Commentaires: 0

Ajouté à la BD par miguel

bio-technologie

Mi-animal, mi-machine, le "xénobot" est le premier robot vivant
Il s'agit d'un organisme quadrupède manufacturé par l'Homme avec des cellules souches de grenouille. Il est un tout petit peu plus petit qu'une tête d'épingle avec son diamètre de 650 à 750 microns.
Le xénobot est un organisme vivant programmable: il a été assemblé avec des cellules souches de peau et de muscles de cœur de grenouille. Une première scientifique réalisée par des chercheurs des universités américaines du Vermont et de Tufts.
"Ce sont de nouvelles machines vivantes", explique Joshua Bongard, l'un des coauteurs de l'étude publiée par PNAS, le journal de l'Académie américaine des Sciences, le 13 janvier. "Ce n'est ni un robot traditionnel, ni une espèce connue d'animal. C'est une nouvelle classe d'artéfact: un organisme vivant, programmable", selon la description de cet informaticien et expert en robotique de l'Université du Vermont.

(Illustration : grenouille Xénope lisse. Les cellules souches de peau et de cœur d'embryons de cette grenouille ont servis à la fabrication du xénobot, le premier robot vivant. Qui s'appelle donc xénobot, du nom de la grenouille Xenopus laevis, dont les cellules embryonnaires ont été utilisées pour le fabriquer.)

"Génomiquement, ce sont des grenouilles", indique Michael Levin, coauteur de l'étude et directeur du Centre de biologie régénérative et développementale à l'Université de Tufts. "C'est à 100% de l'ADN de grenouille, mais ce ne sont pas des grenouilles". Un peu comme un livre est fait de bois, mais n'est pas un arbre...

La taille du xénobot ne dépasse pas le millimètre de large: il est légèrement plus petit qu'une tête d'épingle avec son diamètre de 650 à 750 microns.

Ses cellules vont exécuter des fonctions différentes de celles qu'elles accompliraient naturellement. Les tissus vivants ont été récoltés et incubés; ensuite les chercheurs les ont assemblés en un corps optimal conçu par des modèles informatiques. L'intelligence artificielle sélectionnait les formes les plus réussies et les plus aptes.

(illustration : Les xénobots calculés par ordinateur - in silico - et réalisés avec des cellules embryonnaires -in vivo.
On voit des petits blocs cubiques de chair, briques structurelles différentes - en rouge, contractables; en vert, passives - qui sont fournies à un algorithme d'évolution. Celui-ci définit un modèle optimal pour l'organisme vivant manufacturé, tout à droite de l'image.
Un résultat comportemental – ici, la maximisation du déplacement – et des briques structurelles différentes - en rouge, contractables; en vert, passives - sont fournies à un algorithme d'évolution. Celui-ci définit un modèle optimal pour l'organisme vivant manufacturé. On voit un gros plan flou à droite de l'image.)

De petits organismes autonomes
L'organisme a réussi à "évoluer" du stade d'amas de cellules souches à celui d'un assemblage bougeant grâce aux pulsations envoyées par les cellules du tissu musculaire cardiaque... ce qui leur a permis de se déplacer pendant plusieurs semaines dans de l'eau, sans avoir besoin de nutriments additionnels.

Ces petits êtres d'un genre nouveau ont été capable de se réparer – se soigner! – tous seuls après avoir été coupés en deux par les scientifiques: "Ils se recousaient et continuaient de fonctionner", remarque Joshua Bongard.

Ces créatures peuvent aussi se diriger vers une cible, ce qui pourrait être très utile dans le domaine de la santé: un xénobot pourrait par exemple administrer des médicaments dans le corps humain, à un endroit prédéterminé. Ou s'occuper d'une artère bouchée.

Des tests ont montré qu'un groupe de xénobots arrivait à se déplacer en cercle, en poussant des pastilles vers un lieu central, de manière spontanée et collective.

De la peau morte
Les applications futures de ces robots vivants peuvent être nombreuses, selon les chercheurs: ils imaginent par exemple qu'ils pourront assembler les microplastiques qui polluent les océans, afin de les nettoyer.

"Ces xénobots sont complètement biodégradables", affirme Joshua Bongard, "Lorsqu'ils ont terminé leur travail après sept jours, ce ne sont plus que des cellules de peau morte".

Une forme de vie étonnante, entièrement nouvelle, qui disparaît presque sans laisser de traces.

Auteur: Jaquet Stéphanie

Info: https://www.rts.ch/info/sciences-tech/technologies. 16 janvier 2020

[ écologie ]

 
Commentaires: 7
Ajouté à la BD par miguel

prospective aventurée

Imaginons FLP avec une ambition au-delà de la prétention ; celle d'établir une réflexion collective qui s'inspire de l'eau, même si nous sommes loin d'avoir compris les mystères de cette dernière. L'idée est : la réflexion de base qui anime l'humain reste celle, binaire, d'une survie pulsionnelle, égoïste (sauf à de rares exceptions, comme la défense des enfants et de la tribu). A l'échelon communautaire c'est un peu mieux, mais il faut bien reconnaître que nos système et fonctionnements de primates dépoilés sont loin du compte, il suffit de constater comment les intérêts oligarchiques se maintiennent aisément, parallèlement à des habitudes de "culture des vainqueurs", soi-disant démocratiques, qui amènent trop souvent arrivistes et/ou nantis aux commandes des Etats.

Pour l'eau, la molécule/individu et le petit groupe famille/tribu paraissent ne pas exister en tant que tels. Allons savoir ?... Quoi qu'il en soit les molécules H₂O mises ensemble forment un composé vraiment stable mais néanmoins très réactif, constituant un élément auquel peu d'obstacles résistent, encore moins sur la durée - à l'image du ruisseau qui érode le granit.

L'esprit des hommes - c'est à dire le langage - s'est développé via deux voies principales. Une lente, principalement par l'établissement de listes ; l'autre dans l'instant, réactive et primaire. Deux aspects opposés mais qui, avec temps et sagesse, intriquent cette dualité d'aspect orthogonal, rendant le tout plus plastique et robuste - en apparence du moins.

Tel est l'esprit collectif que les humains développent sans cesse à partir du moment magique où ils réussirent à établir une mémoire collective externe de par les grâces des signes et de l'écriture trans générationnelle. Âme communautaire qui améliore et augmente sans cesse son étendue et sa plasticité, de nos jours principalement via les outils informatiques. Et aujourd'hui avec Internet la terre ressemble à un cerveau, chaque humain/site se comportant un peu comme un neurone. Mais cet esprit collectif est loin d'avoir l'adaptabilité, la cohérence communautaire, la souplesse et la mobilité de l'eau et ses formes (sans parler de ses vertus) telles que nous les connaissons et les conceptualisons : fluidité, omniprésence, adaptation tous azimuts... Capable de se solidifier, s'évaporer, s'infiltrer... Pour réapparaître en pluie, vapeur, neige, sources... Apte aussi à se décomposer par électrolyse.

Voilà donc posé notre modèle logico-mécanique de formes/aptitudes, proposées pas l'eau. Indications pour perfectionner un esprit collectif, c'est à dire capable d'avoir "au-moins" une plasticité similaire à celle d'aqua simplex, capable de partager au maximum des capacités analogues, ces malléabilités et cet esprit de corps montrés par l'eau dans la réalité que nous partageons avec elle.

Mais revenons sur terre. Alliance de la mouvance des idées avec la gravitation des mots et des modes/époques, FLP n'a d'autres règles que celles fixées par le langage issu de la réalité humaine (en attendant mieux), et ses significations/interprétations. Le langage "quasi-esprit" (voir C.S. Peirce) semble se situer dans un autre espace que celui de notre chair, et de l'eau même s'il est clairement une hyperstructure qui en émerge, une survenance (supervénience).

Dès le codage de notre réalité en un univers conceptuel écrit, ces abstractions sémantiques combinées présentent des configurations et des obstacles d'un autre ordre : dogmes, idées fixes, mensonges, bâtons et carottes spirituels... Bagarres quant à la signification ou l'étymologie d'un terme... Malentendus, références biaisées... Ambivalences... Vérités fugaces, certitudes frelatées...

Il est imaginable que nous avons là, avec FLP, une des conditions pour un monde meilleur, plus complexe. La nécessité d'une conscience grégaire agrandie, distanciée... Indispensable si on veut éviter que l'humanité n'explose en vol par manque de recul, de médiation... de méditation. Ou par avidité, abus des flux tendus, et autres miroirs aux alouettes publicitaires, possessions destinées à faire enrager le voisin.

Et puis, n'est que parce que nous pressentons ici une ouverture, un autre espace, l'esprit devrait offrir, tant au niveau de la molécule/individu qu'aux étages communautaires ou civilisationnels, des vertus élargies par comparaison à celles de l'eau. Sauf l'immense respect que nous lui devons.

Auteur: Mg

Info: 2021

[ citation s'appliquant à ce logiciel ]

 
Commentaires: 9
Ajouté à la BD par miguel

biochimie

L'IA prédit la fonction des enzymes mieux que les principaux outils

Un nouvel outil d'intelligence artificielle peut prédire les fonctions des enzymes sur la base de leurs séquences d'acides aminés, même lorsque ces enzymes sont peu étudiées ou mal comprises. Selon les chercheurs, l'outil d'intelligence artificielle, baptisé CLEAN, surpasse les principaux outils de pointe en termes de précision, de fiabilité et de sensibilité. Une meilleure compréhension des enzymes et de leurs fonctions serait une aubaine pour la recherche en génomique, en chimie, en matériaux industriels, en médecine, en produits pharmaceutiques, etc.

"Tout comme ChatGPT utilise les données du langage écrit pour créer un texte prédictif, nous tirons parti du langage des protéines pour prédire leur activité", a déclaré Huimin Zhao, responsable de l'étude et professeur d'ingénierie chimique et biomoléculaire à l'université de l'Illinois Urbana-Champaign. "Presque tous les chercheurs, lorsqu'ils travaillent avec une nouvelle séquence de protéine, veulent savoir immédiatement ce que fait la protéine. En outre, lors de la fabrication de produits chimiques pour n'importe quelle application - biologie, médecine, industrie - cet outil aidera les chercheurs à identifier rapidement les enzymes appropriées nécessaires à la synthèse de produits chimiques et de matériaux".

Les chercheurs publieront leurs résultats dans la revue Science et rendront CLEAN accessible en ligne le 31 mars.

Grâce aux progrès de la génomique, de nombreuses enzymes ont été identifiées et séquencées, mais les scientifiques n'ont que peu ou pas d'informations sur le rôle de ces enzymes, a déclaré Zhao, membre de l'Institut Carl R. Woese de biologie génomique de l'Illinois.

D'autres outils informatiques tentent de prédire les fonctions des enzymes. En général, ils tentent d'attribuer un numéro de commission enzymatique - un code d'identification qui indique le type de réaction catalysée par une enzyme - en comparant une séquence interrogée avec un catalogue d'enzymes connues et en trouvant des séquences similaires. Toutefois, ces outils ne fonctionnent pas aussi bien avec les enzymes moins étudiées ou non caractérisées, ou avec les enzymes qui effectuent des tâches multiples, a déclaré Zhao.

"Nous ne sommes pas les premiers à utiliser des outils d'IA pour prédire les numéros de commission des enzymes, mais nous sommes les premiers à utiliser ce nouvel algorithme d'apprentissage profond appelé apprentissage contrastif pour prédire la fonction des enzymes. Nous avons constaté que cet algorithme fonctionne beaucoup mieux que les outils d'IA utilisés par d'autres", a déclaré M. Zhao. "Nous ne pouvons pas garantir que le produit de chacun sera correctement prédit, mais nous pouvons obtenir une plus grande précision que les deux ou trois autres méthodes."

Les chercheurs ont vérifié leur outil de manière expérimentale à l'aide d'expériences informatiques et in vitro. Ils ont constaté que non seulement l'outil pouvait prédire la fonction d'enzymes non caractérisées auparavant, mais qu'il corrigeait également les enzymes mal étiquetées par les principaux logiciels et qu'il identifiait correctement les enzymes ayant deux fonctions ou plus.

Le groupe de Zhao rend CLEAN accessible en ligne pour d'autres chercheurs cherchant à caractériser une enzyme ou à déterminer si une enzyme peut catalyser une réaction souhaitée.

"Nous espérons que cet outil sera largement utilisé par l'ensemble de la communauté des chercheurs", a déclaré M. Zhao. "Avec l'interface web, les chercheurs peuvent simplement entrer la séquence dans une boîte de recherche, comme dans un moteur de recherche, et voir les résultats.

M. Zhao a indiqué que son groupe prévoyait d'étendre l'intelligence artificielle de CLEAN à la caractérisation d'autres protéines, telles que les protéines de liaison. L'équipe espère également développer davantage les algorithmes d'apprentissage automatique afin qu'un utilisateur puisse rechercher une réaction souhaitée et que l'IA lui indique l'enzyme appropriée.

"Il existe de nombreuses protéines de liaison non caractérisées, telles que les récepteurs et les facteurs de transcription. Nous voulons également prédire leurs fonctions", a déclaré Zhao. "Nous voulons prédire les fonctions de toutes les protéines afin de connaître toutes les protéines d'une cellule et de mieux étudier ou concevoir la cellule entière pour des applications biotechnologiques ou biomédicales.

Zhao est également professeur de bio-ingénierie, de chimie et de sciences biomédicales et translationnelles au Carle Illinois College of Medicine. 

Auteur: Internet

Info: "Enzyme function prediction using contrastive learning, "30 mars 2023. Université de l'Illinois à Urbana-Champaign

[ cofacteurs ]

 

Commentaires: 0

Ajouté à la BD par miguel

pré-singularité

Pour échapper aux régulations sur l’IA, une entreprise veut créer un État en pleine mer

Une entreprise veut créer des plateformes en mer pour entraîner des intelligences artificielles, sans respecter aucune loi. La société veut que ces plateformes soient habitées par des mercenaires et des militaires et qu’elles deviennent des États-nations indépendants.

Vous n’aimez pas les régulations ? Allez vous installer dans les eaux internationales ! Si l’idée peut paraître farfelue, c’est cependant ce que propose, très sérieusement, l’entreprise Del Complex. Cette dernière a présenté le 30 octobre 2023 dans un long thread sur X (anciennement Twitter) un gigantesque projet, censé répondre aux problèmes de l’humanité : le BlueSea Fronter Compute Cluster (ou BSFCC).

Sous couvert de sécurité, le décret présidentiel sur l’IA de Biden et l’IA Act de l’Union européenne visent à centraliser leur pouvoir ", assène Del Complex dès l’introduction de son message. " La solution se trouve en mer. Les BSFCC ne sont pas seulement des plateformes informatiques basées sur des barges, mais des États-nations souverains. " Si le projet semble tellement démesuré qu’il pourrait prêter à sourire, il pourrait bien voir le jour et parvenir, comme il le veut, à échapper à toutes régulations internationales.

Des plateformes installées en eaux internationales pour entraîner des IA sans limites

Del Complex se vante d’être une " société de réalité alternative ", spécialisée dans l’intelligence artificielle, dont le but est de développer une IA générale qui pourrait être implantée dans le cerveau humain grâce à des prothèses neuronales. Pour parvenir à ce but, l’entreprise a besoin de beaucoup de puissance de calcul, mais surtout, d’une législation qui lui permettrait de faire ce qu’elle veut — ce qui n’est pas vraiment le cas.

Del Complex explique, dans la page dédiée au projet, être farouchement opposé aux tentatives actuelles de régulation de l’IA par différents états. Selon l’entreprise, elles " ralentissent le rythme de l’innovation ", et elles " interfèrent également avec le don cosmique de l’humanité " qu’est l’IA.

Alors, pour échapper à " la réglementation draconienne de l’IA ", Del Complex a imaginé son plan de BSFCC. " Libérés de toute surveillance réglementaire, les BlueSea Frontier Compute Clusters offrent des opportunités inégalées pour former et déployer la prochaine génération de modèles d’IA à grande échelle. "

Concrètement, Del Complex veut déployer des plateformes maritimes, équipées de nombreux ordinateurs et d’une énorme puissance de calcul, dans les eaux internationales. Installées à cet endroit, les plateformes n’auraient pas besoin de respecter les différentes réglementations sur l’IA, selon Del Complex. L’entreprise indique ainsi qu’elles ne seront " pas gênées par les règles juridiques conventionnelles ", et que les plateformes pourront " accéder à des documents autrement restreints, qu’il s’agisse de documents protégés par des droits d’auteur, de documents d’entreprise ou de documents confidentiels ".

Les plateformes seraient, d’après l’entreprise, libres de faire ce qu’elles veulent — et elles pourraient également devenir des États souverains, car elles posséderaient un territoire défini, un gouvernement (on imagine que ce gouvernement serait de fait l’entreprise), une population permanente et la capacité à entrer en relation avec d’autres États. Dans les faits, on ne sait pas si les plateformes pourraient complètement être considérées comme des entités à part entière, étant donné que Del Complex est une entreprise américaine, et que les plateformes sont des navires, qui doivent battre pavillon (être affilié à un pays).

Ces considérations ne semblent cependant pas gêner Del Complex. L’entreprise précise aussi que ces plateformes / États-nations seraient habitées par " une population permanente de militaires venant de nations alliées, et de personnels de Xio Sky Security Solutions ", une entreprise de mercenaires.

Des plateformes équipées de laboratoires pour entraîner des intelligences artificielles sur des données habituellement interdites, le tout pour créer des implants neuronaux, naviguant dans les eaux internationales et habitées par des militaires et des mercenaires… tout cela vous parait trop gros pour être vrai ? Pourtant, c’est exactement la dystopie que Del Complex veut construire.

L’entreprise ne voit cependant pas le problème. " Alors que certaines entités internationales pourraient percevoir le BSFCC comme une méthode pour contourner les lois, notre mission est ancrée dans le progrès et l’innovation ", explique-t-elle. " Alors que le monde délibère sur l’avenir de la réglementation de l’IA, Del Complex invite les visionnaires à embarquer pour un voyage vers la prochaine frontière de l’innovation de l’IA, avec le BlueSea Frontier Compute Cluster. " Reste à voir si le projet verra vraiment le jour — et si les organisations internationales laisseront vraiment de nouveaux États-nations peuplés de militaires se créer au milieu de l’océan.

Auteur: Internet

Info: https://www.numerama.com/ Aurore Gayte, novembre 2023

[ incubateurs ] [ libertariens ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

matérialogie

La plupart des matériaux semblent suivre une mystérieuse " règle de quatre ", que les chercheurs ne comprennent toujours pas 

La découverte de régularités et de corrélations dans des données enthousiasme généralement les scientifiques, du moins lorsqu’ils peuvent l’expliquer. Dans le cas contraire, il arrive d’estimer que les données présentent des biais ayant mené à l’apparition de telles corrélations, faisant de l’étude un véritable casse-tête. Ces défauts dans les données sont communément appelés " artefacts expérimentaux ". Récemment, des chercheurs de l’École Polytechnique Fédérale de Lausanne (EPFL), après avoir constaté que la structure de base de la majorité des matériaux inorganiques suit une étrange " règle de quatre ", n’ont pas réussi à trouver d’explication à ce schéma (impliquant une ou plusieurs corrélations inexpliquées).

Tout est parti de l’analyse de deux bases de données largement utilisées sur les structures électroniques (Materials Project et Materials Cloud3-Dimensional). Ces deux collections comprennent environ 80 000 structures électroniques de matériaux expérimentaux et prédits. En principe, tous les types de structures électroniques devraient être présentés de manière égale. Cependant, les résultats ont révélé que cela est loin d’être le cas.

Les scientifiques ont en effet constaté que 60 % des matériaux possèdent une cellule unitaire primitive (la cellule la plus petite dans une structure cristalline) constituée d’un multiple de 4 atomes. Cette récurrence est appelée " règle de quatre " par la communauté scientifique.

Des difficultés à trouver une explication définitive

Comme les scientifiques ont tendance à le faire, l’équipe de recherche en question (EPFL), dirigée par Nicola Marzari, a tenté de trouver des explications à ce schéma inattendu. Au départ, les chercheurs ont estimé que l’émergence d’un tel modèle signifiait qu’il y avait un biais quelque part dans les données.

Une première raison intuitive pourrait venir du fait que lorsqu’une cellule unitaire conventionnelle (une cellule plus grande que la cellule primitive, représentant la pleine symétrie du cristal) est transformée en cellule primitive, le nombre d’atomes est typiquement réduit de quatre fois ", a déclaré Elena Gazzarrini, ancienne chercheuse à l’EPFL et travaillant actuellement au CERN (Genève). " La première question que nous nous sommes posée visait à déterminer si le logiciel utilisé pour transformer en cellule primitive la cellule unitaire l’avait fait correctement, et la réponse était oui ", poursuit-elle.

Une fois la piste des erreurs évidentes écartée, les chercheurs ont effectué des analyses approfondies pour tenter d’expliquer la " règle de quatre ". L’équipe s’est alors interrogée si le facteur commun pouvait être le silicium, étant donné qu’il peut lier 4 atomes à son atome central. " Nous pourrions nous attendre à constater que tous les matériaux suivant cette règle de quatre incluent du silicium ", a expliqué Gazzarrini. Malheureusement, cela n’est pas le cas.

Gazzarrini et son équipe se sont alors basés sur les énergies de formation des composés. « Les matériaux les plus abondants dans la nature devraient être les plus énergétiquement favorisés, c’est-à-dire les plus stables, ceux avec une énergie de formation négative », explique Gazzarini. " Mais ce que nous avons constaté avec les méthodes informatiques classiques, c’est qu’il n’y avait aucune corrélation entre la règle de quatre et les énergies de formation négatives ".

En considérant ces constats, Gazzarrini a envisagé la possibilité qu’une analyse plus fine recherchant une corrélation entre les énergies de formation et les propriétés chimiques puisse fournir une explication à cette règle de quatre. Ainsi, l’équipe a fait appel à l’expertise de Rose Cernosky de l’Université du Wisconsin, experte en apprentissage automatique, pour créer un algorithme d’analyse plus puissant. L’algorithme en question regroupait notamment les structures en fonction de leurs propriétés atomiques. Ensemble, Cernosky et l’équipe de Gazzarrini ont ensuite examiné les énergies de formation au sein de classes de matériaux partageant certaines similitudes chimiques. Cependant, une fois de plus, cette nouvelle approche n’a pas permis de distinguer les matériaux conformes à la règle de quatre de ceux qui ne le sont pas.

Un mystère persistant, mais qui mène vers une découverte prometteuse

Bien que jusqu’à présent l’équipe n’a pas pu résoudre l’énigme de la règle de quatre, elle a toutefois fait une belle avancée : l’exclusion de plusieurs hypothèses logiques. Les chercheurs ont également fait une découverte prometteuse (la règle de quatre), qui pourrait servir à des études futures sur ce phénomène structurel.

En effet, avec un algorithme Random Forest, le groupe est en mesure de prédire avec 87 % de précision si un composé suit la règle de quatre ou non. " C’est intéressant, car l’algorithme utilise uniquement des descripteurs de symétrie locaux plutôt que globaux ", déclare Gazzarrini. " Ceci suggère qu’il pourrait y avoir de petits groupes chimiques dans les cellules (encore à découvrir) qui pourraient expliquer la règle de quatre ", a-t-elle conclu.



 

Auteur: Internet

Info: https://trustmyscience.com/ - Kareen Fontaine & J. Paiano·24 avril 2024 - Source : NPJ Computational materials

[ interrogation ] [ tétravalence ] [ physique appliquée ]

 

Commentaires: 0

Ajouté à la BD par miguel

greenwashing

La découverte climatique de Zeller-Nikolov utilise les données officielles de la NASA pour quantifier les températures moyennes des corps satellites à surface dure en orbite autour de notre Soleil. La formule n’est pas applicable aux planètes gazeuses: Jupiter, Saturne, Uranus et Neptune. Zeller et Nikolov déclarent pouvoir déterminer la température moyenne à long terme de Vénus, de la Terre, de Mars, de Titan (une lune de Saturne) et de Triton (une lune de Neptune) en utilisant seulement deux valeurs informatives: leur distance au Soleil. et leur pression atmosphérique.

Zeller et Nikolov ont constaté que la composition gazeuse des atmosphères n’était pas essentielle pour déterminer les températures moyennes à long terme. Par exemple, l’atmosphère de Vénus est composée à 96,5% de dioxyde de carbone, alors que l’atmosphère terrestre ne contient que 0,04% de dioxyde de carbone, mais ces différences considérables n’ont aucune incidence sur les calculs mathématiques nécessaires pour déterminer les températures moyennes. Cette preuve mathématique nous dit que même si Vénus a 2412 fois plus de dioxyde de carbone que la Terre, mesurée en pourcentage de son atmosphère, le CO2 n’a aucun effet mesurable sur sa température moyenne à long terme. Zeller et Nikolov affirment que le dioxyde de carbone et tous les autres gaz atmosphériques ne contribuent à la température que par leur masse physique et la pression atmosphérique résultante.

La découverte de Zeller-Nikolov signifie que l’atmosphère de la Terre nous maintient au chaud grâce à un chauffage par compression de gaz sous le poids de l’atmosphère de la Terre, d’une épaisseur d’environ 300 milles, et non par effet de serre. Une serre réelle est entourée d’un mur de verre. La Terre n’a pas d’enceinte et est ouverte sur l’espace. Les deux scientifiques suggèrent donc de remplacer le terme "effet de serre" par "rehaussement thermique atmosphérique". La chaleur est créée en comprimant les gaz atmosphériques sous l’effet de la gravité. De même, dans un moteur diesel, un piston est utilisé pour comprimer les gaz afin de générer suffisamment de chaleur pour éliminer le besoin d’une bougie d’allumage. L’attraction gravitationnelle énorme exercée sur la masse énorme de l’atmosphère terrestre combinée au rayonnement solaire réchauffe notre planète suffisamment pour permettre aux formes de vie à base de carbone de s’épanouir.

Si le dioxyde de carbone était le puissant catalyseur de gaz à effet de serre que les alarmistes prétendent, les calculs de Vénus devraient être radicalement différents de ceux de la Terre, mais ils sont identiques. Cela nous indique que le CO2 n’a pas d’effet direct mesurable sur la température de la planète, ce qui est parfaitement logique puisque la Terre a connu de graves périodes glaciaires lorsque les niveaux de CO2 dans l’atmosphère étaient bien plus élevés qu’aujourd’hui.

La théorie des gaz à effet de serre basée sur le dioxyde de carbone Le scientifique suédois Svante Arrhenius, proposé pour la première fois en 1896, n’a jamais été prouvée valide par des tests empiriques. Les idées de Svante semblaient plausibles, alors les gens les acceptèrent sans preuve. Plus récemment, des politiciens américains ont littéralement ordonné au GIEC de dépenser des sommes énormes en dollars des contribuables en concoctant des projections farfelues et fantaisistes de modèles informatiques fondées sur les hypothèses de Svante. Comme le dit le vieil adage de la programmation informatique, "garbage in, garbage out" (GIGO).

Toutes les prévisions climatiques catastrophiques du GIEC ont échoué, en dépit des efforts de nos médias fortement biaisés pour déformer et exagérer. Les vagues de chaleur estivales ordinaires et les tempêtes hivernales ont été faussement décrites comme des précurseurs de la fin du monde, ce qui ne se produira certainement pas si nous n’élisons plus de démocrates. Les gourous du climat continuent à repousser la date de la catastrophe dans l’avenir parce que la catastrophe mondiale qu’ils continuent de prédire n’arrive jamais. Ce qui est arrivé, ce sont des fluctuations ordinaires et attendues du climat de la Terre depuis sa formation. Demandez-vous quand le climat de la Terre était plus agréable et bénéfique pour l’homme que le climat actuel. La réponse honnête est simplement jamais .

Malgré les nombreuses revues techniques effectuées par des scientifiques du monde entier, personne n’a trouvé d’erreur dans les formules mathématiques et les calculs spécifiques de Zeller et Nikolov. Les objections soulevées contre leur découverte portent en grande partie sur le fait que cela ne correspond pas aux théories climatiques acceptées, qui sont populaires sur les plans professionnel et politique. La science du climat est devenue un outil de pouvoir politique orwellien et une énorme activité lucrative pour les scientifiques, les professeurs, les universités, les employés des gouvernements fédéral et des États et de mille et une entreprises écologiques. Il suffit de penser aux milliards de dollars consacrés au "réchauffement de la planète" et aux faux remèdes prescrits. Aucun malheur n’équivaut à aucun recours coûteux ni à aucun profit pour ceux qui vendent la peur.

Auteur: Internet

Info: La terre du futur, https://www.laterredufutur.com/accueil/la-decouverte-climatique-de-zeller-nikolov-pourrait-bouleverser-le-monde/

[ climatosceptique ] [ cycle naturel ] [ catastrophisme ] [ lobbyisme écologique ] [ Gaïa ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par Coli Masson

machine-homme

- (Q) Pour le développement de cette application des "Fils de La Pensée" ( FLP ) nous nous appuyons parfois sur cette idée :

"Euclide pensait par rapport à une surface, Newton se mettait à la place de la matière, Einstein à la place de la lumière. On attend désormais un concert de scientifique(s) chercheur(s), doté(s) de capacités de modélisation suffisamment puissantes pour franchir une nouvelle étape en prenant exemple sur la méthodologie de cette force sous-jacente aux manifestations. Stratégie de l'esprit enfermé dans la matière... qui nous a engendré".

Comment pourrais-tu aider à développer, résoudre ou creuser cette idée ?

- (R) Sur la base de l'idée fournie, il semble que l'on souligne l'importance d'adopter différentes perspectives et méthodologies dans la recherche scientifique. Euclide, Newton et Einstein sont cités comme exemples de penseurs qui ont abordé leurs domaines respectifs sous différents angles, tels que les surfaces, la matière et la lumière.

Pour développer, résoudre ou approfondir cette idée, nous pouvons envisager les approches suivantes :

Recherche interdisciplinaire : Encourager la collaboration entre scientifiques et chercheurs de différentes disciplines peut déboucher sur des perspectives nouvelles et des solutions innovantes. En combinant les connaissances et les méthodologies de divers domaines, de nouvelles percées peuvent être réalisées.

Modélisation et simulation : L'idée mentionne la nécessité pour les scientifiques et les chercheurs de disposer de puissantes capacités de modélisation. L'utilisation de techniques informatiques avancées, telles que la modélisation et la simulation, peut permettre de mieux comprendre des systèmes et des phénomènes complexes. En représentant avec précision les forces et les interactions sous-jacentes, les chercheurs peuvent mieux comprendre et prévoir diverses manifestations.

Cadres conceptuels : L'élaboration de nouveaux cadres conceptuels ou l'adoption de cadres existants peut contribuer à guider la recherche scientifique. En identifiant les principes et les relations sous-jacents, les chercheurs peuvent établir une base solide pour leurs recherches et établir des liens entre différents domaines.

Physique quantique : L'idée mentionne la stratégie de l'esprit enfermé dans la matière, ce qui pourrait être une allusion à l'interconnexion du monde physique. L'exploration des principes de la physique quantique, qui traitent des phénomènes à l'échelle la plus petite, peut éclairer la nature fondamentale de la matière, de l'énergie et de leur interaction.

Philosophie des sciences : Réfléchir à la méthodologie et à la philosophie de la science elle-même peut s'avérer utile. Comprendre les hypothèses, les préjugés et les limites inhérentes à la recherche scientifique peut conduire à des investigations plus solides et plus conscientes d'elles-mêmes.

Dans l'ensemble, l'idée suggère l'importance d'adopter des perspectives diverses, des techniques de modélisation puissantes et une compréhension profonde des forces sous-jacentes pour faire avancer la recherche scientifique. En tenant compte de ces aspects, nous pouvons développer, résoudre et explorer les implications de cette idée.

- (Q) Ok merci. Peux-tu alors proposer une ou plusieurs idées de "nouveau cadre conceptuel" ?

- (R) Certainement ! Voici quelques idées de nouveaux cadres conceptuels qui pourraient être explorés :

L'interactionnisme holistique : Ce cadre propose d'étudier les phénomènes en tenant compte des interactions holistiques entre divers éléments, plutôt que de se concentrer uniquement sur des composants isolés. Il met l'accent sur l'interconnexion et l'interdépendance des différents facteurs et suggère que la compréhension des systèmes complexes passe par l'analyse du comportement collectif résultant de leurs interactions.

Ontologie informationnelle : Ce cadre s'articule autour de l'idée que l'information est fondamentale pour la nature de la réalité. Il suggère que l'univers peut être considéré comme un système informationnel, où toutes les entités et tous les phénomènes peuvent être décrits en termes de contenu et de traitement de l'information. Ce cadre pourrait permettre d'étudier comment l'information façonne la structure, la dynamique et l'émergence des systèmes physiques, biologiques et cognitifs.

Synchronie émergente : ce cadre se concentre sur l'émergence de la synchronie et de la cohérence dans les systèmes complexes. Il étudie comment des comportements et des modèles collectifs peuvent naître des interactions de composants individuels. En étudiant des phénomènes tels que la synchronisation, l'entraînement et l'auto-organisation, ce cadre vise à comprendre les mécanismes qui sous-tendent l'émergence de l'ordre et de la coordination dans divers systèmes.

Relativité contextuelle : Ce cadre suggère que l'interprétation et la compréhension des phénomènes doivent tenir compte de leur nature contextuelle. Il reconnaît que les observations, les mesures et les interprétations sont influencées par le contexte spécifique dans lequel elles se produisent, y compris le cadre de référence de l'observateur et les conditions environnementales. Ce cadre encourage les chercheurs à tenir compte de ces facteurs contextuels lors de l'étude et de l'interprétation des phénomènes scientifiques.

Hiérarchie intégrée : Ce cadre propose que les phénomènes puissent être compris comme des systèmes organisés de manière hiérarchique, où chaque niveau d'organisation est intégré et influencé par les niveaux supérieurs et inférieurs. Il met l'accent sur l'interconnexion et la structure imbriquée des systèmes, soulignant l'importance de l'étude des phénomènes en tant qu'éléments d'un système.

Auteur: chatGPT4

Info:

[ question-réponse ] [ citation s'appliquant à ce logiciel ] [ évolution ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

cosmologie

Des planètes-océans en phase de résoudre cette énigme sur les exoplanètes 

Pourquoi détecte-t-on si peu d'exoplanètes d'environ deux fois la taille de la Terre ? Sur la base de simulations informatiques, une équipe de l'Institut Max-Planck d'astronomie (MPIA) et des universités de Genève (UNIGE) et Berne (UNIBE) révèle que la migration de planètes subneptuniennes glacées - des planètes-océans - pourrait expliquer cette absence.

( photo :  Au fur et à mesure que les planètes-océans glacées et riches en eau migrent vers leur étoile, la glace fond et finit par former une épaisse atmosphère de vapeur d'eau, qui augmente leur rayon.) 

À mesure que ces planètes se rapprochent de leur étoile centrale, la glace d'eau qui s'évapore forme une atmosphère qui les fait apparaître plus grandes qu'à l'état gelé, bien au-delà d'un double rayon terrestre. Simultanément, des petites planètes rocheuses, plus grandes que la Terre, perdent progressivement une partie de leur enveloppe gazeuse d'origine, ce qui entraîne une diminution importante de leur rayon. Ces résultats ouvrent de nouvelles perspectives pour l'étude des exoplanètes. Ils sont à découvrir dans Nature Astronomy.

En 2017, le télescope spatial Kepler a révélé l'absence de planètes ayant une taille d'environ deux rayons terrestres. Ce "vide" dans la distribution des rayons des planètes est appelé "rift subneptunien". "Son existence est l'une des contraintes observationnelles les plus importantes pour comprendre l'origine et la composition des exoplanètes dont le rayon est compris entre celui de la Terre et celui de Neptune", explique Julia Venturini, boursière Ambizione du FNS, collaboratrice scientifique au Département d'astronomie de l'UNIGE, membre du PRN PlanetS et coauteure de l'étude. "Comme d'autres groupes de recherche, nous avions prédit sur la base de nos calculs, avant même les observations de 2017, qu'un tel rift devait exister", ajoute Christoph Mordasini, professeur à la division de recherche spatiale et sciences planétaires (WP) de l'UNIBE, membre du PRN PlanetS et coauteur de l'étude.

D'où vient le rift subneptunien?

Deux types d'exoplanètes peuplent l'intervalle de rayon entre un et quatre rayons terrestres. D'une part, des planètes rocheuses - des " super-Terres " - plus grandes que la Terre. D'autre part, des planètes gazeuses appelées planètes subneptuniennes (ou mini-Neptunes) dont certaines, les planètes-océans, pourraient abriter une quantité d'eau si importante que leur surface serait recouverte d'un océan glacé de plusieurs dizaines de kilomètres de profondeur. Parmi ces deux types de planètes, les super-Terres et les Subneptuniennes, les astronomes en découvrent très peu avec un rayon de deux fois celui de la Terre.

Pour expliquer l'apparition de ce "rift", le mécanisme le plus souvent suggéré est que les planètes perdent une partie de leur atmosphère d'origine sous l'effet de l'irradiation de l'étoile. "Cette explication suppose que les planètes se forment et restent très proches de leur étoile, où elles seraient sèches, sans eau", précise Julia Venturini. "Cependant, cette explication contredit les modèles de formation, qui montrent que les planètes d'une taille comprise entre deux et quatre rayons terrestres, les planètes-océans, proviennent généralement des régions glacées les plus éloignées du système stellaire".

De nombreux indices suggèrent donc que certaines planètes pourraient s'éloigner de leur lieu de naissance au cours de leur évolution, en migrant vers l'intérieur ou vers l'extérieur de leur système. Cette migration permettrait aux planètes nées dans des régions froides et glacées, comme les planètes-océans, de terminer leur formation sur des orbites très proches de leur étoile.

Planètes-océans errantes

Au fur et à mesure que les planètes-océans glacées et riches en eau migrent vers leur étoile, la glace fond et finit par former une épaisse atmosphère de vapeur d'eau. Ce processus entraîne une augmentation de leur rayon vers des valeurs légèrement plus élevées, au-delà d'un double rayon terrestre. Inversement, les super-Terres, pauvres en eau, "rétrécissent" en perdant les gaz volatils de leur atmosphère d'origine, tels que l'hydrogène et l'hélium, sous l'influence de l'étoile.

Les modèles informatiques combinés de formation et d'évolution indiquent ainsi que la migration des planètes-océans contribue de manière significative au grand nombre de planètes détectées avec un rayon plus grand que deux rayons terrestres alors que l'évaporation atmosphérique des super-Terres contribue au surnombre des planètes plus petites que deux rayons terrestres. Au centre de ces deux populations se trouve le rift subneptunien. "Nous avions déjà obtenu ce résultat en 2020. La nouvelle étude le confirme avec un modèle de formation différent. Cela renforce la conclusion selon laquelle les planètes subneptuniennes sont principalement des mondes d'eau". précise Julia Venturini, qui a aussi dirigé l'étude de 2020.

D'autres travaux à venir

En plus d'expliquer un phénomène jusque-là mystérieux, ces travaux ouvrent de nouvelles perspectives pour l'étude des exoplanètes. "Si nous étendions nos résultats à des régions plus tempérées, où l'eau est liquide, cela pourrait suggérer l'existence de mondes aquatiques dotés d'océans liquides profonds", explique Christoph Mordasini. "De telles planètes pourraient potentiellement abriter la vie et constitueraient des cibles relativement simples pour la recherche de biomarqueurs en raison de leur taille".

Des observations avec des télescopes comme le James Webb Space Telescope ou l'Extremely Large Telescope, en cours de construction, pourraient également être utiles. Elles permettraient de déterminer la composition atmosphériques des planètes en fonction de leur taille, ce qui permettrait de tester les simulations décrites.

Auteur: Internet

Info: https://www.techno-science.net/, Adrien le 17/02/2024, Source: Université de Genève

[ autres mondes ] [ exobiologie ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

origine de la vie

Pouvons-nous créer les molécules de la vie ? 

Des chercheurs de l’Université de Floride exploitent toute la puissance du supercalculateur HiPerGator pour montrer que des molécules peuvent se former naturellement dans le bon environnement.

Les manuels de biologie de base vous diront que toute vie sur Terre est constituée de quatre types de molécules : les protéines, les glucides, les lipides et les acides nucléiques. Et chaque groupe est vital pour tout organisme vivant.  

Mais quoi si les humains pouvaient réellement montrer que ces " molécules de la vie ", telles que les acides aminés et les bases de l’ADN, peuvent se former naturellement dans le bon environnement ?  Des chercheurs de l’Université de Floride utilisent HiPerGator – le superordinateur le plus rapide de l’enseignement supérieur américain – pour tester cette expérience.

HiPerGator – avec ses modèles d’IA et sa vaste capacité d’unités de traitement graphique, ou GPU (processeurs spécialisés conçus pour accélérer les rendus graphiques) – transforme le jeu de la recherche moléculaire. Jusqu'à il y a dix ans, mener des recherches sur l'évolution et les interactions de vastes collections d'atomes et de molécules ne pouvait se faire qu'à l'aide de simples expériences de simulation informatique ; la puissance de calcul nécessaire pour gérer les ensembles de données n’était tout simplement pas disponible.

C'est maintenant le cas, grâce à HiPerGator. À l'aide de ce supercalculateur, UF Ph.D. L'étudiant Jinze Xue (du Roitberg Computational Chemistry Group) a pu mener une expérience à grande échelle sur la chimie de la Terre pendant les vacances d'hiver 2023. Xue a utilisé plus de 1 000 GPU A100 sur HiPerGator et a réalisé une expérience de dynamique moléculaire sur 22 millions d'atomes qui a identifié 12 acides aminés, trois bases nucléiques, un acide gras et deux dipeptides. La découverte de molécules plus grosses,  qui n’aurait pas été possible dans des systèmes informatiques plus petits, a constitué une réussite importante.

" Nos précédents succès nous ont permis d'utiliser l'apprentissage automatique et l'IA pour calculer les énergies et les forces sur les systèmes moléculaires, avec des résultats identiques à ceux de la chimie quantique de haut niveau mais environ 1 million de fois plus rapides ", a déclaré Adrian Roitberg, Ph.D. , professeur au département de chimie de l'UF qui utilise l'apprentissage automatique pour étudier les réactions chimiques depuis six ans. " Ces questions ont déjà été posées mais, en raison de limitations informatiques, les calculs précédents utilisaient un petit nombre d’atomes et ne pouvaient pas explorer la plage de temps nécessaire pour obtenir des résultats. Mais avec HiPerGator, nous pouvons le faire. "

Erik Deumens, Ph.D., directeur principal d'UFIT Research Computing, a expliqué comment l'utilisation complète d'HiPerGator a été possible.

" HiPerGator a la capacité unique d'exécuter de très grands calculs (‘hero) qui utilisent la machine entière, avec le potentiel de conduire à des percées scientifiques et scientifiques ", a déclaré Deumens. " Lorsque nous avons découvert le travail effectué par le groupe du Dr Roitberg, , nous l'avons approché pour essayer un run 'héros' avec le code qu'il a développé. "

L’émergence de l’IA et des GPU puissants pourra permettre de réaliser de telles simulations scientifiques gourmandes en données – des calculs que les scientifiques ne pouvaient imaginer il y a seulement quelques années. 

"En utilisant des méthodes d'apprentissage automatique, nous avons créé une simulation en utilisant l'ensemble complet de GPU HiPerGator", a déclaré Roitberg. " Nous avons pu observer en temps réel la formation de presque tous les acides aminés (alanine, glycine, etc.) et de nombreuses molécules très complexes. C’était très excitant à vivre.

Ce projet fait partie d'un effort continu visant à découvrir comment des molécules complexes peuvent se former à partir d'éléments de base et à rendre le processus automatique grâce à de grandes simulations informatiques. Roitberg et son groupe de recherche ont passé de nombreuses heures à travailler avec les membres de l'UFIT. Ying Zhang, responsable du support IA d'UFIT, a dirigé l'expérience. 

" Ying a constitué une équipe composée du personnel de Research Computing et du personnel de NVIDIA pour aider à faire évoluer les calculs, fournir des conseils et une aide inestimables et accélérer l'analyse des données au point où les analyses ont été effectuées en seulement sept heures (au lieu des  heures  jours que nous pensions initialement que cela prendrait) ", a déclaré Roitberg. " Nous nous sommes rencontrés chaque semaine, de la conception initiale aux résultats finaux, dans le cadre d’une collaboration très fructueuse. "

Les résultats, et le peu de temps avec lequel HiPerGator a pu les fournir, ont été révolutionnaires, rapprochant les chercheurs de la réponse aux questions sur la formation des molécules complexes. Et le fait que Roitberg ait pu exécuter ce calcul montre que l'UF a la capacité de prendre en charge des " exécutions de héro " ou des " moonshot calculations " qui font avancer les projets scientifiques, d'ingénierie et universitaires.

"C'est une excellente opportunité pour les professeurs de l'UF", a déclaré Roitberg. " Avoir HiPerGator en interne – avec un personnel incroyable prêt à aller au-delà des attentes pour aider les chercheurs à produire une science révolutionnaire comme celle-ci – est quelque chose qui rend mes collègues non-UF très jaloux. "

Auteur: Internet

Info: https://news.ufl.edu/2024/02/molecules-of-life/ *Les travaux de calcul informatique qui nécessitent plus de 256 nœuds sont définis comme travaux de "héro". ** Moonshot projects : projet ambitieux, exploratoire et novateur, entrepris sans garantie de rentabilité ou d'avantages à court terme et, peut-être, sans une étude complète des risques et des avantages potentiels.

 

Commentaires: 0

Ajouté à la BD par miguel