Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 5086
Temps de recherche: 0.0427s

microbiote

Le plus grand écosystème microbien du monde découvert sous la croûte terrestre
Des millions d’espèces microbiennes ont été découvertes par un conglomérat de 1 200 scientifiques, composé de géologues, de chimistes, de physiciens et de microbiologistes originaires de 52 pays. Leurs travaux ont été publiés lundi 10 décembre à l’occasion du sommet américain de géophysique à Washington. Pendant 10 ans, ils ont réalisé des centaines de forages, parfois à 5 kilomètres de profondeur sous la croûte terrestre et sous la mer. Ils y ont découvert un monde insoupçonné qui comprend des membres des trois domaines biologiques : les bactéries, les archées et les eucaryotes. Cette découverte vient questionner nos certitudes sur la formation de la vie sur Terre et ailleurs.

Une population aussi diversifiée que celle d'Amazonie
Nous sommes près de 7 milliards d’êtres humains mais nous ne représentons qu’une toute petite partie de la vie sur Terre. L’écosystème découvert par les scientifiques atteint un volume de près de deux fois celui de nos océans et un poids équivalent à une vingtaine de milliards de tonnes, soit beaucoup plus que le poids total de l’humanité. Sa diversité est comparable à celle de l’Amazonie. Ces millions de microbes "vivent partout dans les sédiments" explique Fumio Inagaki de l'agence japonaise pour les sciences marines et de la terre. "Ce sont de nouvelles branches dans l'arbre de la vie qui existent sur Terre depuis des milliards d'années, sans qu’on ne les ait jamais remarquées" ajoute Karen Lloyd de l'université du Tennessee. Une grande partie de la vie se trouverait donc à l'intérieur de la Terre plutôt qu'à sa surface et ces microbes "souterrains" représentent, selon les scientifiques, 70 % de la totalité de ces populations.

Un monde à part
Une telle découverte est souvent accompagnée de son lot d’énigmes et cette biosphère remet en cause de nombreuses certitudes que nous avons sur la vie. Ces microbes sont en effet très différents de leurs cousins vivant en surface. Ils vivent dans des milieux extrêmes très sombres et très chauds. "Leur source d'énergie n'est pas le Soleil et la photosynthèse. Ici, ce qui fait démarrer leurs communautés, c'est la chimiosynthèse. Ils tirent leur énergie des roches qui s'altèrent" explique Bénédicte Menez, responsable de l'équipe géomicrobiologie à l'Institut de Physique du Globe de Paris.

Leur rapport au temps est également différent. Alors qu’à la surface, nous dépendons de cycles relativement rapides, réglés sur le Soleil et sur la Lune, ces organismes souterrains font partie de cycles lents à l'échelles des temps géologiques, et ne dépendent pas de notre étoile. Certaines espèces vivent en effet depuis des milliers d’années et sont à peine en mouvement, excepté en cas de déplacement des plaques tectoniques ou d’éruptions. Les scientifiques ne comprennent pas leur mécanisme de survie à long terme : "Ils sont là et attendent…" conclut un scientifique.

La découverte de cette biosphère pose la question même de l'origine de la vie sur Terre : la vie a-t-elle commencé dans les profondeurs de la Terre pour ensuite migrer vers le Soleil, ou a-t-elle commencé à la surface pour ensuite migrer vers le bas ? Et comment ces microbes survivent-ils au manque de nutriments et aux conditions extrêmes ? Pour Robert Hazen, minéralogiste à la Carnegie Institution for Science, si "la vie sur Terre peut être si différente de ce à quoi nous sommes habitués, quelle étrangeté pourrait nous attendre en cherchant la vie dans d'autres mondes ?"

Auteur: Internet

Info: https://www.nationalgeographic.fr, trad Arnaud Sacleux , nov 2019

[ énigme ]

 

Commentaires: 0

Ajouté à la BD par miguel

interdépendance

Complexité des écosystèmes: un gage de résilience face au changement
Le fonctionnement d'un écosystème s'articule autour de relations de natures diverses entre une myriade d'espèces. Identifier de manière exhaustive ces interactions et le rôle qu'elles jouent dans le fonctionnement d'un écosystème demeure toutefois peu évident.
Dans une étude publiée récemment dans PLos Biology, une équipe internationale menée par deux chercheurs de l'Institut des Sciences de l'Evolution de Montpellier (ISEM, CNRS / IRD / EPHE) et du Laboratoire Biométrie et Biologie Evolutive de Villeurbanne (CNRS / Université de Lyon) a pu étudier l'ensemble des relations trophiques* et non-trophiques entre les espèces présentes dans la zone de balancement des marées de la côte centrale du Chili.
Ce travail inédit, basé sur la modélisation mathématique des réseaux, montre que ces interactions sont fortement structurées selon une organisation qui assure la résilience de la communauté. Il confirme ainsi l'importance de prendre en compte la diversité des relations interspécifiques d'un écosystème pour prévoir ses réactions face à des perturbations de grande ampleur comme le changement climatique.
La plupart des travaux scientifiques qui s'intéressent au fonctionnement des milieux naturels se sont jusqu'ici focalisés sur les relations trophiques entre les espèces qui les composent. Or d'autres formes d'interactions comme le mutualisme ou la compétition pour l'espace semblent jouer un rôle tout aussi important. Ces relations non-trophiques sont pourtant rarement prises en compte dans les études portant sur les réseaux écologiques.
Avec l'aide des scientifiques chiliens du Center for Marine Conservation et du Center for Applied Ecology and Sustainability, qui analysent depuis plusieurs décennies les interactions entre les espèces qui peuplent la côte du centre du Chili, des chercheurs français et américains sont parvenus à visualiser pour la première fois un réseau écologique dans toute sa complexité. "En traitant l'importante masse de données collectée par nos collègues chiliens à l'aide de puissants outils de modélisation statistique des réseaux, nous avons pu dresser une cartographie précise des relations s'établissant entre les 106 espèces qui peuplent cette zone intertidale", détaille Sonia Kéfi, chercheuse en écologie à l'Institut des Sciences de l'Evolution de Montpellier et cosignataire de l'article.
Les scientifiques ont ainsi constaté que les interactions non-trophiques comme la compétition pour l'espace ou la création d'habitats étaient deux fois plus nombreuses que celles correspondant à la consommation directe d'autres organismes. L'équipe a ensuite réparti les 106 espèces impliquées dans ces interactions en différents groupes au sein desquels les espèces sont très proches sur le plan taxonomique. Chacun d'eux rassemblait des organismes entretenant le même genre de relations avec les autres êtres vivants de la zone de balancement des marées.
A partir de cette représentation simplifiée du fonctionnement de l'écosystème, les chercheurs ont élaboré un système dynamique simulant l'évolution de sa biomasse totale et de sa biodiversité en fonction de l'organisation initiale de ce réseau d'interactions. "Lorsque nous introduisions de l'aléatoire dans la structure du réseau, nous observions à chaque fois une diminution de ces deux variables au cours du temps, détaille Sonia Kéfi. La structuration observée dans la nature conduisait quant à elle au maintien de la biodiversité et à une biomasse totale élevée."
Les résultats de cette étude mettent ainsi en avant l'importance de la complexité des relations entre les espèces qui composent une communauté écologique. A l'avenir, ce genre de travaux devrait aider à mieux comprendre la réaction des écosystèmes face à des perturbations comme le changement climatique ou l'exploitation, par l'Homme, des ressources naturelles.

Auteur: Internet

Info: http://www.techno-science.net, Vie et Terre, Posté par Isabelle, Lundi 19/12/2016,*qui concerne la nutrition des organes et des tissus -

[ complémentarité ] [ biotope ]

 

Commentaires: 0

monde subatomique

Des physiciens comprennent enfin pourquoi l’interaction forte est si tenace 

Il existe quatre forces fondamentales : la force de gravité, l’électromagnétisme, l’interaction faible et l’interaction (ou force) forte. Cette dernière est la plus intense. L’interaction forte agit en liant les quarks au sein des protons et des neutrons. Elle maintient ainsi les nucléons ensemble pour former des noyaux atomiques. La force forte est jusqu’à 100 000 milliards de milliards de fois plus intense que la force de gravité. Malgré cette intensité, elle est relativement peu comprise, par rapport aux autres forces. Récemment, des chercheurs ont percé l’un des mystères de l’interaction forte expliquant sa ténacité et sont notamment parvenus à la mesurer de façon plus précise.

L’interaction forte est quantifiée par la constante de couplage (que les auteurs de l’étude choisissent d’appeler simplement " couplage "), notée αs (alpha s). Il s’agit d’un paramètre fondamental dans la théorie de la chromodynamique quantique (QCD).

La difficulté de la mesure de αs réside principalement dans sa nature très variable : plus deux quarks sont éloignés, plus le couplage est élevé, et plus l’attraction entre eux devient forte. À des distances faibles, où αs est encore faible, les physiciens parviennent à appliquer des méthodes de calcul basique pour déterminer le couplage. Cependant, ces techniques deviennent inefficaces à des distances plus importantes. Dans une nouvelle étude, des physiciens ont ainsi réussi à appliquer de nouvelles méthodes pour mieux déterminer αs à des distances plus importantes. 

Un calcul basé sur l’intégrale de Bjorken

Poussé par sa curiosité, l’un des chercheurs a testé l’utilisation de l’intégrale de Bjorken pour prédire αs sur de longues distances. Cette méthode permet de définir des paramètres relatifs à la rotation de la structure des nucléons et ainsi de calculer le couplage de la force forte à courte distance. Le scientifique ne s’attendait donc pas à faire une découverte de ce calibre en faisant cet essai. Pourtant, contre toute attente, ses résultats ont montré qu’à un moment donné, αs cesse d’augmenter pour devenir constant. Il a ainsi partagé ses découvertes avec son mentor qui avait, lui aussi, obtenu des résultats similaires dans des travaux antérieurs.

 "Ce fut une chance, car même si personne ne s’en était encore rendu compte, l’intégrale de Bjorken est particulièrement adaptée aux calculs de αs sur de longues distances ", déclarent les chercheurs dans un article du Scientific American. Les résultats ont été présentés lors de diverses conférences de physique, durant l’une desquelles l’auteur principal a rencontré un autre physicien, Stanley Brodsky, qui aurait appuyé les résultats obtenus.

Une méthode par holographie

En parallèle à cette découverte, d’autres physiciens ont travaillé sur la mise au point d’une autre méthode de calcul de αs sur de longues distances, qu’ils ont appelée " holographie du front lumineux ". L’holographie est une technique mathématique qui a initialement été développée dans le contexte de la théorie des cordes et de la physique des trous noirs.

Cependant, en physique des particules, elle sert à modéliser des phénomènes en quatre dimensions (incluant les trois dimensions spatiales et une dimension temporelle) en se basant sur des calculs effectués dans un espace à cinq dimensions. Dans cette méthode, la cinquième dimension n’est pas nécessairement une dimension physique réelle, mais peut servir d’outil mathématique pour faciliter les calculs. L’idée est que certaines équations complexes en quatre dimensions peuvent devenir plus simples ou plus intuitives quand elles sont envisagées dans un espace à cinq dimensions.

Auteur: Internet

Info: https://trustmyscience.com/ - Miotisoa Randrianarisoa & J. Paiano·15 avril 2024

[ gluons ] [ force de cohésion nucléaire ]

 

Commentaires: 0

Ajouté à la BD par miguel

ADN

Le génome humain: un orchestre complexe
Une équipe de généticiens suisses de l'Université de Genève (UNIGE), de l'École Polytechnique Fédérale de Lausanne (EPFL) et de l'Université de Lausanne (UNIL) a découvert que les variations génétiques sont en mesure d'affecter l'état du génome à de nombreux endroits, apparemment séparés, et de moduler par conséquent l'activité des gènes, à la manière d'un chef d'orchestre coordonnant les instrumentistes pour qu'ils jouent en harmonie. Ces résultats inattendus, publiés dans Cell, révèlent le caractère polyvalent de la régulation du génome et offrent de nouvelles perspectives sur la façon dont il est orchestré.
La chromatine est un ensemble de protéines et d'ADN qui emballe le génome dans une cellule. Elle arrange l'ADN de telle sorte qu'il puisse être "lu" par un groupe de protéines appelé facteurs de transcription, qui active ou réprime l'expression des gènes. La séquence d'ADN varie toutefois d'un individu à l'autre, entraînant ainsi une variation moléculaire entre les états de la chromatine des individus. Cela finit par causer des variations dans la manière dont les humains répondent à l'environnement. Comprendre les processus génétiques et moléculaires régissant la variabilité de la chromatine est l'un des défis les plus importants dans le domaine des sciences de la vie qui permettrait de découvrir comment les variations génétiques prédisposent les individus à certaines maladies comme le cancer, le diabète ou les maladies auto-immunes.
L'étude publiée dans Cell montre comment les variations génétiques ont affecté trois couches moléculaires dans les lignées cellulaires immunes chez 47 individus dont les génomes ont été entièrement séquencés: au niveau des interactions entre l'ADN et les facteurs de transcription, des états de la chromatine et de l'expression des gènes. "Nous avons observé que les variations génétiques à un endroit précis du génome impactent plusieurs éléments régulateurs, pourtant séparés, en même temps. Cette coordination surprenante peut être comparée à un chef d'orchestre (ici le variant génétique) qui coordonne tous les instrumentistes (ici les facteurs de transcription et les modifications de la chromatine) pour changer le volume (ici l'expression des gènes) de la musique," explique le professeur Bart Deplancke de l'EPFL. Contrairement au modèle traditionnel qui suppose que l'impact des éléments régulateurs sur l'expression des gènes se fait de façon quasiment indépendante, les chercheurs suisses ont identifié un comportement bien plus harmonieux et synergique.
Les généticiens suisses montrent que le génome n'est pas juste un ensemble linéaire d'éléments qui interagissent par paires ; il s'organise de manière complexe et en réseaux. Si un élément n'agit pas correctement, c'est l'ensemble du système qui sera perturbé. "Nous avons découvert les règles biologiques de base sur le fonctionnement du génome et la manière dont les séquences régulatrices agissent ensemble pour impacter l'expression d'un gène," résume le professeur Alexandre Reymond de l'UNIL.
Si la route vers de potentielles applications médicales est encore longue, les principes mécaniques que les chercheurs viennent de découvrir mettent en lumière les aspects fondamentaux de la biologie du génome. "Il est encore trop tôt pour déterminer si nous serons un jour en mesure de moduler l'expression des gènes de manière ciblée, mais cette étude révèle un niveau de complexité de la fonction du génome qui n'avait pas été anticipé", conclut le professeur Emmanouil Dermitzakis de l'UNIGE. "Appliquer notre découverte à la médecine signifierait identifier un seul chef d'orchestre et définir son rôle parmi tous les autres chefs d'orchestre pour chaque ensemble musical - plutôt que simplement lister tous les artistes jouant dans notre orchestre de génomes."

Auteur: Internet

Info: 21 aout 2015

[ pilotage ] [ guidage ] [ lamanage ] [ gouvernance ] [ méta-moteur ]

 

Commentaires: 0

homme-animal

Les mouches auraient-elles des émotions ?
Les insectes seraient-ils des êtres sensibles comme les autres ? Des chercheurs ont en tout cas prouvé que des mouches présentaient tous les signes de la peur.
Les drosophiles ouvrent de nouvelles perspectives sur les sentiments ou leurs ébauches chez les non-mammifères.Les drosophiles ouvrent de nouvelles perspectives sur les sentiments ou leurs ébauches chez les non-mammifères.
C'est au coeur des comportements des mammifères que nous cherchons bien souvent émotions et sentiments. Tristesse, peur, bonheur, amitié… sont autant de noms qui quand ils s'appliquent aux animaux non-humains soulèvent des débats passionnés. L'affaire devient encore plus brûlante quand on touche à ces bêtes que l'on écrase sans remords et avec lesquels nous livrons un bras de fer à base d'armes chimiques : les insectes. Nous faudra-t-il accepter que même ces petits êtres sont doués d'émotions, voire de sentiments ? C'est ce qu'ont voulu savoir des chercheurs de l'université de Pasadena (États-unis) en observant la drosophile (Drosophila sp.), une petite mouche des fruits très étudiée en génétique.
Pister les traces de la peur
L'équipe de William T. Gibson a cherché chez l'insecte des traces d’émotions, aussi appelées émotions primitives. Trois de celles-ci ont été étudiées :
• l’évolutivité, le fait que la réponse de l'animal, face au danger, est graduelle et augmente avec le nombre d'éléments menaçants ;
• la valence, l'impact négatif ou positif sur l'organisme de l'émotion et la persistance ;
• la présence de reliquats d'émotions une fois l'alerte passée.
10 mouches ont été soumises à un stimulus effrayant : une ombre qui survolait la boîte les contenant. Elle passait plus ou moins souvent et à des intervalles plus ou moins longs, déterminés par les chercheurs. Puis, les mouches ont été testées individuellement. Tout cela sous l'œil attentif d'une caméra vidéo.
Au passage de l'ombre, les drosophiles s'agitaient subitement. Lors d'assombrissements répétés espacés d'une seconde, la réponse des mouches (les envols) augmentait progressivement avec le nombre d'épisodes d'obscurité. Cependant cet effet cumulatif disparaissait quand ces derniers étaient plus espacés. À 3 secondes d'intervalle, les mouvements que généraient la menace étaient bien moindre qu'à 1 seconde. Un autre facteur influait sur l'envol : le nombre d'individus présents. Isolées, les drosophiles ont en effet montré une plus grande sensibilité à l'alerte qu'en groupe. La mouche seule fuyait dès le premier passage ombrageux (ce qui n'était pas le cas en présence de 9 autres individus) ; ou adoptait une posture figée qualifiée de "freezing" conservée pendant le passage de l'ombre et après plusieurs secondes. Dans les deux cas, 20 secondes environ étaient nécessaires pour que le comportement des mouches retourne à la normale.
Les émotions primitives sont bien là
Dans une dernière expérience, les chercheurs ont proposé de la nourriture à des mouches ayant subi une diète de 24 à 60 heures. Tout cela dans une boîte elle aussi survolée par une ombre. Les mouches ont difficilement déserté la zone de nourrissage mais l'ont d'autant plus évacuée que les ombres se multipliaient. Le besoin de se sustenter rentre donc en compétition avec celui de fuir.
Que peut-on en conclure ? Persistance, évolutivité, valence négative de l'émotion suscitée par un danger... Les émotions primitives sont bien présentes chez les drosophiles. Et si la crainte de l’anthropomorphisme retient les chercheurs d’assimiler leur comportement à de la peur ou de l'anxiété, les résultats de Gibson et ses collègues ouvrent malgré tout une nouvelle voie : celle de l’étude des émotions chez les insectes. Nos conceptions n’attendent que d’être bousculées.

Auteur: Internet

Info: Horvath Louise, 22.05.2015 à 14h30

[ bouleversement ] [ émoi ]

 

Commentaires: 0

animal domestique

Oscar, le petit chat, arrive devant la chambre 313. La porte est ouverte, il entre. Mme K. est allongée paisiblement sur son lit et respire doucement. Autour d'elle, les photos de ses petits-enfants et une de son mariage. Malgré ces souvenirs, elle est seule. Oscar saute sur le lit, renifle l'air et marque une pause, histoire de considérer la situation. Sans plus hésiter, il fait alors deux tours sur lui-même pour se lover contre Mme K. Une heure passe. Oscar attend. Une infirmière entre, vérifie l'état de la malade et note la présence d'Oscar. Préoccupée, elle sort et commence à passer des coups de téléphone. La famille arrive, le prêtre est appelé pour les derniers sacrements. Le matou ne bouge toujours pas. Le petit-fils de Mme K. demande alors :" Mais que fait le chat ici ?* Sa mère, maîtrisant ses larmes, lui répond : " Il est là pour aider grand-mère à arriver au paradis... * Trente minutes plus tard, Mme K. pousse son dernier soupir. Oscar se lève, sort à pas de velours, sans que personne ne le remarque..."
Oscar, présente la particularité incroyable d'identifier les patients dont la mort est imminente. La prestigieuse revue médicale américaine The New England Journal of Medicine, dans son dernier numéro, loin de ses articles austères, a choisi de publier l'histoire vraie et touchante d'un petit chat pas comme les autres. Recueilli dans une unité pour malades d'Alzheimer à Rhode Island aux États-Unis, il présente la particularité incroyable d'identifier les patients dont la mort est imminente et de se blottir alors contre eux pour leur apporter un ultime réconfort. Il s'intéresse à chaque patient, mais ne s'installe sur leur lit que lorsque le moment fatal est arrivé. Le docteur David Dosa, gériatre à l'hôpital Rhode Island de Providence, travaillant dans cette unité, décrit avec précision dans le New England comment ce chat a transformé les pratiques de fin de vie, en prévoyant les décès, permettant d'organiser l'appel aux familles et les derniers offices religieux. "Un indicateur quasi certain"
L'animal, âgé de deux ans, tigré et blanc, a été adopté par le personnel de l'unité de soins spécialisés dans la maladie d'Alzheimer situé au troisième étage. Selon David Dosa, Oscar fait des rondes régulières, observe les patients, les renifle avant de passer son chemin ou de s'installer pour un dernier câlin. Il lui est arrivé d'accompagner jusqu'à leur ultime demeure des mourants qui, faute de famille, seraient morts tout seul.
Ses prévisions se sont révélées jusqu'à présent si exactes que, dès qu'il se blottit contre un patient, les soignants contactent les proches. "Personne ne meurt au troisième étage sans avoir reçu la visite d'Oscar, écrit David Dosa. Sa seule présence au chevet d'un patient est perçue par les médecins et les soignants comme un indicateur quasi certain d'un décès imminent." Jusqu'ici, il a supervisé la mort de plus de 25 pensionnaires, selon David Dosa, qui a précisé de ne pas pouvoir fournir d'explication aux capacités divinatoires du chat. Oscar a-t-il des dons particuliers ? Cette histoire permet de méditer en tout cas sur l'impact des animaux de compagnie dans certaines structures destinées aux personnes âgées.
Les chats, animaux particulièrement affectueux, pourraient jouer un rôle de réconfort pour ces malades atteints d'Alzheimer que la démence éloigne du monde rationnel. L'agence d'hospitalisation locale, en tout cas, a pris la mesure du rôle d'Oscar puisqu'elle a fait graver ces quelques mots sur le mur du service : "Cette plaque récompense Oscar le chat pour ses soins dignement compassionnels."

Auteur: Internet

Info: N.O.T. lundi 30 juillet 2007

[ sixième sens ] [ 6e sens ]

 

Commentaires: 0

homme-machine

Comment utiliser la théorie des jeux au profit de la collaboration entre l'humain et le robot ?

Et si les robots pouvaient travailler avec nous afin de nous permettre d'effectuer des activités, telles qu'un entraînement sportif ou une rééducation physique ? Afin de nous aider à atteindre nos objectifs, ils auraient besoin de comprendre nos actions et d'adapter leur comportement en conséquence. Même si les robots sont de plus en plus utilisés dans plusieurs domaines, en allant de la fabrication à la chirurgie médicale, ils ne peuvent pas réagir de manière optimale aux utilisateurs individuels.

Partiellement soutenus par le projet CoglMon financé par l'UE des scientifiques ont répondu à ce défi en adaptant la théorie des jeux pour analyser l'interaction physique entre un robot et un humain. Leur recherche a été récemment publiée dans la revue "Nature Machine Intelligence". Un article de l'Imperial College London résume le cadre théorique de cette étude: "Pour appliquer avec succès la théorie des jeux à leur interaction les chercheurs ont dû résoudre le fait que le robot ne puisse pas prédire les intentions de l'humain seulement par le raisonnement."
Apprendre le comportement humain
L'équipe de recherche a examiné de quelle manière "devrait être contrôlé un robot de contact pour apporter une réponse stable et adaptée à un utilisateur au comportement inconnu qui effectue des mouvements au cours d'activités, telles que l'entraînement sportif, la rééducation physique ou le covoiturage." Il est déclaré dans l'article de l'Imperial College London que l'équipe s'est intéressée à "la différence entre ses mouvements attendus et ses mouvements réels pour estimer la stratégie humaine – comment l'humain utilise les erreurs dans une tâche pour générer de nouvelles actions." Et il est ajouté que: "Par exemple, si la stratégie de l'humain ne leur permet pas d'accomplir cette tâche, le robot peut fournir davantage d'efforts pour les aider. Apprendre au robot à prédire la stratégie de l'humain lui fait changer sa propre stratégie en retour."

Les scientifiques ont testé leur cadre dans des simulations et des expérimentations avec des sujets humains. Ils ont démontré "que le robot peut s'adapter quand la stratégie de l'humain change lentement, comme si l'humain récupérait de la force, et quand la stratégie de l'humain change et est incohérente, comme après une blessure", selon le même article.

Le projet CogIMon (Cognitive Interaction in Motion) a été mis en place pour modifier "la façon dont les robots interagissent avec les humains en introduisant des robots plus faciles à utiliser, qui sont plus flexibles et plus dociles, et qui apprennent davantage", comme expliqué sur le site web du projet. "Le projet CoglMon vise un changement par étape dans l'interaction entre le robot et l'humain vers une intégration systémique de capacités d'interaction robustes et fiables pour des équipes d'humains et de robots dociles, en particulier l'humanoïde docile COMAN."

Il est également indiqué que, pour atteindre son objectif, le projet utilise "des démonstrations évoluées, en situation réelle, de prise et de lancer dociles interactifs, faites par un robot, une interaction avec COMANS sous le changement de contact et de composition de l'équipe, et dans un modèle entièrement porté par l'ingénierie de manipulation à multi-bras."

Le robot COmpliant HuMANoid Platform (COMAN) a été mis au point dans le cadre du projet FP7 AMARSi (Adaptive Modular Architecture for Rich Motor Skills) qui s'est déroulé entre 2010 et 2014. Grâce à sa robustesse physique il peut marcher et garder l'équilibre et il est entièrement autonome d'un point de vue énergétique comme expliqué sur le site web du projet AMARSi.

Auteur: Internet

Info: https://www.techno-science.net, Redbran, 04/03/2019

[ dialogue ] [ intelligence artificielle ]

 

Commentaires: 0

data élagage

IA : Cette technique oubliée du 18e siècle rend le Deep Learning inutile

Et si le deep learning devenait inutile au développement de l’intelligence artificielle ? Cette technique oubliée du 18e siècle pourrait le remplacer.

Jusqu’à maintenant, le deep learning ou l’apprentissage profond est présenté comme un processus essentiel au développement de l’intelligence artificielle. Il consiste à entraîner les grands modèles de langage (LLM) avec un énorme volume de données. Mais des chercheurs finlandais avancent que le deep learning pourrait devenir inutile.

Ces chercheurs font partie d’une équipe de l’université de Jyväskylä qui effectue des travaux sur les techniques de développement de l’intelligence artificielle. Ils ont publié le mois dernier, dans la revue Neurocomputing, un papier intéressant sur une ancienne méthode mathématique du 18e siècle.

Cette technique est plus simple et plus performante que l’apprentissage profond, défendent les auteurs dans leur papier. Notons que cette conclusion constitue l’aboutissement de six années de recherche.

Il faut que le deep learning devienne inutile…

Le deep learning s’apparente aux techniques d’intelligence artificielle exploitant massivement des données et des ressources informatiques. Celles-ci servent à entraîner des réseaux neuronaux pour avoir des LLM. Rappelons que ces derniers se trouvent au cœur des IA génératives comme le populaire Chat-GPT.

Mais il ne faut pas croire que l’apprentissage profond est infaillible. Le volume des données à traiter en fait une méthode complexe et souvent sujette à des erreurs. Cela impacte significativement les performances des modèles génératifs obtenus.

En effet, la complexité du deep learning se retrouve dans la structure d’un LLM (large miodèle de langage). Cela peut instaurer une boîte noire sur le mécanisme du modèle IA. Dans la mesure où son fonctionnement n’est pas maîtrisé, les performances ne seront pas au rendez-vous. L’opacité du mécanisme IA peut même exposer à des risques.

Des modèles IA performants sans deep learning

L’équipe de l’université de Jyväskylä travaille ainsi depuis six ans sur l’amélioration des procédés d’apprentissage profond. Leurs travaux consistaient notamment à explorer la piste de la réduction des données. L’objectif est de trouver un moyen pratique pour alimenter les LLM sans pour autant les noyer de données.

Les auteurs de la recherche pensent avoir trouvé la solution dans les applications linéaire et non-linéaire. Il s’agit d’un concept mathématique dont le perfectionnement a eu lieu du 17e au 18e siècle. Celui-ci s’appuie principalement sur la combinaison des fonctions et des équations différentielles.

Les applications linéaire et non-linéaire permettent ainsi de générer un nouvel ordre de modèles de langage. Il en résulte des LLM avec une structure beaucoup moins complexe. Par ailleurs, son fonctionnement ne requiert pas un énorme volume de données. Cela n’a pourtant aucun impact négatif sur la performance.

Les mathématiques du 18e siècle pour moderniser l’IA…

L’importance de l’intelligence artificielle dans la technologie moderne augmente rapidement. La compréhension et la vraie maîtrise des grands modèles de langage deviennent indispensables. Les chercheurs finlandais pensent que leur nouvelle méthode peut résoudre certains problèmes en lien avec le développement de l’intelligence artificielle.

En effet, plus le développement de l’IA sera simple et transparent, il sera davantage facile d’envisager son utilisation éthique. L’accent est également mis sur la dimension écologique du nouveau procédé. Des LLM plus simples requièrent beaucoup moins de ressources informatiques et sont moins énergivores.

Néanmoins, les chercheurs craignent le scepticisme des actuels principaux acteurs de l’IA. "Le deep learning occupe une place si importante dans la recherche, le développement de l’intelligence artificielle (…) Même si la science progresse, la communauté elle-même peut se montrer réticente au changement", explique l’un des auteurs de la recherche.

Auteur: Internet

Info: https://www.lebigdata.fr/, Magloire 12 octobre 2023

[ limitation de la force brute ] [ vectorisation sémantique ] [ émondage taxonomique ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

machine pensante

Cette IA de Deepmind pourrait révolutionner les maths et " repousser les frontières de la connaissance humaine "

DeepMind vient de frapper un grand coup : le laboratoire d'IA de Google a annoncé en janvier avoir développé AlphaGeometry, une intelligence artificielle révolutionnaire capable de rivaliser avec les médaillés d'or des Olympiades internationales dans la résolution de problèmes de géométrie. Si cela ne vous parle pas, sachez que les médailles Fields - Terence Tao, Maryam Mirzakhani et Grigori Perelman - ont tous les trois été médaillés d'or lors de cette compétition annuelle de mathématiques qui fait s'affronter les meilleurs collégiens et lycéens du monde. Or, AlphaGeometry a résolu avec succès 25 des 30 problèmes de géométrie de l'Olympiade, se rapprochant ainsi du score moyen des médaillés d'or humains. C'est 15 de plus que son prédécesseur. Mais comment les scientifiques de DeepMind ont-ils accompli un tel exploit ?

L'approche neuro-symbolique, la petite révolution de l'IA

AlphaGeometry est le fruit d'une approche neuro-symbolique, combinant un modèle de langage neuronal (MLN) et un moteur de déduction symbolique (MDS).

Les MLN sont des réseaux de neurones artificiels entraînés sur de vastes ensembles de données textuelles. Ils sont capables d'apprendre et de reconnaître des schémas et des structures dans les données textuelles, ce qui leur permet de générer du texte cohérent et de comprendre le langage naturel. Les MDS sont, pour leur part, particulièrement efficaces pour traiter des problèmes qui nécessitent une manipulation formelle des symboles et des règles logiques.

L'approche neuro-symbolique permet de faire travailler ces deux composantes en tandem : dans le cadre d'AlphaGeometry, le MLN prédit des constructions géométriques potentiellement utiles, puis le MDS utilise ces prédictions pour guider la résolution du problème. Cette combinaison offre à l'IA les capacités intuitives des réseaux de neurones et la rigueur logique des moteurs de déduction symbolique, ce qui lui permet de résoudre efficacement des problèmes de géométrie complexes.

Pour surmonter le manque de problèmes mathématiques de niveau Olympiades qui auraient dû servir de données d'entraînement à AlphaGeometry, les chercheurs ont développé une méthode innovante de génération de données synthétiques à grande échelle, permettant au génial bébé de DeepMind de s'entraîner sur un ensemble de 100 millions d'exemples uniques.

(Image : Alphageometry résoud un problème simple...) 

Mission : repousser les frontières de la connaissance

Cette réalisation marque une avancée significative dans le développement de systèmes d'IA capables de raisonner et de résoudre des problèmes mathématiques complexes, rapportent les chercheurs de DeepMind dans un article paru dans Nature en février dernier. Bien que présentant des résultats impressionnants, AlphaGeometry se heurte tout de même à quelques défis, notamment celui de s'adapter à des scénarios mathématiques de plus en plus complexes et à mobiliser ses compétences dans des domaines mathématiques autres que la géométrie. 

Malgré tout, cette avancée ouvre la voie à d'extraordinaires possibilités dans les domaines des mathématiques, des sciences et de l'IA. Ses créateurs ne cachent d'ailleurs pas leur ambition : " Notre objectif à long terme reste de construire des IA capables de transférer leurs compétences et leurs connaissances dans tous les domaines mathématiques en développant la résolution de problèmes et le raisonnement sophistiqués dont dépendront les systèmes d'IA généraux ", assènent Trieu Trinh et Thang Luong, les responsables du projet dans un communiqué. 

Le ton est donné : autrement dit, les systèmes d'IA développés par DeepMind doivent acquérir des capacités de résolution de problèmes sophistiquées et de raisonnement, ce qui implique la capacité à identifier des schémas, à formuler des hypothèses, à déduire des conclusions et à prendre des décisions logiques dans des contextes variés. Le tout en " repoussant les frontières de la connaissance humaine ". Très ambitieux, mais peut-être pas impossible.

Auteur: Internet

Info: https://www.futura-sciences.com/ - mars 2024

[ robot intelligent ] [ historique ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

médecine

Des cancers peuvent être induits par des modifications épigénétiques, sans mutations de l’ADN 

Des chercheurs français ont montré chez des drosophiles que des facteurs épigénétiques peuvent provoquer des cancers, sans mutation de l’ADN. Leurs travaux sont publiés dans la revue Nature.

L’épigénétique est l’étude des mécanismes qui permettent à une même séquence d’ADN d’avoir une expression génique différente et de transmettre ces états fonctionnels différentiels aux cellules filles.

" Dans notre laboratoire, nous étudions comment des facteurs épigénétiques interagissent dans le développement et comment ils contribuent à maintenir un organisme en bonne santé ", indique Giacomo Cavalli, directeur de recherche au CNRS, à l’institut de génétique humaine de Montpellier.

Son équipe s’est notamment penchée sur l’étude de cancers chez la drosophile, un modèle animal qui détient la plupart des gènes importants chez l’humain.

Depuis plus de 30 ans, la théorie communément admise suppose que les cancers sont dus à des mutations de l’ADN. Mais ces 15 dernières années, les chercheurs se sont rendus compte qu’il était parfois difficile voire impossible de trouver des mutations à qui la cause du cancer pouvait être attribuée, en particulier pour les métastases. Ils se sont donc intéressés à d’autres causes, notamment aux mutations épigénétiques.

Des facteurs de transcription s’activent, activent la transcription des gènes et cela crée une sorte de spirale qui ne s’arrête plus

Pas besoin de mutation de l’ADN pour induire un cancer

" Nous nous sommes demandés si, en l’absence de mutation de l’ADN, il n’y aurait jamais de tumeurs. Chez l’insecte, nous pouvons induire des mutations et réduire ou augmenter les niveaux d’expression d’un facteur souhaité. Nous l’avons fait avec des protéines connues pour jouer un rôle de suppresseur de tumeurs, comme les protéines appelées " Polycomb ", détaille le chercheur.

Son équipe a réduit pendant 24 heures les niveaux d’expression de ces facteurs à un stade donné de développement et dans un tissu donné, le tissu précurseur de l’œil. " Lorsqu’on retire ces facteurs, même pendant un temps court, on constate déjà que des gènes sont déréglés. Ce sont les mêmes qui sont déréglés dans les tumeurs. Nous avons alors regardé ce qui se passait si on établissait à nouveau les niveaux normaux de protéines Polycomb dans les cellules : beaucoup de gènes déréglés sont revenus à leur état normal, mais une partie est restée surexprimée de manière irréversible, même si les protéines répressives étaient revenues ", développe-t-il.

Cela ouvre des perspectives de traitements, si on peut inhiber les facteurs qu’on aura identifiés comme la cause de ces cancers

Perspectives de traitements

En étudiant de plus près les raisons de ce phénomène, les chercheurs ont observé que ces gènes mettaient en place un circuit d’activation qui s’auto-maintenait. " Des facteurs de transcription s’activent, activent la transcription des gènes et cela crée une sorte de spirale qui ne s’arrête plus ", commente Giacomo Cavalli.

"Nous avons ainsi montré qu’il n’y avait pas besoin de mutation de l’ADN pour induire un cancer ".

Les scientifiques vont désormais poursuivre leurs recherches en menant des expériences similaires avec des cellules de rongeurs ou humaines en culture et en continuant les études chez l’insecte pour observer la naissance de ces cancers épigénétiques.

* Nous pouvons mener des études très fines, en isolant de toutes petites quantités de cellules qui commencent à proliférer. On peut ensuite étudier les gènes qui se surexpriment pour mettre en lumière toute la chaîne des mécanismes moléculaires qui est déréglée. Cela ouvre des perspectives de traitements, si on peut inhiber les facteurs qu’on aura identifiés comme la cause de ces cancers ", espère-t-il.

Auteur: Internet

Info: https://francais.medscape.com/ - Anne-Gaëlle Moulun, 2 mai 2024

[ cause-effet ] [ amorçage ] [ début ] [ déclic ] [ épithéliome ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste