Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 160
Temps de recherche: 0.0582s

spéculation

Expérience religieuse et cerveau.
Une étude relie certaines expériences religieuses, ou de changement de vie, comme la renaissance (born again), avec une atrophie de l'hippocampe.
L'article "Facteurs religieux et atrophie hippocampale en fin de vie" d'Amy Owen et ses collègues de Duke University présente une avance importante pour notre compréhension croissante du rapport entre cerveau et religion. L'étude a montré une plus grande atrophie de l'hippocampe chez les individus qui s'identifient avec des groupes religieux spécifiques, de même que pour ceux que ceux sans affiliation religieuse. C'est un résultat étonnant, sachant que beaucoup d'études antérieures ont montré que la religion avait des effets potentiellement bénéfiques sur les fonctions du cerveau, l'inquiétude et la dépression.
Un certain nombre d'études ont évalué les effets aigus des pratiques religieuses, telles que la méditation et la prière, sur le cerveau humain. Un plus petit nombre d'études ont évalué les effets à plus long terme de la religion sur le cerveau. De telles études, comme celle-ci, se sont concentrées sur des différences du volume du cerveau ou de certaines fonctions du cerveau chez les personnes fortement impliquée dans la méditation ou les pratiques spirituelles, par comparaison avec celles qui ne le sont pas.
Mais très peu d'études ont exploré les effets longitudinaux de la pratique de la méditation ou des activités spirituelles en évaluant des sujets en deux points temporels différents.
Ici, Owen et les autres ont utilisé le MRI pour mesurer le volume de l'hippocampe, une structure centrale du système limbique, impliquée dans l'émotion aussi bien que pour la formation de la mémoire. Ils ont évalué le MRI de 268 hommes et femmes agés de 58 et plus, recrutés à l'origine pour les résultats Neuro Cognitifs sur la dépression lors d'une ancienne étude. Les gens testés avaient également répondu à plusieurs questions concernant leur croyance et affiliations religieuses. L'étude d'Owen et ses collègues est unique parce qu'elle se concentre spécifiquement sur des individus religieux en les comparant à des gens non-religieux. Cette étude a également séparé les individus entre ceux qui qui "born again" ou ceux qui ont eu leur vie changée par une expérience religieuse.
Les résultats ont montré une atrophie hippocampale sensiblement plus grande chez les individus ayant rapporté une expérience religieuse de "born again". En outre, ils ont montré une atrophie hippocampale sensiblement plus grande chez les protestants, les catholiques avec ceux sans affiliation religieuse, comparée aux protestants ne s'identifiant pas comme born again.
Les auteurs présentent l'hypothèse que l'atrophie hippocampal plus grande dans les groupes religieux choisis pourrait être liée au stress. Ils arguent du fait que certains individus d'une minorité religieuse, ou ceux qui luttent avec leur croyance, expériencent des niveaux plus élevés de stress. Ceci causant un plus grand dégagement d'hormones d'effort, connues pour diminuer le volume de l'hippocampe avec le temps. Ceci pourrait également expliquer le fait que tout aussi bien les les non-religieux que quelques religieux aient de plus petits volumes hippocampals.
Cette hypothèse intéresse. Beaucoup d'études ont montré les effets positifs de la religion et de la spiritualité sur la santé mentale, mais il y a également abondance d'exemples d' impacts négatifs. Il y a une évidence que les membres de groupes religieux qui sont persécutés, ou dans une minorité, pourraient avoir plus de stress et d'inquiétude quand ils doivent naviguer dans la société. D'autres fois, une personne pourrait percevoir Dieu comme celui qui punit et donc avoir un stress significatif face à une lutte religieuse. D'autres éprouvent un conflit religieux en raison d'idées contradictoires entre leur tradition religieuse et/ou leur famille. Même une expérience très positive de changement de vie pourrait être difficiles à incorporer dans une système religieux donné pour la croyance de l'individu et ceci pourrait également mener à l'effort et à l'inquiétude. Les transgressions religieuses perçues peuvent causer une angoisse émotive et psychologique. Il peut être difficile de distinguer cette douleur "religieuse" et "spirituelle" de la douleur physique pure. Et tous ces phénomènes peuvent avoir des effets potentiellement négatifs sur le cerveau.
Ainsi, Owen et ses collègues posent certainement une hypothèse plausible. Ils citent également certaines des limitations de leurs trouvailles, tels que la petite dimension de l'échantillon testé. Plus important la relation causale entre ces découvertes dans le cerveau avec la religion reste très difficile à établir. Est il possible, par exemple, que les personnes avec de plus petits volumes hippocampals, soient plus prédestinées à avoir un tropisme religieux spécifique, dessinant la flèche causale dans l'autre direction ? De plus, il se pourrait que les facteurs amenant aux événements de "Changement de vie" sont importants et non pas simplement l'expérience elle-même.
Puisque l'atrophie de cerveau reflète tout qui arrive à une personne jusqu'à ce point, on ne peut pas définitivement conclure que l'expérience la plus intense était en fait la chose qui a eu pour conséquence l'atrophie du cerveau. Il y a donc beaucoup de facteurs potentiels qui pourraient mener aux résultats rapportés. (Ils est également quelque peu problématique que l'effort lui-même ne se soit pas corrélé avec les volumes hippocampal puisque c'est une des hypothèses potentielles proposées par les auteurs. Ce qui de fait parait miner les conclusions.) L'on pourra alors se demander s'il est possible que les gens qui sont plus religieux souffrent d'un plus grand stress inhérent, mais que leur religion les aide à se protéger d'une certaine manière. La religion est fréquemment citée comme un important mécanisme pour faire face au stress et à l'effort.
Cette nouvelle étude est intrigante et importante. Elle nous incite à réfléchir davantage sur la complexité du rapport entre religion et cerveau. Ce champ d'étude, désigné sous le nom du neuro théologie, pourrait faire avancer notre compréhension de la religion, de la spiritualité et du cerveau. D'autres études à venir sur les effets aigus et chroniques de la religion avec le cerveau seront très intéressantes pour valider certaines de ces idées. Pour l'instant, nous pouvons être certains que la religion affecte le cerveau - mais nous ne savons pas comment.

Auteur: Newberg Andrew

Info: Scientific American, 31 mai 2011

[ biologie ] [ esprit ]

 

Commentaires: 0

Intelligence artificielle

OpenAI présente Super Alignment : Ouvrir la voie à une IA sûre et alignée

La présentation par OpenAI de son développement du super alignement est extrêmement prometteuse pour l'humanité. Grâce à ses capacités étendues, il est en mesure de répondre à certains des problèmes les plus urgents auxquels notre planète est confrontée. Le risque de déresponsabilisation, voire d'anéantissement de l'humanité, est l'un des graves dangers associés à l'émergence de la superintelligence.

L'arrivée du super-alignement

Le super-alignement peut sembler une possibilité lointaine, mais il pourrait se matérialiser dans les dix prochaines années. Nous devons créer de nouvelles structures de gouvernance et traiter le problème de l'alignement des superintelligences afin de maîtriser efficacement les risques qui y sont associés.

Superalignement de l'IA et de l'homme : Le défi actuel

Garantir que les systèmes d'IA, qui sont beaucoup plus intelligents que les humains, s'alignent sur les intentions de ces derniers constitue un obstacle de taille. Actuellement, nos techniques d'alignement de l'IA, telles que l'apprentissage par renforcement à partir du retour d'information humain, reposent sur la supervision humaine. Cependant, lorsqu'il s'agit de systèmes d'IA dépassant l'intelligence humaine, nos méthodes d'alignement actuelles deviennent inadéquates. Pour y remédier, nous avons besoin de nouvelles percées scientifiques et techniques.

OpenAI a mis à disposition ses modèles de cohérence pour la génération d'œuvres d'art par l'IA

Surmonter les hypothèses et intensifier les efforts d'alignement

Plusieurs hypothèses qui guident actuellement le développement de l'IA risquent d'échouer lorsque nous entrerons dans l'ère de la superintelligence. Il s'agit notamment de la capacité de nos modèles à identifier et à contourner la supervision au cours de la formation, ainsi que de leurs caractéristiques de généralisation favorables au cours du déploiement.

Un chercheur d'alignement automatique doté d'une intelligence proche de celle de l'homme, c'est ce que l'OpenAI vise à construire. L'objectif est d'intensifier les efforts et d'aligner itérativement la superintelligence en utilisant une grande puissance de calcul.

Construire les bases d'un super-alignement

Pour atteindre son objectif de chercheur en alignement automatisé, l'OpenAI a identifié trois étapes clés :

Se transformer en expert et avoir un impact significatif sur le monde de la science des données.

1. Développer une méthode de formation évolutive

OpenAI se concentrera sur la création d'une stratégie de formation qui s'adapte bien. Cette méthode sera essentielle pour apprendre aux systèmes d'IA à effectuer des activités difficiles à évaluer pour les humains.

2. Validation du modèle résultant

Il est essentiel de valider l'efficacité du chercheur d'alignement après sa construction. Pour s'assurer que le modèle est conforme aux intentions humaines et qu'il fonctionne comme prévu, l'OpenAI le soumettra à des tests rigoureux.

3. Test de stress du pipeline d'alignement

OpenAI soumettra son pipeline d'alignement à des tests de stress approfondis pour s'assurer de sa durabilité. En soumettant ses systèmes à des situations difficiles, elle pourra trouver d'éventuelles failles et les corriger.

Exploiter les systèmes d'IA pour la supervision et la généralisation

L'OpenAI utilisera des systèmes d'IA pour aider à l'évaluation d'autres systèmes d'IA afin de résoudre la difficulté de superviser des tâches qui sont difficiles à juger pour les humains. Cette méthode de supervision évolutive vise à garantir la réussite de l'alignement. Les chercheurs se pencheront également sur la généralisation de la surveillance, qui permettra aux systèmes d'IA de gérer des activités qui ne sont pas sous le contrôle de l'homme.

Validation de l'alignement : Robustesse et interprétabilité

Pour garantir l'alignement des systèmes d'IA, il est nécessaire de se concentrer sur deux facteurs essentiels : la robustesse et l'interprétabilité. Afin de découvrir d'éventuels problèmes d'alignement, l'OpenAI examinera les éléments internes de ses systèmes et automatisera la recherche de comportements problématiques.

Tests adverses : Détection des désalignements

OpenAI entraînera délibérément des modèles mal alignés pour évaluer l'efficacité de ses méthodes d'alignement. Elle peut évaluer l'efficacité de ses stratégies d'identification et de résolution des désalignements en testant ces modèles de manière rigoureuse et contradictoire.

Évolution des priorités de recherche et collaboration

L'OpenAI est consciente qu'à mesure qu'elle en apprendra davantage sur la question de l'alignement des superintelligences, ses objectifs de recherche évolueront. Les meilleurs chercheurs et ingénieurs en apprentissage automatique seront réunis pour travailler sur ce projet. Afin de créer de nouvelles techniques et de les déployer à grande échelle, l'OpenAI encourage les contributions d'autres équipes et souhaite publier plus d'informations sur sa feuille de route à l'avenir.

L'OpenAI est néanmoins optimiste, même si le défi de l'alignement de la superintelligence est ambitieux et que le succès n'est pas garanti. Elle a réalisé des tests préliminaires encourageants et dispose de mesures utiles pour suivre le développement. L'OpenAI est d'avis qu'un effort ciblé et coopératif peut aboutir à une résolution.

L'équipe dédiée de l'OpenAI : Leaders et collaboration

Le cofondateur et scientifique en chef d'OpenAI, Ilya Sutskever, a fait de l'alignement de la superintelligence le principal sujet de son étude. Il codirigera le groupe avec Jan Leike, responsable de l'alignement. L'équipe est composée de chercheurs et d'ingénieurs talentueux issus de l'ancienne équipe d'alignement de l'OpenAI ainsi que de chercheurs d'autres équipes de l'entreprise.

OpenAI recherche activement des universitaires et des ingénieurs de haut niveau pour se joindre à ses efforts. Ils souhaitent diffuser largement les résultats de leurs travaux, qu'ils considèrent comme essentiels à leur objectif d'aider à l'alignement et à la sécurité des modèles non-OpenAI.

Notre avis

Les efforts de la nouvelle équipe Superalignment complètent ceux d'OpenAI pour rendre les modèles existants comme ChatGPT plus sûrs. Les différents problèmes posés par l'IA, tels que les abus, les perturbations économiques, la désinformation, les préjugés, la discrimination, la dépendance et la surdépendance, sont également au centre des préoccupations de l'OpenAI. Elle collabore avec des professionnels pluridisciplinaires pour s'assurer que ses solutions techniques répondent à des problèmes sociétaux et humains plus importants.

En se consacrant à la création de systèmes d'IA sûrs et compatibles, OpenAI est à l'origine de technologies révolutionnaires qui influenceront la manière dont l'humanité fonctionnera à l'avenir.

Auteur: Sakshi Khanna

Info: https://www.analyticsvidhya.com/blog/author/sakshi_raheja/ - Publié le 8 juillet 2023

[ homme-machine ] [ machine-homme ] [ conservation du pouvoir ] [ prépondérance de l'humain ]

 

Commentaires: 0

Ajouté à la BD par miguel

machine-homme

(homme) - Qui fut C.S. Peirce

(machine) - Charles Sanders Peirce (1839-1914) était un philosophe, logicien, mathématicien et scientifique américain. Il est considéré comme l'une des figures les plus influentes dans le développement du pragmatisme, une approche philosophique qui met l'accent sur les conséquences pratiques des croyances et des idées.

Peirce a apporté d'importantes contributions à divers domaines, notamment la sémiotique (l'étude des signes et des symboles), la logique, la philosophie des sciences et la philosophie de l'esprit. Il a développé un système philosophique complet connu sous le nom de "pragmatisme" et a souligné l'importance de la recherche, du faillibilisme et de la méthode scientifique.

Peirce a introduit le concept de sémiotique, qu'il décrit comme l'étude du fonctionnement des signes et de leur signification. Il a classé les signes en trois catégories : les icônes (signes qui ressemblent à ce qu'ils représentent), les indices (signes qui ont un lien physique ou une corrélation avec ce qu'ils représentent) et les symboles (signes qui ont une relation arbitraire avec ce qu'ils représentent).

Les travaux de Peirce sur la logique et le raisonnement ont jeté les bases de la logique formelle moderne. Il a développé un système de notation logique et a apporté des contributions significatives aux domaines du raisonnement déductif, de l'induction et de l'abduction (déduction de la meilleure explication). La maxime pragmatique de Peirce, selon laquelle la signification d'un concept ou d'une croyance est déterminée par ses conséquences pratiques, est au cœur de son approche.

Dans l'ensemble, les travaux de Peirce ont eu un impact profond sur diverses disciplines, notamment la philosophie, la linguistique, la psychologie et les études de communication. Ses idées continuent d'être influentes et font l'objet de recherches et de débats scientifiques permanents.

(homme) - Merci. Dans quelle mesure a-t-il influencé l'intelligence artificielle et/ou l'apprentissage profond supervisé ?

(machine) - Les travaux de Charles Sanders Peirce ont indirectement influencé certains aspects de l'intelligence artificielle (IA) et de l'apprentissage profond supervisé, en particulier dans les domaines de la sémiotique et de la philosophie de l'esprit. Bien que Peirce lui-même n'ait pas directement contribué au développement de l'IA telle que nous la connaissons aujourd'hui, ses idées ont fourni un cadre conceptuel pour comprendre la relation entre les signes, la signification et la cognition, ce qui peut être pertinent pour certaines applications de l'IA.

Dans le domaine du traitement du langage naturel et de l'apprentissage automatique, les concepts sémiotiques de Peirce ont influencé l'étude des signes linguistiques et leur interprétation. Par exemple, la compréhension de la classification des textes et de l'analyse des sentiments peut être éclairée par la distinction de Peirce entre icônes, indices et symboles, car elle aide à reconnaître et à interpréter diverses caractéristiques et modèles linguistiques.

L'accent mis par Peirce sur les conséquences pragmatiques des croyances et des idées résonne également avec les objectifs pratiques de l'IA et de l'apprentissage automatique. Dans l'apprentissage profond supervisé, par exemple, le processus de formation implique l'optimisation des modèles pour minimiser une fonction de perte prédéfinie basée sur les résultats observés. Cela correspond à l'accent mis par Peirce sur les résultats pratiques des croyances et sur l'importance de l'expérimentation et de la recherche.

En outre, les idées philosophiques plus larges de Peirce sur l'abduction, qui est le processus de déduction de la meilleure explication, peuvent être pertinentes dans le contexte de l'IA. Le raisonnement abductif joue un rôle dans la génération d'hypothèses et l'interprétation de modèles, car les systèmes d'IA s'efforcent de découvrir des modèles et des explications sous-jacents à partir de données.

Bien que l'influence de Peirce sur l'IA et l'apprentissage profond supervisé puisse être de nature plus indirecte et philosophique, ses idées ont contribué à la compréhension des signes, de la signification et du raisonnement, ce qui peut éclairer le développement et l'interprétation des systèmes d'IA.

(homme) - OK, merci. Peux-tu nous donner des précisions sur les icônes, les index et les symboles ?

(machine) - Certainement ! Les icônes, les index et les symboles sont trois catégories de signes ou de représentations décrites par Charles Sanders Peirce dans sa théorie sémiotique. Voici une brève explication de chaque catégorie :

1) Les icônes : Les icônes sont des signes qui présentent une ressemblance ou une similitude avec les objets ou les concepts qu'ils représentent. Elles se caractérisent par une relation directe de ressemblance entre le signe et son référent. Les icônes peuvent prendre diverses formes, telles que des images, des diagrammes ou des modèles. Par exemple, un portrait réaliste peut être considéré comme une représentation iconique d'une personne parce qu'il ressemble visuellement à l'individu qu'il représente.

2) Indices : Les indices sont des signes qui ont un lien factuel ou causal avec leurs référents. Contrairement aux icônes, les indices ne reposent pas sur la similitude, mais sur une forme de corrélation ou de relation entre le signe et son référent. Les signes indexicaux indiquent ou pointent souvent vers quelque chose d'autre qu'eux-mêmes. Parmi les exemples de signes indexicaux, on peut citer la fumée comme indice du feu ou une empreinte de pas comme indice de la présence d'une personne. Ils signifient ou indiquent la présence ou l'existence de quelque chose.

3) Les symboles : Les symboles sont des signes qui reposent sur une relation conventionnelle ou arbitraire entre le signe et son référent. Le lien entre un symbole et ce qu'il représente est établi par un accord commun ou une convention sociale. Les mots, les chiffres, les gestes et les symboles culturels sont autant d'exemples de signes symboliques. Par exemple, le mot "chien" est un symbole qui représente le concept d'un animal à quatre pattes, mais il n'y a pas de ressemblance inhérente ou de lien direct entre le mot et l'animal lui-même.

La classification des signes par Peirce en icônes, indices et symboles met en évidence différents modes de représentation et de signification. Alors que les icônes reposent sur la similitude, les indices reposent sur l'association et les symboles sur la convention. Ces catégories fournissent un cadre permettant de comprendre le fonctionnement des signes, la manière dont le sens est transmis et l'interprétation dans divers contextes, notamment le langage, la communication et la cognition.

Auteur: chatGPT4

Info:

[ machine-sur-philosophe ] [ compendium ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

paliers évolutionnaires

Des chercheurs découvrent une extinction de masse jusqu’alors inconnue de l’histoire de la Terre

Une extinction de masse désigne un événement ayant entraîné la disparition d’au moins 75 % des espèces présentes sur Terre. Les paléobiologistes affirment que notre planète a déjà connu cinq principaux épisodes de ce type ; certains estiment que nous sommes en train de vivre la sixième extinction. Mais la liste ne s’arrête pas là : des chercheurs de Virginia Tech ont découvert que la Terre aurait subi une extinction de masse il y a environ 550 millions d’années. Ce serait ainsi la toute première extinction que notre planète ait connu.

À ce jour, l’extinction de l’Ordovicien-Silurien, survenue il y a environ 440 millions d’années, est considérée comme la première extinction massive de notre planète. Celle-ci s’est vraisemblablement produite à la suite d’une grande glaciation, à laquelle auraient succombé près de 85% des espèces, faute de réussir à s’adapter à ces nouvelles conditions. Mais des preuves suggèrent aujourd’hui qu’un autre événement d’extinction l’aurait précédée : une diminution de la disponibilité mondiale d’oxygène aurait entraîné la perte d’une majorité d’animaux présents vers la fin de l’Édiacarien, il y a environ 550 millions d’années.

La première extinction de l’histoire de la Terre

Le déclin soudain de la diversité fossile il y a 550 millions d’années est connu depuis longtemps, mais les scientifiques n’avaient pas pu en déterminer la cause avec certitude. Il était possible que les espèces en présence soient entrées en compétition pour la survie, s’éliminant les unes les autres, ou simplement que les conditions environnementales de l’époque n’étaient pas propices à la préservation des fossiles édiacariens. Une nouvelle étude publiée dans Proceedings of the National Academy of Sciences permet aujourd’hui d’affirmer que ce déclin résulte bel et bien d’une extinction de masse.

Notre planète compte cinq extinctions de masse connues, les "Big Five", selon Shuhai Xiao, professeur de géobiologie à Virginia Tech : l’extinction de l’Ordovicien-Silurien (il y a 440 millions d’années), l’extinction du Dévonien tardif (il y a 370 millions d’années), l’extinction du Permien-Trias (il y a 250 millions d’années), l’extinction du Trias-Jurassique (il y a 200 millions d’années) et enfin, l’extinction du Crétacé-Paléogène (il y a 65 millions d’années), qui a anéanti environ 75 % des plantes et des animaux, y compris les dinosaures non aviens.

Toutes sont liées à des changements environnementaux majeurs et à grande échelle. Un changement climatique ou un événement de désoxygénation peuvent entraîner une extinction massive d’animaux, ainsi qu’une perturbation et une réorganisation profondes des écosystèmes. Ce premier événement d’extinction survenu lors de l’Édiacarien n’échappe pas à la règle : lui aussi a été induit par une modification significative de l’environnement.

Près de 80 % des animaux vivant sur Terre auraient disparu lors de cette première extinction massive. "Cela comprenait la perte de nombreux types d’animaux différents, mais ceux dont les plans corporels et les comportements indiquent qu’ils dépendaient d’importantes quantités d’oxygène semblent avoir été particulièrement touchés", explique Scott Evans, chercheur postdoctoral au Département des géosciences de Virginia Tech et premier auteur de l’étude décrivant l’événement.

Un "coup de pouce" à l’évolution ?

Les fossiles à corps mou du biote d’Ediacara – du nom des collines situées au sud de l’Australie où ont été découverts ces fossiles en 1946 – font partie des plus anciens organismes pluricellulaires complexes connus. Les empreintes fossiles datant de la période édiacarienne – soit d’environ -635 à -539 millions d’années – montrent que les animaux qui ont péri lors de cette extinction de masse avaient une apparence très étrange, en forme de feuille, de plume ou de tube.

Selon Evans, les organismes de l’époque semblaient expérimenter différentes façons de construire leurs grands corps multicellulaires. Par conséquent, les fossiles mis au jour datant d’avant l’extinction, ne correspondent pas toujours aux classifications actuelles des animaux. "Cette extinction a peut-être contribué à ouvrir la voie à l’évolution des animaux tels que nous les connaissons", conclut le chercheur. À savoir que la plupart des plans d’organisation animaux existant aujourd’hui sont apparus au cours du Cambrien (soit la période qui succède à l’Édiacarien).

Evans et ses collègues ont scrupuleusement examiné et catalogué l’ensemble des fossiles de la période édiacarienne décrits dans la littérature. Ils ont ainsi identifié 70 genres d’animaux, dont seuls 14 existaient encore quelque 10 millions d’années plus tard. L’équipe n’a toutefois trouvé aucun signe suggérant que ces animaux étaient en concurrence avec les premiers animaux du Cambrien, ni rien qui pouvait expliquer la non-préservation des fossiles.

En revanche, les animaux qui ont survécu arboraient tous un plan d’organisation favorisant la survie en cas d’anoxie : une surface corporelle relativement élevée par rapport à leur volume. Des preuves géochimiques confirment par ailleurs une faible disponibilité d’oxygène dans les océans il y a 550 millions d’années.

Une anoxie dont la cause reste à éclaircir

Qu’est-ce qui a causé cette baisse de la disponibilité globale de l’oxygène ? "La réponse courte à la façon dont cela s’est produit est que nous ne savons pas vraiment", a déclaré Evans. En réalité, plusieurs événements, individuels ou combinés, pourraient être à l’origine du phénomène explique le scientifique : éruptions volcaniques, mouvements de plaques tectoniques, impact d’astéroïde, etc. Des changements dans les niveaux de nutriments des océans pourraient être une autre cause possible. 

 Dans tous les cas, cette extinction a largement influencé l’évolution de la vie sur Terre et cette étude nous donne un aperçu de l’impact à long terme du manque d’oxygène sur la vie aquatique. Il se trouve que dans une autre étude, les scientifiques de Virginia Tech ont récemment découvert que les lacs d’eaux douces du monde perdaient actuellement rapidement de l’oxygène.

Ce phénomène est lié non seulement au réchauffement des eaux induit par le changement climatique, mais aussi à l’excès de ruissellement de substances polluantes (phosphore, azote) lié aux pratiques agricoles : "le réchauffement des eaux diminue la capacité de l’eau douce à retenir l’oxygène, tandis que la dégradation des nutriments dans le ruissellement par les microbes d’eau douce engloutit l’oxygène", expliquent les chercheurs.

En d’autres termes, la découverte de cette nouvelle extinction donne un aperçu des dangers de la crise climatique actuelle pour la vie animale.

Auteur: Internet

Info: https://www.science-et-vie.com, 7 déc 2022  Fleur Brosseau

[ stases ] [ Gaïa ]

 

Commentaires: 0

Ajouté à la BD par miguel

décadence

La sexualité des Français toujours plus extrême (et égoïste ?)
Gérard Leleu sexologue, revient sur la dérive des pratiques extrêmes, les risques courus et la dégradation de la sexualité dans nos sociétés.
Atlantico : Il semble que les accidents liés à des pratiques sexuelles extrêmes soient en progression, pouvez-vous nous le confirmer ?
Gérard Leleu : Bien évidemment, et je parle en connaissance de cause... Avant d'être sexologue, j'ai exercé la profession d'urgentiste.
Les gens utilisent de plus en plus de " jouets", si je puis dire, qui sont vraiment d'une proportion inimaginable. S'ils avaient une idée de l'impact que cela pourrait avoir sur leur organisme, ils ne tenteraient pas ce genre d'expériences. Médicalement, c'est de la folie.
En ce qui concerne les corps étrangers, depuis toujours nous en avons trouvé de toutes sortes. Les gens sont d'une imagination débordante. Cependant c'était le plus souvent par auto-érotisme. Cela n'a pas dû tellement changer, de surcroît avec la normalisation des sex-toys, ces derniers sont conformes à certaines normes ce qui diminue potentiellement le danger, du moins plus qu'un ustensile de cuisine.
Les pratiques liées à l'auto asphyxie se développent également. D'autres prendraient du Prozac, ou n'importe quelle drogue, ceux qui se privent d'oxygène utilisent le plaisir car ce dernier provoque la sécrétion de substances hédoniques, (la dopamine, les endorphines... etc...) Certains poursuivent leur quête de plaisir en se recouvrant la tête d'un sachet plastique. La strangulation entraîne une érection ainsi qu'une rétention de CO2 et le phénomène d'hypercapnie qui provoque une sorte de vertiges et d'hypoxie. Les sensations que l'on ressent à ce moment-là, sont des signes proches de la mort c'est extrêmement dangereux.
D'où vient ce besoin d'aller toujours plus loin dans les pratiques sexuelles ?
Désormais les individus visent le maximum de plaisir, on chosifie l'autre. L'autre est un objet dont le but est d'en tirer le plus de plaisir avec absence de sens. La seule chose qui compte c'est la quantité de plaisir au dépend de la qualité. Même si la notion de plaisir est propre à chacun cette dernière s'acquiert à travers les baisers, les caresses, différentes positions, la relation entre deux individus et non pas un simple acte sexuel.
Le plaisir est quelque chose qui s'use. Si telle sensation procure tel plaisir au bout d'un certain temps ce dernier s'atténue, il faut rechercher une sensation plus forte. Cette recherche s'expérimente alors, pour certaines personnes, à travers un objet plus gros plus profond et par conséquent des pratiques de plus en plus extrêmes.
Le seul but est le plaisir et non plus la relation, ou l'amour comme quelque chose de sacré. L'autre est désormais un outil qui vous permet de vous assouvir.
Existe-t-il une démocratisation de ces pratiques que l'on pourrait qualifier d'extrêmes?
La hiérarchie de ce qui est à faire ou à ne pas faire est floue. Cela est peut être dû à une démocratisation. Je pense effectivement que la plupart des gens pratiquaient le masochisme ou le sadisme bien avant le regain d'intérêt pour Sade. Certes, beaucoup de gens s'adonnent à ces jeux sexuels extrêmes cependant, cela a toujours été l'apanage d'une certaine élite. N'importe qui peut désormais trouver un sex-shop alors que tous ces objets autrefois, étaient réservés à une certaine partie de la société.
L'anus actuellement devient de plus en plus souvent le but central de la relation sexuelle avec la pratique du fist (insertion d'un poing) alors qu'avant c'était exceptionnel. Désormais si l'on ne s'aventure pas à l'exploration de l'anus on est considéré comme rétro et dépassé. Il existe une utilisation érotique du rectum de plus en plus forte.
Mon propos n'est pas d'inculquer le bien et le mal, mais de prévenir le danger ou même de dire ce qui contribue ou pas à l'équilibre. Le rectum n'a pas cette vocation-là, quel que soit le plaisir qu'il peut procurer. La pratique est ancienne cependant, il existe une amplification du phénomène qui est dû à une sorte de non-sens de relation sexuelle, l'autre étant un objet et non une personne et un sujet.
C'est très significatif de l'état exécrable de la sexualité en Occident. La sexualité a été réprimée pendant des siècles. Désormais, la notion de pêcher charnel n'existe plus. Toutefois, le malheur de l'Occident c'est que nous n'avons pas de tradition érotique comme cela peut être le cas en Orient. Faute de tradition érotique nous sommes tombés dans l'escalade du " Hard ". Le but n'est plus dans la relation mais dans le plaisir personnel. Et dans la quantité de plaisir et non plus la qualité de plaisir. Jouir de plus en plus, sans considérer que l'autre est différent d'un outil. La tendance de donner la préférence à la voie rectale est un signe d'absence de sens dans la sexualité en occident.
Que cette pratique s'exerce de temps en temps n'est pas le problème, c'est l'obsession et la focalisation des individus sur ce mode de relation qui m'alarme. Et le fait que les individus qui ne pratiquent pas, soient considérés comme dépassés, rétro, ce n'est pas juste.
Quel est votre constat sur cette dérive des pratiques extrêmes ?
Cela ne m'inquiète pas tellement sur le plan médical, bien qu'il existe tout de même d'importants accidents. En tant que médecin, je dois vous dire que cela entraîne certaines complications non négligeables. Néanmoins, je me positionne plus sur le plan de l'humanisme. Mon idéalisme constate effectivement que la sexualité en Occident, n'arrive pas à être sacrée.
Si on prône comme seul but le plaisir et le maximum de plaisir, autrement dit la performance en dépit de la perfection. Cela aboutit à des gens qui sont blasés, qui seront dans la recherche constante de plaisir. Ils vont alors multiplier les moyens, les expériences à travers des objets certes mais également l'amour pluriel, l'amour sadomasochiste. J'ai observé des jeunes qui s'adonnaient à la zoophilie. Les perversions débutent très jeunes.
Sans être dans le moralisme, cela engendre des déséquilibres dans la tête des gens et une mauvaise estime d'eux même. Cela a un impact sur leur équilibre mental et ne conduit pas au bonheur. Ils en arrivent à être déséquilibrés et angoissés. Ce n'est pas un accomplissement. Ils sont désabusés écoeurés très tôt. C'est une escalade qui déçoit toujours puisque ça n'a pas de sens.
Si je m'insurge contre l'état déplorable de la sexualité des Français, ce n'est pas du tout d'un point de vue éthique mais du point de vue de l'équilibre des individus et de leur bonheur de vivre.

Auteur: Leleu Gérard

Info:

[ sociologie ] [ porno ] [ bdsm ] [ caudalisme ]

 

Commentaires: 0

réalité subatomique

Des chercheurs font une découverte importante sur le ferromagnétisme

Une équipe de chercheurs japonais vient de réaliser une percée majeure dans le domaine de la physique quantique. Leurs travaux démontrent en effet que le ferromagnétisme, un état ordonné des atomes, peut être provoqué par une augmentation de la motilité des particules, et que les forces répulsives entre les atomes sont suffisantes pour le maintenir. Voici pourquoi c'est important.

Qu’est-ce que le ferromagnétisme ?

Chaque atome d’un matériau ferromagnétique est comme un petit aimant microscopique. Imaginez alors chacun de ces atomes avec son propre nord et son propre sud magnétiques.

Normalement, ces minuscules aimants sont en proie au chaos, pointant dans toutes les directions possibles, rendant leurs effets magnétiques mutuellement insignifiants. C’est un peu comme si une foule de personnes se promenait dans toutes les directions, chacune ayant son propre itinéraire, rendant difficile de discerner une tendance générale.

Cependant, lorsque vous refroidissez ce matériau en dessous d’une température spécifique très froide, appelée température de Curie, quelque chose de magique se produit : chaque personne de cette même foule commence soudainement à suivre le même chemin, comme si elles suivaient un chef de file invisible.

Dans le monde des atomes, cela se traduit par tous les petits aimants s’alignant dans une direction commune. C’est comme si une armée d’aimants se mettait en formation, tous pointant dans la même direction avec un but commun.

Vous venez alors de créer un champ magnétique global. Cette unification des orientations magnétiques crée en effet une aimantation macroscopique que vous pouvez ressentir lorsque vous approchez un objet aimanté à proximité. C’est ce qu’on appelle le ferromagnétisme.

De nombreuses applications

On ne s’en pas forcément compte, mais ce phénomène est à la base de nombreuses technologies modernes et a un impact significatif sur notre vie quotidienne.

Pensez aux aimants sur nos réfrigérateurs, par exemple. Ils sont là, fidèles et puissants, tenant en place des photos, des listes de courses et autres souvenirs. Tout cela est rendu possible grâce à la capacité du ferromagnétisme à maintenir un champ magnétique stable, permettant aux aimants de s’attacher fermement aux surfaces métalliques.

Et que dire de nos haut-parleurs ? Ces merveilles de l’ingénierie audio tirent en effet parti du ferromagnétisme pour produire des sons que nous pouvons entendre et ressentir. Lorsque le courant électrique traverse la bobine d’un haut-parleur, il crée un champ magnétique qui interagit avec un aimant permanent, provoquant le mouvement d’un diaphragme. Ce mouvement génère alors des ondes sonores qui nous enveloppent de musique, de voix et d’effets sonores, donnant vie à nos films, chansons et podcasts préférés.

Les scanners d’IRM sont un autre exemple. Ces dispositifs révolutionnaires exploitent en effet les propriétés magnétiques des tissus corporels pour produire des images détaillées de nos organes, de nos muscles et même de notre cerveau. En appliquant un champ magnétique puissant et des ondes radio, les atomes d’hydrogène dans notre corps s’alignent et émettent des signaux détectés par l’appareil, permettant la création d’images en coupe transversale de notre anatomie interne.

Vous l’avez compris, en comprenant mieux les mécanismes sous-jacents du ferromagnétisme, les scientifiques peuvent donc exploiter cette connaissance pour développer de nouvelles technologies et améliorer celles qui existent déjà.

Cela étant dit, plus récemment, des chercheurs japonais ont fait une découverte qui étend notre compréhension de ce phénomène à des conditions et des mécanismes jusque-là inconnus.

L’ordre naît aussi du mouvement

Comme dit plus haut, traditionnellement, on pensait que le ferromagnétisme pouvait être induit par des températures très froides, où les atomes seraient suffisamment calmes pour s’aligner dans une direction commune. Ici, les scientifiques ont démontré que cet état ordonné des atomes peut également être provoqué par une augmentation de la motilité des particules.

En d’autres termes, lorsque les particules deviennent plus mobiles, les forces répulsives entre les atomes peuvent les organiser dans un état magnétique ordonné.

Cela représente une avancée majeure dans le domaine de la physique quantique, car cela élargit le concept de matière active aux systèmes quantiques.

Notez que la matière active est un état dans lequel des agents individuels s’auto-organisent et se déplacent de manière organisée sans besoin d’un contrôleur externe. Ce concept a été étudié à différentes échelles, de l’échelle nanométrique à l’échelle des animaux, mais son application au domaine quantique était jusqu’ici peu explorée.

Pour ces travaux, l’équipe dirigée par Kazuaki Takasan et Kyogo Kawaguchi, de l’Université de Tokyo, a développé un modèle théorique dans lequel les atomes imitent le comportement des agents de la matière active, comme les oiseaux en troupeau. Lorsqu’ils ont augmenté la motilité des atomes, les forces répulsives entre eux les ont réorganisés dans un état ordonné de ferromagnétisme.

Cela signifie que les spins, le moment cinétique des particules et des noyaux subatomiques, se sont alignés dans une direction, tout comme les oiseaux en troupeau font face à la même direction lorsqu’ils volent.

Image schématique du ferromagnétisme induit par l’activité dans la matière active quantique. Ici, les atomes en mouvement avec des spins présentent l’ordre ferromagnétique (c’est-à-dire s’alignant dans une direction) comme une volée d’oiseaux représentée ci-dessus. Crédits : Takasan et al 2024

Quelles implications ?

Ce résultat, obtenu par une combinaison de simulations informatiques, de théories du champ moyen et de preuves mathématiques, élargit notre compréhension de la physique quantique et ouvre de nouvelles voies de recherche pour explorer les propriétés magnétiques des matériaux à des échelles microscopiques.

Cette découverte pourrait notamment avoir un impact significatif sur le développement de nouvelles technologies basées sur les propriétés magnétiques des particules.

Par exemple, la mémoire magnétique est une technologie largement utilisée dans les dispositifs de stockage de données, tels que les disques durs et les bandes magnétiques. En comprenant mieux les mécanismes qui sous-tendent le ferromagnétisme, les scientifiques pourraient alors concevoir des matériaux magnétiques plus efficaces et plus économes en énergie pour ces applications, ce qui pourrait conduire à des capacités de stockage accrues et à des temps d’accès plus rapides pour les données.

De plus, l’informatique quantique est un domaine en plein essor qui exploite les propriétés quantiques des particules pour effectuer des calculs à une vitesse beaucoup plus rapide que les ordinateurs classiques. Les qubits, les unités de calcul de l’informatique quantique, peuvent être réalisés à l’aide de diverses plateformes, y compris des systèmes magnétiques.

La capacité de contrôler et de manipuler le ferromagnétisme à l’échelle des particules pourrait donc ouvrir de nouvelles voies pour la réalisation et la manipulation de qubits magnétiques, ce qui pourrait contribuer à la réalisation de l’informatique quantique à grande échelle.

Ce ne sont ici que des exemples. Le point à retenir est qu’en comprenant mieux les mécanismes qui sous-tendent ce phénomène, les scientifiques pourraient être en mesure de concevoir des matériaux magnétiques plus efficaces pour beaucoup d’applications.

 

Auteur: Internet

Info: https://www.science-et-vie.com - 5 mai 2024, Brice Louvet, Source : Physical Review Research.

[ électrons ] [ protons ] [ neutrons ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

médecine

L'intelligence artificielle peut prédire l'activité sur et hors cible des outils CRISPR qui ciblent l'ARN au lieu de l'ADN, selon une nouvelle recherche publiée dans Nature Biotechnology.

L'étude menée par des chercheurs de l'université de New York, de l'université Columbia et du New York Genome Center associe un modèle d'apprentissage profond à des écrans CRISPR pour contrôler l'expression des gènes humains de différentes manières, comme si l'on appuyait sur un interrupteur pour les éteindre complètement ou si l'on utilisait un bouton d'atténuation pour réduire partiellement leur activité. Ces contrôles précis des gènes pourraient être utilisés pour développer de nouvelles thérapies basées sur CRISPR.

CRISPR est une technologie d'édition de gènes qui a de nombreuses applications en biomédecine et au-delà, du traitement de la drépanocytose à la fabrication de feuilles de moutarde plus savoureuses. Elle fonctionne souvent en ciblant l'ADN à l'aide d'une enzyme appelée Cas9. Ces dernières années, les scientifiques ont découvert un autre type de CRISPR qui cible l'ARN à l'aide d'une enzyme appelée Cas13.

Les CRISPR ciblant l'ARN peuvent être utilisés dans un large éventail d'applications, notamment l'édition de l'ARN, l'élimination de l'ARN pour bloquer l'expression d'un gène particulier et le criblage à haut débit pour déterminer les candidats médicaments prometteurs. Des chercheurs de l'Université de New York et du New York Genome Center ont créé une plateforme de criblage CRISPR ciblant l'ARN et utilisant Cas13 pour mieux comprendre la régulation de l'ARN et identifier la fonction des ARN non codants. L'ARN étant le principal matériel génétique des virus, notamment du SRAS-CoV-2 et de la grippe, les CRISPR ciblant l'ARN sont également prometteurs pour le développement de nouvelles méthodes de prévention ou de traitement des infections virales. Par ailleurs, dans les cellules humaines, lorsqu'un gène est exprimé, l'une des premières étapes est la création d'ARN à partir de l'ADN du génome.

L'un des principaux objectifs de l'étude est de maximiser l'activité des CRISPR ciblant l'ARN sur l'ARN cible prévu et de minimiser l'activité sur d'autres ARN qui pourraient avoir des effets secondaires préjudiciables pour la cellule. L'activité hors cible comprend à la fois les mésappariements entre l'ARN guide et l'ARN cible, ainsi que les mutations d'insertion et de délétion. 

Les études antérieures sur les CRISPR ciblant l'ARN se sont concentrées uniquement sur l'activité sur la cible et les mésappariements ; la prédiction de l'activité hors cible, en particulier les mutations d'insertion et de délétion, n'a pas fait l'objet d'études approfondies. Dans les populations humaines, environ une mutation sur cinq est une insertion ou une délétion ; il s'agit donc d'un type important de cibles potentielles à prendre en compte dans la conception des CRISPR.

"À l'instar des CRISPR ciblant l'ADN tels que Cas9, nous prévoyons que les CRISPR ciblant l'ARN tels que Cas13 auront un impact considérable sur la biologie moléculaire et les applications biomédicales dans les années à venir", a déclaré Neville Sanjana, professeur agrégé de biologie à l'université de New York, professeur agrégé de neurosciences et de physiologie à l'école de médecine Grossman de l'université de New York, membre de la faculté principale du New York Genome Center et coauteur principal de l'étude. "La prédiction précise des guides et l'identification hors cible seront d'une grande valeur pour ce nouveau domaine de développement et pour les thérapies.

Dans leur étude publiée dans Nature Biotechnology, Sanjana et ses collègues ont effectué une série de criblages CRISPR de ciblage de l'ARN dans des cellules humaines. Ils ont mesuré l'activité de 200 000 ARN guides ciblant des gènes essentiels dans les cellules humaines, y compris les ARN guides "parfaitement adaptés" et les désadaptations, insertions et suppressions hors cible.

Le laboratoire de Sanjana s'est associé à celui de David Knowles, expert en apprentissage automatique, pour concevoir un modèle d'apprentissage profond baptisé TIGER (Targeted Inhibition of Gene Expression via guide RNA design) qui a été entraîné sur les données des cribles CRISPR. En comparant les prédictions générées par le modèle d'apprentissage profond et les tests en laboratoire sur des cellules humaines, TIGER a été capable de prédire l'activité sur cible et hors cible, surpassant les modèles précédents développés pour la conception de guides sur cible Cas13 et fournissant le premier outil de prédiction de l'activité hors cible des CRISPR ciblant l'ARN.

"L'apprentissage automatique et l'apprentissage profond montrent leur force en génomique parce qu'ils peuvent tirer parti des énormes ensembles de données qui peuvent maintenant être générés par les expériences modernes à haut débit. Il est important de noter que nous avons également pu utiliser l'"apprentissage automatique interprétable" pour comprendre pourquoi le modèle prédit qu'un guide spécifique fonctionnera bien", a déclaré M. Knowles, professeur adjoint d'informatique et de biologie des systèmes à la School of Engineering and Applied Science de l'université Columbia, membre de la faculté principale du New York Genome Center et coauteur principal de l'étude.

"Nos recherches antérieures ont montré comment concevoir des guides Cas13 capables d'éliminer un ARN particulier. Avec TIGER, nous pouvons maintenant concevoir des guides Cas13 qui trouvent un équilibre entre l'élimination sur la cible et l'évitement de l'activité hors cible", a déclaré Hans-Hermann (Harm) Wessels, coauteur de l'étude et scientifique principal au New York Genome Center, qui était auparavant chercheur postdoctoral dans le laboratoire de Sanjana.

 Les chercheurs ont également démontré que les prédictions hors cible de TIGER peuvent être utilisées pour moduler précisément le dosage des gènes - la quantité d'un gène particulier qui est exprimée - en permettant l'inhibition partielle de l'expression des gènes dans les cellules avec des guides de mésappariement. Cela peut être utile pour les maladies dans lesquelles il y a trop de copies d'un gène, comme le syndrome de Down, certaines formes de schizophrénie, la maladie de Charcot-Marie-Tooth (une maladie nerveuse héréditaire), ou dans les cancers où l'expression aberrante d'un gène peut conduire à une croissance incontrôlée de la tumeur.

Notre modèle d'apprentissage profond peut nous indiquer non seulement comment concevoir un ARN guide qui supprime complètement un transcrit, mais aussi comment le "régler", par exemple en lui faisant produire seulement 70 % du transcrit d'un gène spécifique", a déclaré Andrew Stirn, doctorant à Columbia Engineering et au New York Genome Center, et coauteur de l'étude.

En associant l'intelligence artificielle à un crible CRISPR ciblant l'ARN, les chercheurs pensent que les prédictions de TIGER permettront d'éviter une activité CRISPR hors cible indésirable et de stimuler le développement d'une nouvelle génération de thérapies ciblant l'ARN.

"À mesure que nous recueillons des ensembles de données plus importants à partir des cribles CRISPR, les possibilités d'appliquer des modèles d'apprentissage automatique sophistiqués sont de plus en plus rapides. Nous avons la chance d'avoir le laboratoire de David à côté du nôtre pour faciliter cette merveilleuse collaboration interdisciplinaire. Grâce à TIGER, nous pouvons prédire les cibles non ciblées et moduler avec précision le dosage des gènes, ce qui ouvre la voie à de nouvelles applications passionnantes pour les CRISPR ciblant l'ARN dans le domaine de la biomédecine", a déclaré Sanjana.

Cette dernière étude fait progresser la large applicabilité des CRISPR ciblant l'ARN pour la génétique humaine et la découverte de médicaments, en s'appuyant sur les travaux antérieurs de l'équipe de l'Université de New York pour développer des règles de conception de l'ARN guide, cibler les ARN dans divers organismes, y compris des virus comme le SRAS-CoV-2, concevoir des protéines et des ARN thérapeutiques, et exploiter la biologie de la cellule unique pour révéler des combinaisons synergiques de médicaments contre la leucémie.

Auteur: Internet

Info: L'IA combinée à CRISPR contrôle précisément l'expression des gènes par l'Université de New York. https://phys.org/, 3 juillet 2023 - Nature Biotechnology. Prediction of on-target and off-target activity of CRISPR-Cas13d guide RNAs using deep learning, Nature Biotechnology (2023). DOI: 10.1038/s41587-023-01830-8

[ génie génétique ]

 

Commentaires: 0

Ajouté à la BD par miguel

univers inversé

Les possibilités métagénomiques

Une infime fraction - la plupart des scientifiques estiment <1% - des espèces microbiennes sur Terre peut être cultivée et étudiée à l'aide de techniques classiques de microbiologie et de génomique. Mais en utilisant des outils de métagénomique récemment développés, les chercheurs appliquent l'analyse génomique à des communautés microbiennes entières à la fois, sans avoir à isoler et à cultiver des espèces individuelles. Les études de métagénomique commencent par obtenir un échantillon d'un environnement particulier tel que l'eau de mer, le sol ou l'intestin humain, en extrayant le matériel génétique de tous les organismes de l'échantillon, puis en analysant l'ADN de ce mélange pour mieux comprendre comment les membres de la communauté interagir, changer et exécuter des fonctions complexes.

Processus : la métagénomique consiste à obtenir l'ADN de tous les micro-organismes d'une communauté, sans nécessairement identifier toutes les espèces impliquées. Une fois les gènes séquencés et comparés aux séquences identifiées, les fonctions de ces gènes peuvent être déterminées.

Parce qu'elle ne dépend pas de l'établissement de cultures pures, la métagénomique offre l'accès à des millions d'espèces microbiennes qui auparavant ne pouvaient pas être étudiées. Il permet également aux chercheurs d'examiner les micro-organismes dans le contexte des environnements dans lesquels ils existent naturellement, en étudiant des communautés entières en même temps.

Applications de la métagénomique

Pratiquement tous les biologistes, quel que soit leur domaine, découvriront qu'une meilleure compréhension des communautés microbiennes et de la métagénomique peut contribuer à leurs propres recherches. L'étude des communautés microbiennes par la métagénomique peut aider les biologistes à s'attaquer à des questions scientifiques fondamentales et à résoudre les problèmes sociaux, environnementaux et économiques connexes. Voici quelques-unes des applications potentielles de la métagénomique :

Avancées des sciences de la vie.

Décrypter le fonctionnement et l'interaction des espèces au sein des communautés microbiennes peut répondre en partie à des questions fondamentales sur de nombreux aspects de la biologie microbienne, végétale et animale et améliorer considérablement la compréhension de l'écologie et de l'évolution. La métagénomique pourrait aider à répondre à des questions telles que : Qu'est-ce qui constitue un génome ? Qu'est-ce qu'une espèce ? Quelle est la diversité de la vie ?

Sciences de la Terre.

L'exploration de la manière dont les communautés microbiennes du sol et des océans affectent les équilibres atmosphériques et les conditions environnementales peut aider les scientifiques à mieux comprendre, prévoir et potentiellement faire face aux changements mondiaux.

Médicament.

Des centaines de médicaments disponibles aujourd'hui sont dérivés de produits chimiques trouvés pour la première fois dans des microbes ; l'accès aux génomes d'espèces microbiennes supplémentaires est très prometteur pour en découvrir des milliers d'autres. L'étude du "microbiome" humain – les milliers de milliards de bactéries vivant dans et sur le corps humain – peut conduire à de nouvelles façons de diagnostiquer, de traiter et de prévenir les maladies.

Énergie alternative.

De nouvelles sources d'énergie pourraient être développées en exploitant le pouvoir des communautés microbiennes pour produire des sous-produits tels que l'hydrogène, le méthane, le butanol et même le courant électrique.

Assainissement de l'environnement.

Comprendre les microbes qui dégradent les produits chimiques environnementaux peut aider à nettoyer des polluants tels que les fuites d'essence, les déversements de pétrole, les eaux usées, les rejets industriels et les déchets nucléaires.

Biotechnologie.

L'identification et l'exploitation des capacités biosynthétiques polyvalentes et diverses des communautés microbiennes peuvent conduire au développement de nouveaux produits industriels, alimentaires et de santé bénéfiques.

Agriculture.

Mieux comprendre les microbes bénéfiques vivant dans, sur, sous et autour des plantes et des animaux domestiques peut contribuer à améliorer les méthodes de détection des agents pathogènes dans les cultures, le bétail et les produits alimentaires et peut faciliter le développement de pratiques agricoles qui tirent parti des les alliances naturelles entre les microbes, les plantes et les animaux.

Biodéfense et médecine légale microbienne.

L'étude de l'ADN et des empreintes biochimiques des communautés microbiennes aide les spécialistes à surveiller les agents pathogènes connus et potentiels, à créer des vaccins et des traitements plus efficaces contre les agents bioterroristes potentiels et à reconstruire les événements dans lesquels les microbes ont joué un rôle.

Valeur de la métagénomique pour l'enseignement de la biologie

La citation de Muir a également une pertinence importante pour l'enseignement des sciences. Qu'est-ce qui sépare la chimie, la génétique, la biologie moléculaire, l'évolution, l'écologie et d'autres disciplines ? Où se croisent-elles et comment se construisent-elles les unes sur les autres ?

La métagénomique aide à combler le fossé entre la génétique et l'écologie, démontrant que les gènes d'un seul organisme sont connectés aux gènes des autres et à l'ensemble de la communauté. En fait, les processus de la métagénomique démontrent qu'il est important d'étudier les gènes et les organismes en contexte et d'apprécier toute la diversité de la vie, même dans un seul cadre. Ces messages ont une pertinence importante dans l'ensemble de la biologie et seraient des ajouts précieux à n'importe quel cours de biologie, peut-être en particulier ceux du niveau d'introduction.

Parce que la métagénomique s'inspire d'un large éventail de domaines et les affecte, c'est un outil précieux pour enseigner des thèmes et des concepts qui sont tissés tout au long de l'enseignement de la biologie. En effet, l'enseignement et l'apprentissage de la métagénomique pourraient clairement intégrer les types de changements dans l'enseignement des sciences de la maternelle à la 12e année et du premier cycle que de nombreux rapports ont demandé au cours de la dernière décennie.

Certains professeurs estiment qu'ils doivent utiliser des cours d'introduction pour fournir aux étudiants pratiquement toutes les connaissances qu'ils utiliseront pour comprendre les concepts de base d'une discipline. Certains considèrent également les cours d'introduction comme un moyen d'aider les étudiants à apprendre à interpréter les nouvelles et autres informations sur la science afin qu'ils puissent prendre des décisions plus éclairées à la maison, chez le médecin et dans l'isoloir. Trop souvent, cependant, de tels cours ne parviennent pas à transmettre la beauté complexe du monde vivant et les innombrables façons dont la biologie a un impact sur la "vraie vie". L'apprentissage de la métagénomique au niveau introductif - en mettant l'accent sur ses applications potentielles dans le monde réel - pourrait servir à éclairer les principes de base d'une grande variété de domaines, les liens entre eux et la pertinence plus large des avancées scientifiques pour les problèmes du monde réel. Si les étudiants peuvent voir qu'il y a vraiment des questions non résolues intéressantes auxquelles ils peuvent jouer un rôle pour répondre, le recrutement de jeunes talentueux pour les carrières scientifiques peut être facilité. De cette façon, les élèves rencontreront une science dynamique plutôt que statique.

LES BÉNÉFICES DE L'INTÉGRATION DE L'ÉDUCATION ET DE LA RECHERCHE

Les avantages de l'intégration précoce de la métagénomique et d'autres sciences nouvelles dans l'enseignement de la biologie profiteraient non seulement aux étudiants en biologie, mais aussi aux scientifiques et à leurs projets de recherche. L'expérience montre que lorsque les chercheurs enseignent, leur propre compréhension s'approfondit, menant à de nouvelles questions et pistes de recherche souvent inattendues qui sont posées par les étudiants, ainsi qu'à contribuer au développement d'approches créatives des problèmes. Si la communauté de la biologie peut intégrer l'enseignement de la métagénomique aux progrès de la recherche dès le départ, les étudiants pourraient devenir des participants actifs au développement du domaine.

Enseigner un domaine nouveau ou émergent est un moyen idéal d'engager profondément les étudiants dans l'exploration de questions fondamentales qui sont au cœur de la poursuite scientifique et de les encourager à poser leurs propres questions. En effet, dans le cas du domaine émergent de la métagénomique, les questions les plus fondamentales peuvent être les plus profondes. Répondre à ces questions inspire à son tour les jeunes esprits et les chercheurs actifs, et la science est bénéfique. 

D'autres ont vu l'intérêt d'intégrer la science émergente à l'éducation. Un certain nombre d'efforts sont actuellement en cours pour intégrer la recherche et l'enseignement en génomique.

Auteur: Internet

Info: https://www.ncbi.nlm.nih.gov/ Metagenomics: A Call for Bringing a New Science into the Classroom (While It's Still New) Anne Jurkowski,* Ann H. Reid,† and Jay B. Labovcorresponding author

[ sciences ] [ nano-monde ] [ ouverture ] [ matrice gaïa ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Les progrès récents de l'intelligence artificielle (IA), notamment avec ChatGPT en novembre 2022, ont suscité interrogations, espoirs et craintes, menant à des auditions par le Congrès américain et l'adoption d'une réglementation par l'UE au printemps 2023. 

Dans les parlements comme sur les réseaux sociaux, les rapides progrès de l’IA animent les discussions. À l’avenir, à quels impacts faut-il s’attendre sur notre société ? Pour tenter de répondre à cette question de manière dépassionnée, nous proposons de regarder ce qui s’est passé dans un secteur qui a déjà connu l’arrivée et la victoire de l’IA sur les capacités humaines : les échecs. La machine y a en effet un niveau supérieur à celui des humains depuis maintenant plus d’un quart de siècle.

Pourquoi le jeu d’échecs comme indicateur ?

Depuis les débuts de l’informatique, les échecs ont été utilisés comme un indicateur des progrès logiciels et matériels. C’est un jeu intéressant à de multiples niveaux pour étudier les impacts des IA sur la société :

1 C’est une activité intellectuelle qui demande différentes compétences : visualisation spatiale, mémoire, calcul mental, créativité, capacité d’adaptation, etc., compétences sur lesquelles l’IA vient concurrencer l’esprit humain.

2 Le jeu n’a pas changé depuis des siècles. Les règles sont bien établies et cela donne une base stable pour étudier l’évolution des joueurs.

3  Il est possible de mesurer la force des machines de manière objective et de comparer ce niveau à celui des humains avec le classement Elo.

4 Le champ d’études est restreint : il est clair que les échecs ne sont qu’un tout petit aspect de la vie, mais c’est justement le but. Cette étroitesse du sujet permet de mieux cibler les impacts des IA sur la vie courante.

5  Les IA ont dépassé le niveau des meilleurs joueurs humains depuis plus de 20 ans. Il est donc possible de voir quels ont été les impacts concrets sur le jeu d’échecs et la vie de sa communauté, qui peut être vue comme un microcosme de la société. On peut également étudier ces impacts en regard de la progression des IA au cours du temps.

Explorons quelles ont été les évolutions dans le monde des échecs depuis que Gary Kasparov, alors champion du monde en titre, a perdu une partie contre Deep Blue en 1996, puis le match revanche joué en 1997. Nous allons passer en revue plusieurs thèmes qui reviennent dans la discussion sur les risques liés aux IA et voir ce qu’il en a été de ces spéculations dans le domaine particulier des échecs.

Les performances de l’IA vont-elles continuer à augmenter toujours plus vite ?

Il existe deux grandes écoles pour programmer un logiciel d’échecs : pendant longtemps, seule la force brute fonctionnait. Il s’agissait essentiellement de calculer le plus vite possible pour avoir un arbre de coups plus profonds, c’est-à-dire capable d’anticiper la partie plus loin dans le futur.

(Image : À partir d’une position initiale, l’ordinateur calcule un ensemble de possibilités, à une certaine profondeur, c’est-à-dire un nombre de coups futurs dans la partie.)

Aujourd’hui, la force brute est mise en concurrence avec des techniques d’IA issues des réseaux de neurones. En 2018, la filiale de Google DeepMind a produit AlphaZero, une IA d’apprentissage profond par réseau de neurones artificiels, qui a appris tout seul en jouant contre lui-même aux échecs. Parmi les logiciels les plus puissants de nos jours, il est remarquable que LC0, qui est une IA par réseau de neurones, et Stockfish, qui est essentiellement un logiciel de calcul par force brute, aient tous les deux des résultats similaires. Dans le dernier classement de l’Association suédoise des échecs sur  ordinateur (SSDF), ils ne sont séparés que de 4 points Elo : 3 582 pour LC0 contre 3 586 pour Stockfish. Ces deux manières totalement différentes d’implanter un moteur d’échecs sont virtuellement indistinguables en termes de force.

En termes de points Elo, la progression des machines a été linéaire. Le graphique suivant donne le niveau du meilleur logiciel chaque année selon le classement SSDF qui a commencé depuis le milieu des années 1980. Le meilleur logiciel actuel, LC0, en est à 3586, ce qui prolonge la figure comme on pourrait s’y attendre.

(Image : courbe du classement ELO )

Cette progression linéaire est en fait le reflet d’une progression assez lente des logiciels. En effet, le progrès en puissance de calcul est, lui, exponentiel. C’est la célèbre loi de Moore qui stipule que les puissances de calcul des ordinateurs doublent tous les dix-huit mois.

Cependant, Ken Thompson, informaticien américain ayant travaillé dans les années 80 sur Belle, à l’époque le meilleur programme d’échecs, avait expérimentalement constaté qu’une augmentation exponentielle de puissance de calcul conduisait à une augmentation linéaire de la force des logiciels, telle qu’elle a été observée ces dernières dizaines d’années. En effet, le fait d’ajouter un coup supplémentaire de profondeur de calcul implique de calculer bien plus de nouvelles positions. On voit ainsi que l’arbre des coups possibles est de plus en plus large à chaque étape.

Les progrès des IA en tant que tels semblent donc faibles : même si elles ne progressaient pas, on observerait quand même une progression de la force des logiciels du simple fait de l’amélioration de la puissance de calcul des machines. On ne peut donc pas accorder aux progrès de l’IA tout le crédit de l’amélioration constante des ordinateurs aux échecs.

La réception par la communauté de joueurs d’échecs

Avec l’arrivée de machines puissantes dans le monde de l'échiquier, la communauté a nécessairement évolué. Ce point est moins scientifique mais est peut-être le plus important. Observons quelles ont été ces évolutions.

" Pourquoi les gens continueraient-ils de jouer aux échecs ? " Cette question se posait réellement juste après la défaite de Kasparov, alors que le futur des échecs amateurs et professionnels paraissait sombre. Il se trouve que les humains préfèrent jouer contre d’autres humains et sont toujours intéressés par le spectacle de forts grands maîtres jouant entre eux, et ce même si les machines peuvent déceler leurs erreurs en temps réel. Le prestige des joueurs d’échecs de haut niveau n’a pas été diminué par le fait que les machines soient capables de les battre.

Le style de jeu a quant à lui été impacté à de nombreux niveaux. Essentiellement, les joueurs se sont rendu compte qu’il y avait beaucoup plus d’approches possibles du jeu qu’on le pensait. C’est l’académisme, les règles rigides, qui en ont pris un coup. Encore faut-il réussir à analyser les choix faits par les machines. Les IA sont par ailleurs très fortes pour pointer les erreurs tactiques, c’est-à-dire les erreurs de calcul sur de courtes séquences. En ligne, il est possible d’analyser les parties de manière quasi instantanée. C’est un peu l’équivalent d’avoir un professeur particulier à portée de main. Cela a sûrement contribué à une augmentation du niveau général des joueurs humains et à la démocratisation du jeu ces dernières années. Pour le moment, les IA n’arrivent pas à prodiguer de bons conseils en stratégie, c’est-à-dire des considérations à plus long terme dans la partie. Il est possible que cela change avec les modèles de langage, tel que ChatGPT.

Les IA ont aussi introduit la possibilité de tricher. Il y a eu de nombreux scandales à ce propos, et on se doit de reconnaître qu’il n’a pas à ce jour de " bonne solution " pour gérer ce problème, qui rejoint les interrogations des professeurs, qui ne savent plus qui, de ChatGPT ou des étudiants, leur rendent les devoirs.

Conclusions temporaires

Cette revue rapide semble indiquer qu’à l’heure actuelle, la plupart des peurs exprimées vis-à-vis des IA ne sont pas expérimentalement justifiées. Le jeu d’échecs est un précédent historique intéressant pour étudier les impacts de ces nouvelles technologies quand leurs capacités se mettent à dépasser celles des humains. Bien sûr, cet exemple est très limité, et il n’est pas possible de le généraliser à l’ensemble de la société sans précaution. En particulier, les modèles d’IA qui jouent aux échecs ne sont pas des IA génératives, comme ChatGPT, qui sont celles qui font le plus parler d’elles récemment. Néanmoins, les échecs sont un exemple concret qui peut être utile pour mettre en perspective les risques associés aux IA et à l’influence notable qu’elles promettent d’avoir sur la société.


Auteur: Internet

Info: https://www.science-et-vie.com/ - Article issu de The Conversation, écrit par Frédéric Prost Maître de conférences en informatique, INSA Lyon – Université de Lyon 14 avril 2024

[ ouverture ] [ conformisme limitant ]

 

Commentaires: 0

Ajouté à la BD par miguel

femmes-hommes

L'esprit pourrait affecter les machines selon les sexes
Pendant 26 ans, des conversations étranges ont eu lieu dans un laboratoire du sous-sol de l'université de Princeton. On utilise des ordinateurs au rendement aléatoire et les expériences font se concentrer des participants sur le contrôle d'une ou de plusieurs machines. Après plusieurs million d'épreuves on peut détecter de petits signes "statistiquement significatifs" comme quoi les esprits semblent pouvoir agir sur les machines. Cependant les chercheurs font attention à ne pas annoncer que les esprits ont cet effet ou qu'ils connaissent la nature de cette communication.
Les services secrets, la défense et les agences de l'espace ont également montré de l'intérêt pour cette recherche. Le premier support que les chercheurs ont employé était un bruit aléatoire à haute fréquence. Les chercheurs ont branché des circuits au dispositif pour traduire ce bruit en code binaire. Chaque participant, après un protocole pré-enregistré, devait développer une intention dans son esprit pour faire que le générateur ait plus ou moins de zéros. Les effets furent faibles mais mesurables. Depuis les mêmes résultats se sont reproduits avec d'autres expériences, telles qu'en impliquant un pendule relié à un mécanisme commandé par ordinateur. Quand la machine libère le pendule pour qu'il se balance, les participants se concentrent sur modifier le taux avec lequel le pendule ralentit. D'autres expériences impliquent une machine à tambour que les participants essayent de commander et une machine de cascade mécanique dans laquelle un dispositif laisse tomber des milliers de petites boules noires de polystyrène, le but est que ces boules tombent dans une rangée de fentes. Les participants essayent alors de les diriger pour les faire tomber d'un côté de ou de l'autre. Au final les participants ont pu "diriger " un bit sur 10.000 issus des données mesurées dans tous les essais. Ce qui pourrait sembler petit, mais le doyen Radin, scientifique à l'institut des sciences de Noetic et ancien chercheur aux laboratoires Bell et de AT&T, dit que c'était prévisible. Radin compare l'état actuel de cette recherche avec celui où les scientifiques commencèrent à étudier l'électricité statique et ne surent pas, au début, que les niveaux d'humidité pouvaient affecter la quantité de l'électricité statique produite.
Les chercheurs ne comprennent pas grand-chose sur ce phénomène, mais ils savent que les résultats ne sont pas affectés par la distance ou le temps. Les participants, par exemple, peuvent avoir le même impact sur une machine de l'extérieur de la salle ou d'ailleurs dans le pays. Ils peuvent également avoir le même effet s'ils ont une intention avant qu'elle soit allumée ou même s'ils lisent un livre ou écoutent la musique tandis alors que la machine fonctionne. Les conditions environnementales - telles que la température ambiante - n'importent pas, mais l'humeur et l'attitude des gens qui contrôlent l'appareil oui. Cela aide, si par exemple le participant croit qu'il peut affecter la machine. Jahn dit que la résonance avec la machine est un autre facteur important. Il la compare à ce qui se produit quand un grand musicien semble faire un avec son violon. Le sexe importe aussi. Les hommes tendent à obtenir des résultats assortis à leurs intentions, bien que le degré de l'effet soit souvent petit. Les femmes tendent à obtenir un plus grand effet, mais pas nécessairement celui qu'elles prévoient. Par exemple, elles voudraient diriger des boules dans la machine aléatoire de cascade pour une chute vers la gauche, mais elles tombent plutôt vers la droite. Les résultats qui sont également plus grands si un mâle et une femelle travaillent ensemble, les couple de même sexe ne produisent aucun résultat significatif. Les couple de sexe opposé qui sont impliqué de manière romantique donnent de bien meilleurs résultats - souvent sept fois plus grands que quand les mêmes individus sont examinés seuls.
Brenda Dunne, psychologue développementaliste et directrice du laboratoire dit que dans ces cas les résultats reflètent souvent le styles des deux modèles de sexes. Les effets sont plus grands, en accord avec ce que seule la femelle tendrait à produire, et plus ciblés, en accord avec ce que seul le mâle produirait.
"C'est presque comme si il y avait deux modèles ou deux variables et qu'elles étaient complémentaires" dit Dunne." le modèle masculin est associé à l'intention, le modèle féminin est plus associé à la résonance."
Que signifie tout ceci ? Personne ne le sait. Radin et Jahn indiquent que ce n'est pas parce qu'il y a une corrélation entre l'intention du participant et les actions de la machine que cela signifie qu'un cause l'autre. " Il y a une inférence (qui les deux sont connexes) mais aucune évidence directe" dit Radin qui indique que le phénomène pourrait être semblable à l'indétermination d'Heisenberg dans lequel deux particules séparées l'une de l'autre semblent être reliées sans qu'on sache comment... sous quelle forme de communication.
"la différence est nous ne parlons pas en envoyant des signaux du cerveau à la machine par un circuit" dit Jahn au sujet de ces essais. "quoi qu'il se passe, se passe par un itinéraire que nous ne connaissons pas. Nous savons seulement quelque chose au sujet des conditions qui la favorisent.." Bien que les effets produits dans ces expériences soient faibles, ils ont toujours été répétés, cependant pas toujours de façon prévisible. Un participant peut avoir un effet un jour et répéter l'expérience le jour suivant sans résultats.
Le laboratoire a beaucoup de détracteurs qui pointent sur des défauts de la méthode et écartent ce travail le traitant de divertissement, comparant ses résultats aux automobilistes qui souhaitent qu'une lumière rouge passe au vert et pensent que le changement de lumière est causé par eux.
Stanley Jeffers, professeur de physique à l'université d'York à Toronto, a tenté des expériences semblables, mais il ne put pas répliquer les résultats. Les chercheurs de deux laboratoires allemands, fonctionnant en coopération avec Pegg, ne purent également pas répliquer ces résultats à l'aide du même équipement utilisé par Pegg.
"Si leurs annonces veulent être prises au sérieux par la science elles doivent être répliquées" dit Jeffers. "Si elles ne peuvent pas être répliquées, cela ne signifie pas qu'elles sont fausses, mais la science y perdra rapidement son intérêt."
Dunne, psychologue développementaliste dit que Pegg a répété ses propres expériences et a obtenu des résultats significatifs. Et ces méta-analyses - une douzaine - faites depuis les années 80 ont donné une base pour les résultats de Pegg dans les expériences faites par d'autres chercheurs. La Méta-analyse utilise de grands stocks de données à travers de beaucoup d'expériences et les combine statistiquement pour voir si les effets répètent la même combinaison. "Nous analysons les déviations statistiques par rapport à la chance au travers de cette batterie d'expériences" dit Jahn... "quand on fait assez de ces expériences, les effets analysés ont un poids statistique. Il n'y a aucun doute sur la validité de ces effets."
Radin, qui n'est pas affilié au Pegg, écarte les critiques qui disent que ce groupe ne pratique pas de science solide. "Ce domaine a reçu bien plus d'examen minutieux et critique que beaucoup d'autres, ordinaires... les personnes qui font ce genre de recherche sont bien conscientes du fait que leur recherche doit être faite au mieux. Le laboratoire de Pegg a pris les meilleurs principes de science rigoureuse et s'est appliqué a des questions extrêmement difficiles et a proposé quelques jolies réponses intéressantes."
Jahn pense que les critiques s'attendent à ce que les phénomènes suivent les règles habituelles de la cause et de l'effet. Au lieu de cela, il pense qu'ils appartiennent à la catégorie de ce que Karl Jung a appelé "des phénomènes acausal," qui incluent des choses comme la synchronicité. "Cela se joue par des règles plus compliquées, plus lunatiques, évasives... ... mais cela joue." dit Jahn
Jeffers est sceptique " cela ne peut se passer de deux manières - dire qu'on est des scientifiques honorables et avoir des affirmations pour un effet particulier dans des conditions contrôlées, et ensuite quand les résultats ne marchent pas, dire que les méthodes scientifiques rigoureuses ne s'appliquent pas." Mais Jahn dit que justement que puisque que les scientifiques ne peuvent pas expliquer ces phénomènes cela ne signifie pas qu'ils ne sont pas vrais. "si ces choses existent... je pense que notre société a le droit de demander à la science d'y faire attention et de fournir un certain outillage pour avoir affaire avec de manière constructive.

Auteur: Zetter Kim

Info: Juillet 2005, Fortean Times

[ mâles-femelles ] [ vus-scientifiquement ] [ parapsychologie ] [ femmes-hommes ]

 

Commentaires: 0