Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 1094
Temps de recherche: 0.039s

biochimie

La découverte d'une nouvelle activité électrique au sein des cellules pourrait modifier la façon dont les chercheurs envisagent la chimie biologique.

Le corps humain est fortement tributaire des charges électriques. Des impulsions d'énergie semblables à des éclairs traversent le cerveau et les nerfs, et la plupart des processus biologiques dépendent des ions électriques qui voyagent à travers les membranes de chaque cellule de notre corps.

Ces signaux électriques sont possibles, en partie, en raison d'un déséquilibre entre les charges électriques présentes de part et d'autre d'une membrane cellulaire. Jusqu'à récemment, les chercheurs pensaient que la membrane était un élément essentiel pour créer ce déséquilibre. Mais cette idée a été bouleversée lorsque des chercheurs de l'université de Stanford ont découvert qu'un déséquilibre similaire des charges électriques pouvait exister entre des microgouttelettes d'eau et d'air.

Aujourd'hui, des chercheurs de l'université Duke ont découvert que ces types de champs électriques existent également à l'intérieur et autour d'un autre type de structure cellulaire appelée condensats biologiques. Comme des gouttelettes d'huile flottant dans l'eau, ces structures existent en raison de différences de densité. Elles forment des compartiments à l'intérieur de la cellule sans avoir besoin de la limite physique d'une membrane.

Inspirés par des recherches antérieures démontrant que les microgouttelettes d'eau interagissant avec l'air ou des surfaces solides créent de minuscules déséquilibres électriques, les chercheurs ont décidé de voir s'il en était de même pour les petits condensats biologiques. Ils ont également voulu voir si ces déséquilibres déclenchaient des réactions d'oxygène réactif, "redox"*comme dans ces autres systèmes.

Publiée le 28 avril dans la revue Chem, leur découverte fondamentale pourrait changer la façon dont les chercheurs envisagent la chimie biologique. Elle pourrait également fournir un indice sur la manière dont les premières formes de vie sur Terre ont exploité l'énergie nécessaire à leur apparition.

"Dans un environnement prébiotique sans enzymes pour catalyser les réactions, d'où viendrait l'énergie ?" s'interroge Yifan Dai, chercheur postdoctoral à Duke travaillant dans le laboratoire d'Ashutosh Chilkoti, professeur émérite d'ingénierie biomédicale.

"Cette découverte fournit une explication plausible de l'origine de l'énergie de réaction, tout comme l'énergie potentielle communiquée à une charge ponctuelle placée dans un champ électrique", a déclaré M. Dai.

Lorsque des charges électriques passent d'un matériau à un autre, elles peuvent produire des fragments moléculaires qui peuvent s'apparier et former des radicaux hydroxyles, dont la formule chimique est OH. Ceux-ci peuvent ensuite s'apparier à nouveau pour former du peroxyde d'hydrogène (H2O2) en quantités infimes mais détectables.

"Mais les interfaces ont rarement été étudiées dans des régimes biologiques autres que la membrane cellulaire, qui est l'une des parties les plus essentielles de la biologie", a déclaré M. Dai. "Nous nous sommes donc demandé ce qui pouvait se passer à l'interface des condensats biologiques, c'est-à-dire s'il s'agissait également d'un système asymétrique.

Les cellules peuvent construire des condensats biologiques pour séparer ou piéger certaines protéines et molécules, afin d'entraver ou de favoriser leur activité. Les chercheurs commencent à peine à comprendre comment fonctionnent les condensats** et à quoi ils pourraient servir.

Le laboratoire de Chilkoti étant spécialisé dans la création de versions synthétiques de condensats biologiques naturels, les chercheurs ont pu facilement créer un banc d'essai pour leur théorie. Après avoir combiné la bonne formule d'éléments constitutifs pour créer des condensats minuscules, avec l'aide de Marco Messina, chercheur postdoctoral dans le groupe de Christopher J. Chang, les chercheurs ont pu créer un banc d'essai pour leur théorie. Christopher J. Chang à l'université de Californie-Berkeley, ils ont ajouté au système un colorant qui brille en présence d'espèces réactives de l'oxygène.

Leur intuition était la bonne. Lorsque les conditions environnementales étaient réunies, une lueur solide est apparue sur les bords des condensats, confirmant qu'un phénomène jusqu'alors inconnu était à l'œuvre. Dai s'est ensuite entretenu avec Richard Zare, professeur de chimie à Stanford (Marguerite Blake Wilbur), dont le groupe a établi le comportement électrique des gouttelettes d'eau. Zare a été enthousiasmé par le nouveau comportement des systèmes biologiques et a commencé à travailler avec le groupe sur le mécanisme sous-jacent.

"Inspirés par des travaux antérieurs sur les gouttelettes d'eau, mon étudiant diplômé, Christian Chamberlayne, et moi-même avons pensé que les mêmes principes physiques pourraient s'appliquer et favoriser la chimie redox, telle que la formation de molécules de peroxyde d'hydrogène", a déclaré M. Zare. "Ces résultats expliquent pourquoi les condensats sont si importants pour le fonctionnement des cellules.

"La plupart des travaux antérieurs sur les condensats biomoléculaires se sont concentrés sur leurs parties internes", a déclaré M. Chilkoti. "La découverte de Yifan, selon laquelle les condensats biomoléculaires semblent être universellement redox-actifs, suggère que les condensats n'ont pas simplement évolué pour remplir des fonctions biologiques spécifiques, comme on le pense généralement, mais qu'ils sont également dotés d'une fonction chimique essentielle pour les cellules.

Bien que les implications biologiques de cette réaction permanente au sein de nos cellules ne soient pas connues, Dai cite un exemple prébiotique pour illustrer la puissance de ses effets. Les centrales de nos cellules, appelées mitochondries, créent de l'énergie pour toutes les fonctions de notre vie grâce au même processus chimique de base. Mais avant que les mitochondries ou même les cellules les plus simples n'existent, il fallait que quelque chose fournisse de l'énergie pour que la toute première fonction de la vie puisse commencer à fonctionner.

Des chercheurs ont proposé que l'énergie soit fournie par des sources thermales dans les océans ou des sources d'eau chaude. D'autres ont suggéré que cette même réaction d'oxydoréduction qui se produit dans les microgouttelettes d'eau a été créée par les embruns des vagues de l'océan.

Mais pourquoi pas par des condensats ?

"La magie peut opérer lorsque les substances deviennent minuscules et que le volume interfacial devient énorme par rapport à leur volume", a déclaré M. Dai. "Je pense que les implications sont importantes pour de nombreux domaines.

Auteur: Internet

Info: https://phys.org/news/2023-04, from Ken Kingery, Université de Duke. *réactions d'oxydoréduction. **les condensats biomoléculaires sont des compartiments cellulaires qui ne sont pas délimités par une membrane, mais qui s'auto-assemblent et se maintiennent de façon dynamique dans le contexte cellulaire

[ biophysique ]

 

Commentaires: 0

Ajouté à la BD par miguel

linguistique de masse

L'intelligence artificielle travaille-t-elle en anglais ? 

Des scientifiques de l’EPFL ont montré que les grands modèles de langage semblent utiliser l’anglais en interne même lorsqu’ils sont sollicités dans une autre langue, ce qui pourrait avoir des conséquences en termes de biais linguistiques et culturels.

Les grands modèles de langage (LLM), tels que ChatGPT d’Open AI et Gemini de Google, ont conquis le monde et surprennent par leur capacité à comprendre les utilisatrices et utilisateurs et à leur répondre avec un discours en apparence naturel.

Bien qu’il soit possible d’interagir avec ces LLM dans n’importe quelle langue, ces derniers sont entraînés avec des centaines de milliards de paramètres textuels, principalement en anglais. Certaines personnes ont émis l’hypothèse qu’ils effectuaient la majeure partie de leur traitement interne en anglais et traduisaient ensuite dans la langue cible au tout dernier moment. Mais il y avait peu de preuves de cela, jusqu’à aujourd’hui.

Tests de Llama

Des chercheuses et chercheurs du Laboratoire de science des données (DLAB) de la Faculté informatique et communications de l’EPFL ont étudié le LLM open source Llama-2 (grand modèle de langage IA développé par Meta) pour essayer de déterminer quelles langues étaient utilisées à quels stades de la chaîne informatique.

" Les grands modèles de langage sont entraînés pour prédire le mot suivant. Pour cela, ils font correspondre chaque mot à un vecteur de nombres, c’est-à-dire à un point de données multidimensionnel. Par exemple, l’article le se trouvera toujours exactement à la même coordonnée fixe des nombres ", explique le professeur Robert West, responsable du DLAB.

" Les modèles enchaînent environ 80 couches de blocs de calcul identiques, chacun transformant un vecteur qui représente un mot en un autre vecteur. À la fin de cette séquence de 80 transformations, on obtient un vecteur représentant le mot suivant. Le nombre de calculs est déterminé par le nombre de couches de blocs de calcul. Plus il y a de calculs, plus votre modèle est puissant et plus le mot suivant a de chances d’être correct. "

Comme l’explique la prépublication intitulée Do Llamas Work in English? On the Latent Language of Multilingual TransformersRobert West et son équipe ont forcé le modèle à répondre après chaque couche chaque fois qu’il essayait de prédire le mot suivant au lieu de le laisser effectuer les calculs à partir de ses 80 couches. Ils ont ainsi pu voir quel mot le modèle aurait prédit à ce moment-là. Ils ont mis en place différentes tâches telles que demander au modèle de traduire une série de mots français en chinois.

" Nous lui avons donné un mot français, puis la traduction en chinois, un autre mot français et la traduction en chinois, etc., de sorte que le modèle sache qu’il est censé traduire le mot français en chinois. Idéalement, le modèle devrait donner une probabilité de 100% pour le mot chinois. Mais lorsque nous l’avons forcé à faire des prédictions avant la dernière couche, nous avons remarqué que la plupart du temps, il prédisait la traduction anglaise du mot français, bien que l’anglais n’apparaisse nulle part dans cette tâche. Ce n’est qu’au cours des quatre ou cinq dernières couches que le chinois est en fait plus probable que l’anglais ", affirme Robert West.

Des mots aux concepts

Une hypothèse simple serait que le modèle traduit la totalité de l’entrée en anglais et la traduit à nouveau dans la langue cible juste à la fin. Mais en analysant les données, les chercheuses et chercheurs sont parvenus à une théorie bien plus intéressante.

Dans la première phase des calculs, aucune probabilité n’est attribuée à l’un ou l’autre mot. Selon eux, le modèle s’attache à résoudre les problèmes d’entrée. Dans la seconde phase, où l’anglais domine, les chercheuses et chercheurs pensent que le modèle se trouve dans une sorte d’espace sémantique abstrait où il ne raisonne pas sur des mots isolés mais sur d’autres types de représentations qui concernent davantage des concepts, sont universels dans toutes les langues et représentent plus un modèle du monde. C’est important car, pour bien prédire le mot suivant, le modèle doit en savoir beaucoup sur le monde et l’un des moyens d’y parvenir est d’avoir cette représentation des concepts.

" Nous supposons que cette représentation du monde en termes de concepts est biaisée en faveur de l’anglais, ce qui serait très logique car les données utilisées pour entraîner ces modèles sont à environ 90% en anglais. Ils cartographient les mots en entrée à partir d’un espace de mots superficiel, dans un espace de signification plus profond avec des représentations de la façon dont ces concepts sont liés les uns aux autres dans la réalité – et les concepts sont représentés de la même manière que les mots anglais, plutôt que les mots correspondants dans la langue d’entrée réelle ", déclare Robert West.

Monoculture et biais

Cette domination de l’anglais amène à se poser la question suivante: " est-ce important "? Les chercheuses et chercheurs pensent que oui. D’après de nombreuses recherches, les structures qui existent dans le langage influencent la manière dont nous construisons la réalité et les mots que nous employons sont profondément liés à la façon dont nous pensons le monde. Robert West suggère de commencer à étudier la psychologie des modèles de langage en les traitant comme des êtres humains et, dans différentes langues, en les interrogeant, en les soumettant à des tests de comportement et en évaluant leurs biais.

" Je pense que cette recherche a vraiment touché un point sensible, car les gens s’inquiètent de plus en plus de ce genre de problème de monoculture potentielle. Les modèles étant meilleurs en anglais, bon nombre de chercheuses et chercheurs étudient aujourd’hui la possibilité d’introduire un contenu en anglais et de le traduire dans la langue souhaitée. D’un point de vue technique, cela pourrait fonctionner, mais je pense que nous perdons beaucoup de nuances, car ce que vous ne pouvez pas exprimer en anglais ne sera pas exprimé ", conclut Robert West.

Auteur: Internet

Info: https://actu.epfl.ch/news/l-intelligence-artificielle-travaille-t-elle-en--2/#:~:text=Les%20chercheuses%20et%20chercheurs%20pensent%20que%20oui.,dont%20nous%20pensons%20le%20monde.

[ anglocentrisme ] [ spécificités des idiomes ] [ homme-machine ] [ symboles univers ] [ ethnocentrisme ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-animal

"Voyageons un peu dans le passé et transportons-nous à Falaise, petite ville de Normandie, à la fin du mois de janvier 1386.

Une truie, maladroitement costumée en habits féminins, est rituellement conduite à l’échafaud, puis pendue et brûlée. Qu’avait-elle fait ? Renversé le berceau d’un nourrisson mal surveillé et commencé à lui dévorer le visage.

Capturée, emprisonnée, conduite au tribunal, défendue par un avocat peu efficace, elle est condamnée à mort par le juge-bailli de Falaise qui l’estime responsable de ses actes. Son propriétaire, en revanche, n’écope d’aucune peine ni amende.

Aujourd’hui, de telles pratiques nous font rire, de même que nous nous esclaffons devant les questions que l’on se pose à la même époque en milieu clérical ou universitaire : peut-on faire travailler les animaux le dimanche ? Doit-on leur imposer des jours de jeûne ? Où vont-ils après la mort ? En Enfer ou au Paradis ? Que de croyances absurdes ? Que de superstitions grotesques ! Quels ramassis d’imbéciles tous ces médiévaux !

Nous avons tort de réagir ainsi. En jugeant le passé à l’aune des savoirs, des morales et des sensibilités du présent, nous montrons que nous n’avons rien compris à ce qu’était l’Histoire. En outre, nous oublions aussi que nos propres comportements sont tout aussi ridicules, qu’ils feront pareillement sourire nos successeurs dans quelques siècles, et qu’ils sont souvent plus atroces et beaucoup plus dangereux que ceux de nos ancêtres. Dangereux pour toutes les espèces vivantes, dangereux pour l’avenir de la planète.

Qui parmi nous a déjà visité une porcherie industrielle ? Je suis normand d’origine et breton de cœur, je n’ai aucune animosité envers les éleveurs de porcs, je ne milite dans aucune société protectrice des animaux ; je suis simplement historien, spécialiste des rapports entre l’homme et l’animal. Or l’honnêteté m’oblige à dire que ces porcheries industrielles sont des lieux abominables, constituant une sorte d’enfer sur terre pour les animaux qui s’y trouvent. Les truies sont enfermées par centaines dans des espaces qui leur interdisent de se déplacer. Leur vie durant, elles ne voient jamais la lumière du soleil, ne fouillent jamais le sol, sont nourries d’aliments chimiques, gavées d’antibiotiques, inséminées artificiellement. Elles doivent produire le maximum de porcelets en une seule portée, avoir le maximum de portées dans les quelques années de leur misérable vie, et lorsqu’elles ne sont plus fécondes, elles partent à l’abattoir. Les porcelets eux-mêmes doivent engraisser le plus vite possible, produire le maximum de viande, et tout cela, bien sûr, au moindre coût. Ces crétins du Moyen-Âge qui pensaient que les cochons étaient des êtres sensibles, qu’ils avaient une âme et qu’ils pouvaient comprendre ce qu’était le Bien et le Mal, n’avaient certainement jamais pensé à cela : martyriser des porcs pour gagner de l’argent !

Récemment, un directeur de porcherie industrielle située dans les Côtes d’Armor à qui je venais de faire part de mon indignation m’a répondu d’une manière sordide : "Mais, Cher Monsieur, pour les poulets c’est bien pire". De fait, dans des établissements carcéraux du même genre, les poulets ne peuvent pas poser leurs deux pattes au sol en même temps : il y circule un courant électrique qui les oblige, à longueur de vie, à poser au sol une patte après l’autre. Pourquoi un tel supplice ? Pour faire grossir leurs cuisses, bien sûr, et les vendre ainsi plus cher. La cupidité de l’être humain est devenue sans limite.

Où sont passés les cochons de nos campagnes ? Où peut-on encore les voir gambader autour de la ferme, jouer les uns avec les autres, se faire caresser par les enfants, partager la vie des paysans. Nulle part ! Nous avons oublié que les cochons – mais cela est vrai de tous les animaux de la ferme - étaient des êtres vivants et non pas des produits. Qui, dans la presse, évoque leur sort pitoyable, leur vie de prisonniers et de condamnés lorsque l’actualité parle du prix de la viande de porc et du mécontentement des éleveurs ? Qui a le courage de rappeler qu’avant d’être un produit de consommation le cochon était un animal vivant, intelligent, sensible, anatomiquement et physiologiquement cousin très proche de l’être humain ? A ma connaissance, personne. De même, à propos des débats autour des cantines scolaires, qui s’interroge sur les raisons qui font que certains peuples mangent du porc et d’autres non ? C’est pourtant un dossier passionnant, l’occasion de s’instruire et de rappeler les nombreuses hypothèses qui ont été avancées depuis le Moyen-Âge pour expliquer les rejets et les tabous qui entourent cet animal.

Les animaux domestiques n’ont plus d’histoire, plus de mythologie, plus de symbolique. Ils ne suscitent plus aucune curiosité, aucune interrogation, aucune nostalgie. Ils n’ont même plus droit à une vie simplement animale. Ce sont des produits ! Comme tels, ils doivent participer au "redressement productif" de notre pays (cette expression est en elle-même absolument répugnante) et générer du profit. Un profit ironiquement bien mince, voire inexistant pour les éleveurs de porcs, ce qui rend encore plus aberrante et intolérable l’existence de ces porcheries industrielles, inhumaines, "inanimales" même, si l’on peut oser un tel néologisme. Elles polluent l’air, la terre, les eaux des rivières et celles de la mer. Dans mon petit coin de Bretagne, des sangliers sont morts à cause du rejet dans la nature du lisier produit par l’élevage intensif de leurs cousins domestiques. Un comble ! À la cupidité s’ajoute l’absurdité.

L’être humain est devenu fou. Il tue non seulement ses semblables mais tout ce qui vit autour de lui. Il rêve même d’aller sur Mars ou ailleurs vérifier si la vie existe et, si c’est le cas, y semer la mort. Tout en donnant des leçons à l’univers entier et en paradant à la COP 21, 22, 23, 24.

Protéger la nature, défendre l’environnement, sauver la planète ? Certes. Mais pour quoi faire ? Pour sauver une humanité barbare et suicidaire, cruelle envers elle-même, ennemie de tous les êtres vivants ? Le mérite-t-elle vraiment ? Le souhaite-t-elle réellement ? Il est permis d’en douter."

Auteur: Pastoureau Michel

Info: France Inter, carte blanche du 21 oct 2019

[ historique ]

 
Commentaires: 2
Ajouté à la BD par miguel

Intelligence artificielle

OpenAI présente Super Alignment : Ouvrir la voie à une IA sûre et alignée

La présentation par OpenAI de son développement du super alignement est extrêmement prometteuse pour l'humanité. Grâce à ses capacités étendues, il est en mesure de répondre à certains des problèmes les plus urgents auxquels notre planète est confrontée. Le risque de déresponsabilisation, voire d'anéantissement de l'humanité, est l'un des graves dangers associés à l'émergence de la superintelligence.

L'arrivée du super-alignement

Le super-alignement peut sembler une possibilité lointaine, mais il pourrait se matérialiser dans les dix prochaines années. Nous devons créer de nouvelles structures de gouvernance et traiter le problème de l'alignement des superintelligences afin de maîtriser efficacement les risques qui y sont associés.

Superalignement de l'IA et de l'homme : Le défi actuel

Garantir que les systèmes d'IA, qui sont beaucoup plus intelligents que les humains, s'alignent sur les intentions de ces derniers constitue un obstacle de taille. Actuellement, nos techniques d'alignement de l'IA, telles que l'apprentissage par renforcement à partir du retour d'information humain, reposent sur la supervision humaine. Cependant, lorsqu'il s'agit de systèmes d'IA dépassant l'intelligence humaine, nos méthodes d'alignement actuelles deviennent inadéquates. Pour y remédier, nous avons besoin de nouvelles percées scientifiques et techniques.

OpenAI a mis à disposition ses modèles de cohérence pour la génération d'œuvres d'art par l'IA

Surmonter les hypothèses et intensifier les efforts d'alignement

Plusieurs hypothèses qui guident actuellement le développement de l'IA risquent d'échouer lorsque nous entrerons dans l'ère de la superintelligence. Il s'agit notamment de la capacité de nos modèles à identifier et à contourner la supervision au cours de la formation, ainsi que de leurs caractéristiques de généralisation favorables au cours du déploiement.

Un chercheur d'alignement automatique doté d'une intelligence proche de celle de l'homme, c'est ce que l'OpenAI vise à construire. L'objectif est d'intensifier les efforts et d'aligner itérativement la superintelligence en utilisant une grande puissance de calcul.

Construire les bases d'un super-alignement

Pour atteindre son objectif de chercheur en alignement automatisé, l'OpenAI a identifié trois étapes clés :

Se transformer en expert et avoir un impact significatif sur le monde de la science des données.

1. Développer une méthode de formation évolutive

OpenAI se concentrera sur la création d'une stratégie de formation qui s'adapte bien. Cette méthode sera essentielle pour apprendre aux systèmes d'IA à effectuer des activités difficiles à évaluer pour les humains.

2. Validation du modèle résultant

Il est essentiel de valider l'efficacité du chercheur d'alignement après sa construction. Pour s'assurer que le modèle est conforme aux intentions humaines et qu'il fonctionne comme prévu, l'OpenAI le soumettra à des tests rigoureux.

3. Test de stress du pipeline d'alignement

OpenAI soumettra son pipeline d'alignement à des tests de stress approfondis pour s'assurer de sa durabilité. En soumettant ses systèmes à des situations difficiles, elle pourra trouver d'éventuelles failles et les corriger.

Exploiter les systèmes d'IA pour la supervision et la généralisation

L'OpenAI utilisera des systèmes d'IA pour aider à l'évaluation d'autres systèmes d'IA afin de résoudre la difficulté de superviser des tâches qui sont difficiles à juger pour les humains. Cette méthode de supervision évolutive vise à garantir la réussite de l'alignement. Les chercheurs se pencheront également sur la généralisation de la surveillance, qui permettra aux systèmes d'IA de gérer des activités qui ne sont pas sous le contrôle de l'homme.

Validation de l'alignement : Robustesse et interprétabilité

Pour garantir l'alignement des systèmes d'IA, il est nécessaire de se concentrer sur deux facteurs essentiels : la robustesse et l'interprétabilité. Afin de découvrir d'éventuels problèmes d'alignement, l'OpenAI examinera les éléments internes de ses systèmes et automatisera la recherche de comportements problématiques.

Tests adverses : Détection des désalignements

OpenAI entraînera délibérément des modèles mal alignés pour évaluer l'efficacité de ses méthodes d'alignement. Elle peut évaluer l'efficacité de ses stratégies d'identification et de résolution des désalignements en testant ces modèles de manière rigoureuse et contradictoire.

Évolution des priorités de recherche et collaboration

L'OpenAI est consciente qu'à mesure qu'elle en apprendra davantage sur la question de l'alignement des superintelligences, ses objectifs de recherche évolueront. Les meilleurs chercheurs et ingénieurs en apprentissage automatique seront réunis pour travailler sur ce projet. Afin de créer de nouvelles techniques et de les déployer à grande échelle, l'OpenAI encourage les contributions d'autres équipes et souhaite publier plus d'informations sur sa feuille de route à l'avenir.

L'OpenAI est néanmoins optimiste, même si le défi de l'alignement de la superintelligence est ambitieux et que le succès n'est pas garanti. Elle a réalisé des tests préliminaires encourageants et dispose de mesures utiles pour suivre le développement. L'OpenAI est d'avis qu'un effort ciblé et coopératif peut aboutir à une résolution.

L'équipe dédiée de l'OpenAI : Leaders et collaboration

Le cofondateur et scientifique en chef d'OpenAI, Ilya Sutskever, a fait de l'alignement de la superintelligence le principal sujet de son étude. Il codirigera le groupe avec Jan Leike, responsable de l'alignement. L'équipe est composée de chercheurs et d'ingénieurs talentueux issus de l'ancienne équipe d'alignement de l'OpenAI ainsi que de chercheurs d'autres équipes de l'entreprise.

OpenAI recherche activement des universitaires et des ingénieurs de haut niveau pour se joindre à ses efforts. Ils souhaitent diffuser largement les résultats de leurs travaux, qu'ils considèrent comme essentiels à leur objectif d'aider à l'alignement et à la sécurité des modèles non-OpenAI.

Notre avis

Les efforts de la nouvelle équipe Superalignment complètent ceux d'OpenAI pour rendre les modèles existants comme ChatGPT plus sûrs. Les différents problèmes posés par l'IA, tels que les abus, les perturbations économiques, la désinformation, les préjugés, la discrimination, la dépendance et la surdépendance, sont également au centre des préoccupations de l'OpenAI. Elle collabore avec des professionnels pluridisciplinaires pour s'assurer que ses solutions techniques répondent à des problèmes sociétaux et humains plus importants.

En se consacrant à la création de systèmes d'IA sûrs et compatibles, OpenAI est à l'origine de technologies révolutionnaires qui influenceront la manière dont l'humanité fonctionnera à l'avenir.

Auteur: Sakshi Khanna

Info: https://www.analyticsvidhya.com/blog/author/sakshi_raheja/ - Publié le 8 juillet 2023

[ homme-machine ] [ machine-homme ] [ conservation du pouvoir ] [ prépondérance de l'humain ]

 

Commentaires: 0

Ajouté à la BD par miguel

univers sons

Le son est-il le système nerveux du cosmos ?
Il existe un moyen de rendre les sons visibles. On appelle "cymatique" cette science énigmatique, qui puise ses racines dans l'histoire de l'univers. Quelle est la nature de l'onde sonore? Que sait-on vraiment de son pouvoir sur nous?
Allemagne, 18ème siècle. Ernst Chladni est un mathématicien doué et discret. L'homme est aussi musicien et sa passion pour le violon va le conduire à une découverte extraordinaire. Saupoudrant de sable un disque de cuivre, il en frotta le bord avec son archet. La plaque se mit à vibrer et le sable à se déplacer, dessinant d'authentiques formes géométriques. "Qu'on juge de mon étonnement voyant ce que personne n'avait encore vu", dira plus tard son ami et philosophe Lichtenberg, auteur de travaux sur l'électricité statique.
Dans les années soixante, le physicien Hans Jenny sera le premier à révéler ce phénomène oublié. Grâce à l'évolution de l'électronique, il prolonge les recherches et fait varier les supports. Il invente le tonoscope, petit appareil tubulaire assorti d'une membrane sur laquelle on aura versé de la poudre, qui permet de créer des formes étonnantes avec le son de sa voix. Plus d'un siècle après les premières expériences, Jenny livre des observations d'une grande précision sur la nature du son, et invente une nouvelle science : la cymatique. Du grec 'vague', la cymatique étudie l'interaction du son et de la matière. Les outils de mesure acoustique modernes ont permis d'étudier ces modulations spontanées : dans l'eau par exemple, un son grave produit un cercle entouré d'anneaux ; un son aïgu accroît le nombre d'anneaux concentriques. Soumise au rythme des oscillations, la variété de formes générées semble sans limite. Hans Jenny parlera de "modèle dynamique mais ordonné" Quel pouvoir autonome renferme l'onde sonore ?
Toute activité produit du bruit. Du plus retentissant au plus subtil, il est trace du mouvement. Christian Hugonnet, ingénieur acousticien et fondateur de la Semaine du Son, décrit un enchaînement simple : "l'action entraîne la vibration de l'air qui va déplacer des molécules, se choquant les unes aux autres comme pour se transmettre un message". Avant d'être une manifestation audible, le son se caractérise par un changement moléculaire, sur une surface donnée et en un temps donné. Dans cette équation, nul besoin d'oreille pour considérer qu'il y a dynamique sonore. C'est la fréquence de l'onde qui va diriger toute l'énergie. "Dans l'expérience avec le sable, les grains s'agglutinent là où la fréquence est haute", détaille le spécialiste. La propriété d'un corps à entrer en résonance avec le flux d'énergie va créer la forme. La matière prend la forme de l'énergie qui lui est adressée.
Le son primordial
Spirales, polygones, stries... ces marques sont souvent analogues à celles déjà présentes dans la nature. "J'ai constaté qu'une plaque elliptique soumise à des vibrations sonores reproduit les figures qu'on trouve sur la carapace d'une tortue", constate le photographe Alexander Lauterwasser. Une morphogenèse fondée sur la transmission de codes génétiques nécessaires à la formation des masses et à leur différenciation, et qui révèle un processus harmonieux dans l'ADN terrestre. Dès lors, est-il possible que les formes animales et végétales qui nous entourent – et la matière vivante dans son ensemble – soient elles-mêmes le résultat de vibrations, comme le rapportent de nombreuses traditions ?
Bien avant ces découvertes scientifiques, les cultures traditionnelles du monde entier ont développé leur récit mythologique de la création de l'univers. La voix et le souffle y sont féconds. "Au commencement était le verbe, dit l'Evangile. Les textes celtes sacrés évoquent Trois Cris qui firent éclater l'Oeuf du Monde", rapporte le Docteur Alain Boudet, enseignant et conférencier. "Chez les hindous et les bouddhistes, le principe structurant du chaos d'origine est le mantra Om et les Mayas parlent du chant des Dieux comme du système nerveux de l'univers". Une cosmogonie universelle, portée par des figures archétypales semblables aux formations cymatiques, telles que les mandalas. Ces mystérieuses corrélations entre figures naturelles et symboliques renverraient à une intuition de la forme, perdue avec le temps : "Cette géométrie originelle est en nous. Nous l'avons oubliée à mesure que le mental s'est imposé", raconte Alain Boudet. Dans son ouvrage Cymatics, le pionnier Hans Jenny conclut à la puissance fondamentale et génératrice de la vibration. Sa périodicité soutient la bipolarité de la vie : le mouvement et la forme. La vibration comme source de toute chose : un constat, mais aussi une opportunité de reconsidérer le monde dans lequel nous évoluons.
Echos d'avenir
Pythagore disait : "L'homme possède toutes les valeurs du cosmos". L'auteur du célèbre théorème de géométrie a développé le principe de microcosme, reliant l'organisme humain à l'organisation de l'univers. L'influence du son invite désormais à une nouvelle écoute du vivant. "La biorésonance nous renseigne sur la fréquence optimale de nos organes", explique Andreas Freund, physicien quantique. Au Tibet, les bols chantants sont reconnus pour leurs vertus. Leurs tonalités spécifiques communiquent avec la matière cristalline de notre corps : les os, les tissus et l'eau qui nous compose à 70%. Plus le son est grave, plus l'on travaillera la zone racine du corps. Comme la cymatique, notre résonance cellulaire trace un chemin pour la vibration, réharmonisant notre énergie interne. Un processus identique aux diapasons thérapeutiques employés depuis des siècles en Europe, dont les fréquences en hertz sont réglées pour des actions cibles. Mais pour masser nos entrailles, quel meilleur instrument que la voix ? Le chant harmonique des traditions chamaniques, aussi appelé chant diphonique dans nos conservatoires de musique, est une technique vocale sur deux notes simultanées, par un positionnement de la langue et des lèvres. Curiosité ou évidence biologique, ce son très apaisant ressemble à celui des vents solaires.
La vague de l'action contient à la fois l'intention et son empreinte. "Le son in-forme. Il est porteur d'information", nous dit Andreas Freund. Une attention portée aux messages de la nature, qui permet aujourd'hui de décrypter jusqu'au langage par ultrasons des dauphins ou la sensibilité des plantes. La dimension vibratoire du son sert de modèle dans une recherche de cohérence et d'alignement. Ses explorations scientifiques, artistiques et spirituelles offrent les clés d'une autre conscience de l'homme et de son environnement, vers une nouvelle signature écologique.

Auteur: De La Reberdiere Lucile

Info: https://www.inrees.com/articles/cymatique-son-systeme-nerveux-cosmos/

[ ondes ] [ proportions ] [ archétypes ]

 
Commentaires: 2
Ajouté à la BD par miguel

cognition

Les secrets de la conscience : l'imagerie cérébrale révèle pour la première fois des connexions critiques 

Des chercheurs américains ont réussi à cartographier un réseau cérébral essentiel dans l'intégration de l'éveil et de la conscience humaine, en utilisant des techniques d'IRM multimodales avancées. Cette approche offre de nouvelles pistes pour traiter certains troubles neurologiques.

(Image : illustration d'une galaxie dans la silhouette d'une tête humaine représentant l'éveil de la conscience)

Au cœur des neurosciences se trouve un défi complexe : comprendre les fondements de la conscience humaine. Entre éveil et perception, se dessinent des réseaux cérébraux dont les mystères ont longtemps échappé à nos outils d'observation. Mais grâce à la neuro-imagerie, les chercheurs ont identifié un réseau cérébral crucial pour la conscience humaine.

Dans un article publié le 1er mai 2024 dans Science Translational Medicine, un groupe de chercheurs du Massachusetts General Hospital et du Boston Children's Hospital, aux États-Unis, tous deux faisant partie du système de santé Mass General Brigham, ont réussi à cartographier un réseau cérébral sous-cortical crucial dans l'intégration de l'éveil et de la conscience humaine. 

Éveil et conscience : deux dimensions de l'activité cérébrale

L'éveil concerne l'activité et l'attention du cerveau, tandis que la conscience implique nos pensées et sensations résultant de l'intégration d'informations sensorielles et émotionnelles. Il est intéressant de noter que ces deux aspects de la conscience peuvent être dissociés, comme chez les patients en état végétatif qui présentent des cycles d'éveil mais une absence de conscience.

Si le cortex cérébral est considéré comme le siège principal des processus neuronaux de la conscience, les voies sous-corticales ascendantes du tronc cérébral, de l'hypothalamus, du thalamus et du cerveau basal sont essentielles pour l'éveil. Les voies ascendantes transportent des informations sensorielles et des signaux moteurs depuis le tronc cérébral vers le cerveau.

Visualiser les connexions cérébrales à une résolution submillimétrique

À l'aide de techniques d'IRM multimodales avancées, les chercheurs ont pu visualiser les connexions cérébrales à une résolution spatiale submillimétrique.

Cette approche leur a permis de cartographier des connexions jusqu'alors inconnues entre le tronc cérébral, le thalamus, l’hypothalamus, le prosencéphale basal et le cortex cérébral, formant ainsi ce qu'ils nomment le "réseau d'éveil ascendant par défaut", essentiel pour maintenir l'éveil.

Le tronc cérébral est une partie essentielle du cerveau située à la base, qui contrôle des fonctions vitales comme la respiration et la fréquence cardiaque. Le thalamus agit comme un relais pour les informations sensorielles, aidant à les transmettre au cortex cérébral pour le traitement. L’hypothalamus joue un rôle clé dans la régulation des fonctions corporelles telles que la faim, la soif, et le sommeil. Le prosencéphale basal est impliqué dans le contrôle des mouvements et des émotions. Le cortex cérébral est la couche externe du cerveau responsable des fonctions cognitives supérieures telles que la pensée, la perception et la conscience. Ensemble, ces régions forment un réseau appelé le "réseau d'éveil ascendant par défaut", crucial pour maintenir l'état de veille et la conscience dans le cerveau.

(Illustration : Anatomie du cerveau en coupe)

"Notre objectif était de cartographier un réseau cérébral (ensemble de régions du cerveau qui travaillent conjointement pour effectuer des fonctions spécifiques, connectées par des voies de communication neuronales) crucial pour la conscience humaine et de fournir aux cliniciens des outils améliorés pour détecter, prédire et favoriser la récupération de la conscience chez les patients atteints de graves lésions cérébrales", explique Brian Edlow, premier auteur de l'étude, co-directeur du Neuroscience Mass General et directeur associé du Center for Neurotechnology and Neurorecovery (CNTR), dans un communiqué.

Ce réseau " ascendant par défaut de l'éveil" maintient l'éveil dans le cerveau conscient au repos. Le concept d'un réseau " par défaut" repose sur l'idée que certains systèmes de neurones dans le cerveau sont le plus activement fonctionnels lorsque le cerveau est dans un état de repos conscient. En revanche, d'autres réseaux sont plus actifs lorsque le cerveau effectue des tâches dirigées vers des objectifs.

Intégration des données IRM pour cartographier le réseau cérébral

Pour étudier les propriétés fonctionnelles de ce réseau cérébral par défaut, les chercheurs ont combiné des techniques d'imagerie cérébrale avancées, intégrant des données de tractographie par IRM de diffusion ex vivo (cultures cellulaires) et d'IRM fonctionnelle (IRMf) in vivo (humain) à 7 Tesla (7-T).

Les données d'IRM ont ainsi permis de localiser les zones dans le cerveau et d'étudier leurs connexions à l'aide de techniques de tractographie par IRM de diffusion. L’analyse des données d'IRM fonctionnelle, quant à elle, a permis aux chercheurs de comprendre comment ces connexions influent sur l'état d'éveil et de conscience du cerveau humain.

Ces analyses ont finalement révélé des connexions fonctionnelles entre le réseau ascendant par défaut du tronc cérébral et le réseau mode par défaut cortical qui contribue à la conscience de soi dans le cerveau conscient au repos. Les cartes de connectivité structurelle et fonctionnelles complémentaires fournissent une base neuroanatomique pour intégrer l'éveil et la conscience dans la conscience humaine.

(image en coupe montrant un exemple de données de tractographie par IRM de diffusion. Il s'agit là d'une vue latérale du tractus moteur, le tractus corticospinal, d'un sujet humain.)

Feuille de route pour mieux comprendre 

"Les connexions cérébrales humaines que nous avons identifiées peuvent être utilisées comme une feuille de route pour mieux comprendre un large éventail de troubles neurologiques associés à une conscience altérée, allant du coma, aux crises, au syndrome de mort subite du nourrisson (SIDS)", précise Hannah Kinney, MD, Professeure Émérite à l'Hôpital pour Enfants de Boston et à l'École de Médecine de Harvard, dans un communiqué.

Les données de cette étude pourraient servir de base pour comprendre divers troubles neurologiques liés à une altération de la conscience. Les chercheurs ont mis à disposition des données IRM et des méthodes de cartographie cérébrale, ainsi qu'un nouvel atlas du Réseau Ascendant de l'Éveil de Harvard, pour soutenir de futures recherches dans ce domaine.

Les auteurs mènent actuellement des essais cliniques pour stimuler le réseau ascendant par défaut de l'éveil chez les patients en coma après une lésion cérébrale traumatique, dans le but de réactiver le réseau et de restaurer la conscience.

Auteur: Internet

Info: sciencesetavenir.fr - Juliette Frey le 10.05.2024

[ vigilance ] [ proencéphale basal ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

prospective technologique

9 Tendances de l'intelligence artificielle que vous devriez surveiller en 2019

1) Les puces activées par l'intelligence artificielle seront généralisées
Contrairement à d'autres technologies et outils logiciels, l'IA dépend fortement de processeurs spécialisés. Pour répondre aux exigences complexes de l'IA, les fabricants de puces créeront des puces spécialisées capables d'exécuter des applications compatibles avec l'IA.
Même les géants de la technologie comme Google, Facebook et Amazon dépenseront plus d'argent pour ces puces spécialisées. Ces puces seraient utilisées à des fins comme le traitement du langage naturel, la vision par ordinateur et la reconnaissance vocale.

2) L'IA et l'IdO (Internet des objets) se rencontrent
2019 sera l'année de la convergence des différentes technologies avec l'IA. L'IdO se joindra à l'IA sur la couche informatique de pointe. L'IdO industriel exploitera la puissance de l'IA pour l'analyse des causes profondes, la maintenance prédictive des machines et la détection automatique des problèmes.
Nous verrons la montée de l'IA distribuée en 2019. Le renseignement sera décentralisé et situé plus près des biens et des dispositifs qui effectuent les vérifications de routine. Des modèles d'apprentissage machine hautement sophistiqués, alimentés par des réseaux neuronaux, seront optimisés pour fonctionner à la fine pointe de la technologie.

3) Dites "Bonjour" à AutoML.
L'une des plus grandes tendances qui domineront l'industrie de l'IA en 2019 sera l'apprentissage automatique automatisé (AutoML). Grâce à ces capacités les développeurs seront en mesure de modifier les modèles d'apprentissage machine et de créer de nouveaux modèles prêts à relever les défis futurs de l'IA.
AutoML (Cloud AutoMLB, modèles de machine learning personnalisés de haute qualité) trouvera le juste milieu entre les API cognitives et les plates-formes d'apprentissage sur mesure. Le plus grand avantage de l'apprentissage automatique sera d'offrir aux développeurs les options de personnalisation qu'ils exigent sans les forcer à passer par un flux de travail complexe. Lorsque vous combinez les données avec la portabilité, AutoML peut vous donner la flexibilité que vous ne trouverez pas avec d'autres technologies AI.

4) Bienvenue chez AIOps (intelligence artificielle pour les opérations informatiques)
Lorsque l'intelligence artificielle est appliquée à la façon dont nous développons les applications, elle transforme la façon dont nous gérions l'infrastructure. DevOps sera remplacé par AIOps et permettra au personnel de votre service informatique d'effectuer une analyse précise des causes profondes. De plus, cela vous permettra de trouver facilement des idées et des modèles utiles à partir d'un vaste ensemble de données en un rien de temps. Les grandes entreprises et les fournisseurs de cloud computing bénéficieront de la convergence de DevOps avec AI.

5) Intégration du réseau neuronal
L'un des plus grands défis auxquels les développeurs d'IA seront confrontés lors du développement de modèles de réseaux neuronaux sera de choisir le meilleur framework. Mais, avec des douzaines d'outils d'IA disponibles sur le marché, choisir le meilleur outil d'IA pourrait ne pas être aussi facile qu'avant. Le manque d'intégration et de compatibilité entre les différentes boîtes à outils des réseaux de neurones entrave l'adoption de l'IA. Des géants technologiques tels que Microsoft et Facebook travaillent déjà au développement d'un réseau neuronal ouvert (ONNX). Cela permettra aux développeurs de réutiliser les modèles de réseaux neuronaux sur plusieurs frameworks.

6) Les systèmes d'IA spécialisés deviennent une réalité.
La demande de systèmes spécialisés augmentera de façon exponentielle en 2019. Les organisations ont peu de données à leur disposition, mais ce qu'elles veulent, ce sont des données spécialisées.
Cela obligera les entreprises à se doter d'outils qui peuvent les aider à produire des données d'IA de grande qualité à l'interne. En 2019, l'accent sera mis sur la qualité des données plutôt que sur la quantité. Cela jettera les bases d'une IA qui pourra fonctionner dans des situations réelles. Les entreprises se tourneront vers des fournisseurs de solutions d'IA spécialisés qui ont accès à des sources de données clés et qui pourraient les aider à donner du sens à leurs données non structurées.

7) Les compétences en IA détermineront votre destin.
Même si l'IA a transformé toutes les industries auxquelles vous pouvez penser, il y a une pénurie de talents avec des compétences en IA. Pat Calhoun, PDG d'Espressive a déclaré : " La plupart des organisations souhaitent intégrer l'IA dans leur transformation numérique, mais n'ont pas les développeurs, les experts en IA et les linguistes pour développer leurs propres solutions ou même former les moteurs des solutions préconçues pour tenir leurs promesses ".
Rahul Kashyap, PDG d'Awake Security, ajoute : "Avec autant de solutions'AI-powered' disponibles pour répondre à une myriade de préoccupations commerciales, il est temps que les entreprises deviennent plus intelligentes sur ce qui se passe dans la 'boîte noire' de leurs solutions AI". La façon dont les algorithmes d'IA sont formés, structurés ou informés peut conduire à des différences significatives dans les résultats, poursuit-il. La bonne équation pour une entreprise ne sera pas la bonne pour une autre."

8) L'IA tombera dans de mauvaises mains
Tout comme une pièce de monnaie à deux faces, l'IA a un côté positif et un côté négatif. Les professionnels de la sécurité informatique utiliseront l'intelligence artificielle pour détecter rapidement les activités malveillantes. Vous pouvez réduire les faux positifs de 90 % à l'aide d'algorithmes de réponse et d'apprentissage machine pilotés par l'intelligence artificielle.
L'intelligence artificielle tombera entre de mauvaises mains et les cybercriminels aux desseins malveillants en abuseront pour réaliser leurs objectifs. Avec l'automatisation, les armées de cyberattaquants peuvent lancer des attaques mortelles avec plus de succès. Cela obligera les entreprises à combattre le feu par le feu et à investir dans des solutions de sécurité alimentées par l'IA capables de les protéger contre de telles attaques.

9) Transformation numérique alimentée par l'IA
En 2019, l'IA sera partout. Des applications Web aux systèmes de soins de santé, des compagnies aériennes aux systèmes de réservation d'hôtels et au-delà, nous verrons des nuances de l'IA partout et elle sera à l'avant-garde de la transformation numérique.
Tung Bui, président du département informatique et professeur à l'Université d'Hawaii a déclaré : "Contrairement à la plupart des prédictions et des discussions sur la façon dont les véhicules et les robots autonomes finiront par affecter le marché du travail - ceci est vrai mais prendra du temps pour des raisons institutionnelles, politiques et sociales - je soutiens que la tendance principale en IA sera une accélération dans la transformation numérique, rendant plus intelligent les systèmes commerciaux existants".

Auteur: Internet

Info: zero hedge, 1 mars 2019

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

interdépendances

La première idée de Gaïa naît donc du raisonnement suivant  : "Si les humains actuels, par leur industrie, peuvent répandre partout sur Terre des produits chimiques que je détecte par mes instruments, il est bien possible que toute la biochimie terrestre soit, elle aussi, le produit des organismes vivants. Si les humains modifient si radicalement leur environnement en si peu de temps, alors les autres vivants peuvent l’avoir fait, eux aussi, sur des centaines de millions d’années." La Terre est bel et bien une sorte de technosphère artificiellement conçue dont les vivants seraient les ingénieurs aussi aveugles que les termites. Il faut être ingénieur et inventeur comme Lovelock pour comprendre cette intrication.

Gaïa n’a donc rien d’une idée New Age sur l’équilibre millénaire de la Terre, mais émerge au contraire d’une situation industrielle et technologique très particulière : une violente rupture technologique, mêlant la conquête de l’espace, la guerre nucléaire et la guerre froide, que l’on résume désormais par le terme d’ "anthropocène" et qui s’accompagne d’une rupture culturelle symbolisée par la Californie des années 1960. Drogue, sexe, cybernétique, conquête spatiale, guerre du Vietnam, ordinateurs et menace nucléaire, c’est la matrice où naît l’hypothèse Gaïa : dans la violence, l’artifice et la guerre. Toutefois le trait le plus étonnant de cette hypothèse est qu’elle tient au couplage de deux analyses diamétralement opposées. L’analyse de Lovelock imagine la Terre vue de Mars comme un système cybernétique. Et celle de Lynn Margulis regarde la planète par l’autre bout de la lorgnette, à partir des plus minuscules et des plus anciens des organismes vivants.

A l’époque, dans les années 1970, Margulis est l’exemple typique de ce que les Anglais appellent une maverick : une dissidente qui secoue les néodarwiniens alors en plein essor. L’évolution, dans leur esprit, suppose l’existence d’organismes suffisamment séparables les uns des autres pour qu’on leur attribue un degré de réussite inférieur ou supérieur aux autres. Or Margulis conteste l’existence même d’individus séparables : une cellule, une bactérie ou un humain. Pour la simple et excellente raison qu’ils sont "tous entrelacés", comme l’indique le titre d’un livre récent.

Une cellule est une superposition d’êtres indépendants, de même que notre organisme dépend non seulement de nos gènes, mais de ceux des bestioles infiniment plus nombreuses qui occupent notre intestin et couvrent notre peau. Il y a bien évolution, mais sur quel périmètre porte celle-ci et quels sont les participants entrelacés qui en tirent profit, voilà qui n'est pas calculable. Les gènes ont beau être "égoïstes", comme l’avançait naguère Richard Dawkins, le problème est qu’ils ne savent pas où s’arrête exactement leur ego ! Chose intéressante, plus le temps passe, plus les découvertes de Margulis prennent de l’importance, au point qu’elle s’approche aujourd’hui de l’orthodoxie grâce à l’extension foudroyante du concept de holobionte, terme qui résume à lui seul la superposition des vivants pliés les uns dans les autres.

Que se passe-t-il quand on combine l’intuition de Lovelock avec celle de Margulis ? Au cours du séminaire auquel je participe le lendemain avant que la neige ne vienne ensevelir le sud de l’Angleterre, la réponse m’apparaît assez clairement : la théorie Gaïa permet de saisir les "puissances d’agir" de tous les organismes entremêlés sans aussitôt les intégrer dans un tout qui leur serait supérieur et auquel ils obéiraient. En ce sens, et malgré le mot "système", Gaïa n’agit pas de façon systématique, en tout cas ce n'est pas un système unifié. Comme Lenton le démontre, selon les échelles d’espace et de temps, la régulation est très forte ou très lâche : l’homéostasie d’un organisme et la régulation plutôt erratique du climat ne sont pas du même type. C’est que la Terre n'est pas un organisme. Contrairement à tous les vivants, elle se nourrit d’elle-même en quelque sorte, par un recyclage continu avec très peu d’apport extérieur de matière (en dehors bien sûr de l’énergie solaire). On ne peut même pas dire que Gaïa soit synonyme du globe ou du monde naturel puisque, après tout, les vivants, même après plusieurs milliards d’années d’évolution, ne contrôlent qu’une mince pellicule de la Terre, une sorte de biofilm, ce que les chercheurs avec qui je travaille maintenant appellent "zones critiques".

Je comprends alors les erreurs commises dans l’interprétation de la théorie Gaïa par ceux qui l’ont rejetée trop vite comme par ceux qui l’ont embrassée avec trop d’enthousiasme : les premiers autant que les seconds ont projeté une figure de la Terre, du globe, de la nature, de l’ordre naturel, sans prendre en compte le fait qu’il s’agissait d’un objet unique demandant une révision générale des conceptions scientifiques.

Ah mais alors j’avais bien raison d’établir un parallèle avec Galilée ! Bloqué sous ma couette en attendant qu’il pleuve assez pour que les Anglais osent se risquer hors de chez eux, je comprenais cette phrase étonnante de Lovelock : "L’hypothèse Gaïa a pour conséquence que la stabilité de notre planète inclut l’humanité comme une partie ou un partenaire au sein d’un ensemble parfaitement démocratique." Je n’avais jamais compris cette allusion à la démocratie chez un auteur qui ne la défendait pas particulièrement. C’est qu’il ne s’agit pas de la démocratie des humains mais d’un renversement de perspective capital pour la suite.

Avant Gaïa, les habitants des sociétés industrielles modernes, quand ils se tournaient vers la nature, y voyaient le domaine de la nécessité, et, quand ils considéraient la société, ils y voyaient, pour parler comme les philosophes, le domaine de la liberté. Mais, après Gaïa, il n’y a plus littéralement deux domaines distincts : aucun vivant, aucun animé n’obéit à un ordre supérieur à lui et qui le dominerait ou auquel il lui suffirait de s’adapter – cela est vrai des bactéries comme des lions ou des sociétés humaines. Cela ne veut pas dire que tous les vivants soient libres au sens un peu simplet de l’individualisme puisqu’ils sont entrelacés, pliés, intriqués les uns dans les autres. Cela veut dire que la question de la liberté et de la dépendance vaut autant pour les humains que pour les partenaires du ci-devant monde naturel.

Galilée avait inventé un monde d’objets, posés les uns à côté des autres sans s’influencer et entièrement soumis aux lois de la physique. Lovelock et Margulis dessinent un monde d’agents qui interagissent sans cesse entre eux.

Auteur: Latour Bruno

Info: L’OBS/N°2791-03/05/2018

[ interactions ] [ redistribution des rôles ]

 
Commentaires: 2
Ajouté à la BD par miguel

peur du vide

En 1930, John Maynard Keynes avait prédit que d’ici la fin du siècle, les technologies seraient suffisamment avancées pour que des pays comme le Royaume-Uni ou les États-Unis mettent en place une semaine de travail de 15 heures. Tout laisse à penser qu’il avait raison. En termes technologiques, nous en sommes tout à fait capables. Et pourtant cela n’est pas arrivé. Au contraire, la technologie a été mobilisée dans le but de trouver des moyens de nous faire travailler plus. Pour cela, des emplois effectivement inutiles, ont dû être créés. Des populations entières, en Europe et en Amérique du Nord particulièrement, passent toute leur vie professionnelle à effectuer des tâches dont ils pensent secrètement qu’elles n’ont vraiment pas lieu d’être effectuées. Les dommages moraux et spirituels que cette situation engendre sont profonds. Ils sont une cicatrice sur notre âme collective. Et pourtant presque personne n’en parle.

Pourquoi l’utopie promise par Keynes — et qui était encore très attendue dans les années 60 — ne s’est-elle jamais matérialisée ? La réponse standard aujourd’hui est qu’il n’a pas pris en compte la croissance massive du consumérisme. Entre moins d’heures passées à travailler et plus de jouets et de plaisirs, nous avons collectivement opté pour la deuxième alternative. Il s’agit d’une jolie fable morale, sauf qu’en l’analysant, ne serait-ce qu’un court instant, nous comprenons que cela n’est pas vrai. Oui, nous avons été les témoins de la création d’une grande variété d’emplois et d’industries depuis les années 20, mais très peu d’entre eux ont un rapport avec la production et la distribution de sushis, d’iPhones ou de baskets à la mode.

Quels sont donc ces nouveaux emplois précisément ? Un rapport récent comparant l’emploi aux États-Unis entre 1910 et 2000 nous en donne une image claire et nette (il faut au passage souligner qu’un rapport similaire a été produit sur l’emploi au Royaume-Uni). Au cours du siècle dernier, le nombre de travailleurs, employés dans l’industrie ou l’agriculture a considérablement chuté. Parallèlement, les emplois de "professionnels, administrateurs, managers, vendeurs et employés de l’industrie des services" ont triplé, passant "de un quart à trois quarts des employés totaux". En d’autres termes, les métiers productifs, comme prédit, ont pu être largement automatisés (même si vous comptez les employés de l’industrie en Inde et Chine, ce type de travailleurs ne représente pas un pourcentage aussi large qu’avant).

Mais plutôt que de permettre une réduction massive des heures de travail pour libérer la population mondiale afin qu’elle poursuive ses propres projets, plaisirs, visions et idées, nous avons pu observer le gonflement, non seulement des industries de "service", mais aussi du secteur administratif, et la création de nouvelles industries comme les services financiers, le télémarketing, ou l’expansion sans précédent de secteurs comme le droit corporatiste, les administrations universitaires et de santé, les ressources humaines ou encore les relations publiques. Et ces chiffres ne prennent pas en compte tous ceux qui assurent un soutien administratif, technique ou sécuritaire à toutes ces industries, voire à toutes les autres industries annexes rattachées à celles-ci (les toiletteurs pour chiens, les livreurs de pizzas ouverts toute la nuit) qui n’existent que parce que tous les autres passent la majeure partie de leur temps à travailler pour les premières.

C’est ce que je propose d’appeler des "métiers à la con".

C’est comme si quelqu’un inventait des emplois inutiles, dans le seul but de continuer à nous faire tous travailler. Et c’est ici que réside tout le mystère. Dans un système capitaliste, c’est précisément ce qui n’est pas censé se produire. Dans les anciens et inefficaces états socialistes, comme l’URSS, où l’emploi était considéré à la fois comme un droit et un devoir sacré, le système fabriquait autant d’emploi que nécessaire (c’est une des raisons pour lesquelles il fallait trois personnes dans les supermarchés pour vous servir un morceau de viande). Mais, bien sûr, c’est précisément le genre de problème que la compétition de marché est censée régler. Selon les théories économiques, en tout cas, la dernière chose qu’une entreprise recherchant le profit va faire, c’est de débourser de l’argent à des employés qu’elle ne devrait pas payer. C’est pourtant ce qui se produit, d’une certaine façon.

Alors que les entreprises s’engagent dans des campagnes de restrictions impitoyables, ces licenciements touchent principalement la classe des gens qui produisent, déplacent, réparent ou maintiennent les choses; alors qu’à travers une étrange alchimie que personne ne peut expliquer, le nombre de "gratte-papier" semble gonfler, et de plus en plus d’employés finissent, à l’instar des travailleurs de l’ex-URSS, par travailler 40 ou 50 heures par semaine, mais avec un temps effectif de travail utile de 15 heures, exactement comme Keynes l’avait prédit, puisque le reste de leur temps consiste à organiser ou à participer à des séminaires de motivation, à mettre à jour leur profil Facebook ou à télécharger des séries télévisées.

La réponse n’est de toute évidence pas économique : elle est morale et politique. La classe dirigeante a compris qu’une population heureuse, productive et bénéficiant de temps libre est un danger mortel (pensez à ce qui s’est passé lorsque cela a commencé à se réaliser dans les années 60). Et, d’un autre côté, le sentiment selon lequel le travail étant une valeur morale intrinsèque et que quiconque refusant de se soumettre à une forme intense de travail pendant ses journées ne mérite rien, est extraordinairement pratique pour eux.

Autrefois, considérant l’augmentation apparemment infinie des responsabilités administratives dans les départements universitaires britanniques, j’en ai déduit une vision possible de l’enfer. L’enfer, c’est un groupe d’individus qui passent le plus clair de leur temps à effectuer des tâches qu’ils n’aiment pas et pour lesquelles ils ne sont pas spécialement doués. Disons qu’ils ont été engagés parce qu’ils étaient de très bons menuisiers, et qu’ils découvrent ensuite qu’ils doivent passer une grande partie de leur temps à cuire du poisson. Effectuer cette tâche n’est pas non plus indispensable, mais au moins il y a une quantité très limitée de poissons à faire cuire. Et pourtant, ils deviennent tous complètement obsédés par le fait que certains de leurs collègues passent peut-être plus de temps à faire de la menuiserie sans contribuer de manière équitable à faire frire du poisson et, très rapidement, des piles entières de poisson mal cuits et inutiles envahissent l’atelier, et cuire du poisson est devenu l’activité principale.

Auteur: Graeber David

Info: Thought Info http://partage-le.com/2016/01/a-propos-des-metiers-a-la-con-par-david-graeber/

[ déséquilibre ] [ absurde ] [ diminution du travail ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

léviathan

Le calamar géant qui a fait trembler les mers

Il a fallu plusieurs siècles aux savants pour donner crédit aux récits des marins attaqués par un terrifiant monstre marin. Le calamar géant devint un personnage littéraire à part entière au travers d’œuvres telles que Les Travailleurs de la mer de Victor Hugo ou Vingt Mille Lieues sous les mers de Jules Verne.

Les chroniques et les sagas nordiques du Moyen-Âge décrivent un terrifiant monstre marin qui faisait la taille d’une île et se déplaçait dans les mers séparant la Norvège de l’Islande. Au XIIIe siècle, la saga islandaise Örvar-Oddr parle du "monstre le plus grand de la mer", capable d’avaler "des hommes, des bateaux et même des baleines". 

Cette intrigante apparition revient dans des textes ultérieurs, comme la chronique du Suédois Olaus Magnus, qui décrit au XVIe siècle de colossales créatures, capables de couler un bateau. Ce type de récits continue de circuler au XVIIIe siècle, époque à laquelle ce monstre commence à être connu sous le nom de kraken (littéralement “arbre déraciné”), un terme norvégien désignant une réalité pour le moins fantasque. Dans son Histoire naturelle de la Norvège (1752), Erik Ludvigsen Pontoppidan, évêque de Bergen, décrit en effet le kraken comme "une bête d’un mille et demi de long qui, si elle s’accroche au plus grand navire de guerre, le fait couler jusqu’au fond" et précise qu’il "vit dans les fonds marins, dont il ne remonte qu’une fois réchauffé par les feux de l’enfer".

Pourtant, ces descriptions ne sortaient pas totalement de l’imagination de leurs auteurs. Erik Ludvigsen Pontoppidan nota par exemple que "les décharges de l’animal troublaient l’eau" ; il pourrait donc s’agir d’un calamar géant. L’histoire du kraken est liée aux péripéties vécues dans des mers inconnues par des marins qui les relataient à leur retour. Si les marins nordiques s’étaient limités à l’Atlantique Nord, l’entrée dans la modernité a toutefois étendu le champ d’observation à l’ensemble du Pacifique.

Certains marins ont parlé d’un "diable rouge", un calamar qui attrapait et dévorait des naufragés ; d’autres ont évoqué des animaux marins insatiables, mesurant de 12 à 13 m de longueur. La succession de témoignages d’officiers de marine racontant avoir été confrontés à ces créatures déconcertait les scientifiques. Si le célèbre naturaliste suédois Carl von Linné, le père de la taxonomie moderne, inclut le kraken dans son Systema naturae (1735), la plupart des scientifiques n’étaient pas prêts à assumer l’existence du terrible monstre nordique. Le sort injuste que subit le Français Pierre Denys de Montfort illustre cette fermeture d’esprit. Dans son Histoire naturelle générale et particulière des mollusques, le naturaliste consigna en 1801 l’existence des animaux "[les plus grands] de la Nature quant à notre planète" : le "poulpe colossal"et le "poulpe kraken". Il se fondait sur des récits nordiques et des témoignages de marins contemporains, qu’il mit en relation avec un animal similaire cité par le naturaliste romain Pline l’Ancien. Il inclut dans son oeuvre une illustration représentant l’attaque d’un navire par un poulpe géant au large de l’Angola, qui devint l’image emblématique du kraken, mais suscita le rejet unanime de la communauté scientifique et le discrédita à vie.

Or, les témoignages sur l’existence de cet animal légendaire continuaient à se succéder. Le capitaine de baleinier Frank Bullen raconta ainsi qu’il avait sans l’ombre d’un doute assisté au combat d’un "énorme cachalot" avec un "gigantesque calamar". Selon sa description, les yeux de l’animal étaient situés à la base de ses tentacules, corroborant l’idée qu’il s’agissait plutôt d’un calamar (pieuvre et poulpe possédant des bras, mais pas de tentacules).

L’épisode qui marqua un tournant dans l’histoire des calamars géants se produisit en 1861, lorsque le navire français Alecton se trouva confronté à un céphalopode de 6 m de long au nord-est de Ténériffe, dans l’Atlantique. Son commandant, le capitaine de frégate Frédéric Bouyer, relata cette rencontre dans un rapport qu’il soumit à l’Académie des sciences : l’animal "semblait vouloir éviter le navire", mais le capitaine se disposa à le chasser en lui lançant des harpons et en lui tirant des coups de fusil. Il ordonna même de le "garrotter […] et de l’amener le long du bord", mais la créature finit par s’enfoncer dans les profondeurs. Frédéric Bouyer conserva ainsi un morceau du calamar, qu’il fit parvenir au prestigieux biologiste Pierre Flourens. 

Le calamar géant devint un personnage littéraire à part entière au travers d’œuvres telles que Les Travailleurs de la mer de Victor Hugo ou Vingt Mille Lieues sous les mers de Jules Verne. Toujours avide de nouvelles découvertes scientifiques, Jules Verne décrivit dans son roman l’épisode de l’Alecton et toutes les références mythiques et historiques à l’animal ; il y inclut aussi l’attaque d’un calamar contre le Nautilus lui-même. Les scientifiques analysèrent pour leur part les témoignages de marins et les restes de calamars récupérés en mer ou échoués, et conclurent qu’il s’agissait d’une espèce particulière, qu’ils baptisèrent Architeuthis dux.

Le mystère continue de planer autour de cet animal. On ne sait presque rien de son cycle de vie ni de ses habitudes, ni même s’il s’agit d’une seule espèce de calamar. Seules une équipe de scientifiques japonais et une chaîne nord-américaine ont pu le filmer de manière brève respectivement en 2006 et 2012. On sait malgré tout que les mâles mesurent environ 10 m de long et les femelles 14. Son oeil, le plus grand du règne animal, peut mesurer jusqu’à 30 cm de diamètre. 

L’habitat de cet animal se situe dans des profondeurs extrêmes, surtout dans l’océan Pacifique, mais aussi dans l’Atlantique. Il trouve par exemple refuge dans le canyon d’Avilés, à 5 000 m de profondeur au large des Asturies. Habitués à en rencontrer lorsqu’ils partent en mer, les pêcheurs locaux n’ont guère accordé d’importance à la controverse autour de son existence. Cet animal leur est si familier qu’ils lui ont même donné un nom : le peludín ("petit velu") ; un musée, qui lui est consacré, a par ailleurs ouvert ses portes en 1997 à Luarca, sur la côte des Asturies. 

Qu’on l’appelle peludín ou Architeuthis dux, on sait désormais avec certitude que cet animal existe, même s’il n’est pas aussi sauvage que la créature sortie de l’imagination nordique et des bestiaires de la Renaissance. Il est désormais si réel que seuls notre abandon de l’exploration sous- marine et l’absence de progrès de la science entravent encore son étude et la connaissance que nous en avons. D’ici là, le mystère qui l’entoure continuera d’alimenter des légions de cryptozoologues résolus à ressusciter le kraken, mais aussi les créatures les plus romantiques de nos vieilles légendes marines.

Auteur: Armendariz Xabier

Info: sur https://www.nationalgeographic.fr/, 6 juillet 2021

[ mythologie ] [ homme-animal ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste