Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 155
Temps de recherche: 0.0571s

métadonnées à valeur ajoutée MVA

"Ils profitent de notre pauvreté" : derrière le boom des intelligences artificielles génératives, le travail caché des petites mains de l'IA 

(Photo : 
Une masse d'hommes et de femmes invisibles, partout dans le monde, analysent des quantités colossales de données pour améliorer, caratériser et contextualiser les intelligences artificielles. )

La création d'algorithmes tels que ChatGPT ou Midjourney nécessite des quantités colossales de données, analysées par des humains. Des "annotateurs" indispensables mais souvent précaires, faiblement rémunérés et maintenus dans l'ombre.

"Des descriptions graphiques de viol, d'inceste, de nécrophilie... C'était ça tous les jours."  En 2021, Mophat Okinyi doit relire chaque jour plusieurs centaines de textes fournis à l'entreprise de traitement de données Sama par un client inconnu, pour entraîner un modèle d'intelligence artificielle (IA). L'objectif : préciser au logiciel ce qui pose problème dans ces textes, pour qu'il ne le reproduise pas.

Un travail rémunéré 21 000 shillings kenyans par mois (environ 150 euros) pour les employés du bas de l'échelle dont Mophat contrôlait l'activité. Cela a laissé chez lui des traces à vie. "Encore aujourd'hui, ça affecte mes relations avec ma famille, mes proches", explique l'analyste qualité kenyan. La mission qu'il décrit rappelle l'horreur à laquelle sont souvent confrontés les modérateurs des réseaux sociaux et répondait en fait, comme il le découvrira plus tard, à une commande de la start-up à la pointe de l'IA à l'origine de ChatGPT : OpenAI.

Le cas de Mophat Okinyi, extrême sous certains aspects, n'est pas non plus un exemple isolé, car derrière les grands discours de révolution technique se cache une masse de travailleurs invisibles dont les rangs se comptent en centaines de millions, selon des estimations. "On n'est pas du tout en train de créer des programmes qui se passent de l'humain, résume Antonio Casilli, professeur à l'Institut polytechnique de Paris. L'IA demande une quantité de travail humain énorme et absolument indispensable, dans toute la chaîne de production".

La majorité de cette masse humaine est très loin des grands patrons ou des ingénieurs renommés. Elle est constituée d'une armada de travailleurs anonymes éclatée à travers le monde, du Venezuela à Madagascar en passant par des camps de réfugiés au Liban et des prisons finlandaises. Des petites mains qui construisent le futur clic après clic, souvent dans un secret et une précarité bien gardés.

Cliquer encore et encore

Le prix de cette modernité ? Aux Philippines, entre 1,50 et 3 dollars par "tâche". C'est ce que la plateforme de travailleurs indépendants Remotasks verse en moyenne à Eduardo* pour placer, clic par clic, pixel par pixel, les contours qui délimitent sur une image un panneau de signalisation. Puis un véhicule. Puis un buisson. Une "tâche" qui lui prend en général une heure ou moins et qu'il répète inlassablement, huit heures par jour, six jours par semaine. Ces images serviront ensuite à entraîner des algorithmes d'analyse vidéo, par exemple pour les voitures autonomes ou la surveillance algorithmique. "C'est un travail intéressant", assure à franceinfo le jeune Philippin, qui travaille sur la plateforme depuis un peu plus de trois ans. Tout le monde ne sera pas du même avis, mais sans lui, l'appareil photo de votre smartphone aurait beaucoup de mal à identifier un visage, et la conduite semi-autonome de Tesla serait encore un rêve de science-fiction. Et vous-même y avez déjà contribué.

Que ce soit en laissant un "j'aime" sur Facebook ou en identifiant les images contenant une voiture dans un test captcha, vos retours participent à entraîner des algorithmes gratuitement depuis des années. Mais pour créer les IA qui ont bluffé le monde ces derniers mois, comme ChatGPT ou Midjourney, il faut des milliards d'exemples. Des données qui doivent souvent être "annotées", autrement dit accompagnées de commentaires, pour que la machine reproduise les catégories d'analyse de l'humain : faire comprendre que "ce tas de pixels est un enfant", que "cette phrase est fausse" ou que "cet élément évoque des comportements illégaux et ne doit pas être reproduit".

Et l'entraînement ne s'arrête jamais. "C'est un peu comme des athlètes, compare Antonio Casilli. Il faut constamment les entraîner, les adapter, les vérifier". Il s'agit d'évaluer les réponses, en soumettant aux IA des exemples toujours plus précis ou adaptés au nouveau contexte culturel. Autant de tâches qu'il est actuellement impossible d'automatiser.

"Ce n'est pas suffisant, mais c'est déjà quelque chose"

Astro* est l'un de ces nouveaux "entraîneurs d'IA". L'entrepreneur originaire de Tanzanie, qui a récemment terminé ses études de linguistique en France, réalise des tâches en indépendant à temps partiel via la plateforme Appen. "Il faut parfois isoler un visage dans une photo, dire si une image devrait apparaître dans la rubrique Souvenirs de Google Photos, si un texte est factuel ou non, créer des questions/réponses de culture générale...", explique-t-il à franceinfo. Il doit pour cela suivre des règles souvent très détaillées ("Cinquante pages à apprendre par cœur !"), au point d'en devenir parfois obscures. A la clé : 16 dollars de l'heure sur ses projets actuels. "Plus tu travailles, plus tu gagnes", explique l'indépendant. Mais encore faut-il être sélectionné pour participer au projet.

A l'autre bout du spectre, des entreprises embauchent des annotateurs en interne, notamment pour des tâches qui nécessitent une expertise précise. Mais pour nombre d'entre elles, la solution la plus rentable est souvent la sous-traitance : à des entreprises dans d'autres pays qui embauchent des annotateurs localement, comme Sama, ou encore à des plateformes comme Remotasks, Appen ou Toloka, qui transfèrent les missions à des travailleurs indépendants payés à la "micro-tâche".

"Ces travailleurs sont souvent recrutés dans des pays à faibles revenus, et géopolitiquement instables." Antonio Casilli, professeur à l'Institut polytechnique de Paris

A ces critères, Antonio Casilli ajoute des taux d'éducation et d'équipement informatique importants, l'existence d'une industrie de centres d'appels ou des relations fortes avec une ancienne puissance coloniale. Plusieurs noms de pays reviennent souvent : les Philippines, Madagascar, le Kenya, le Venezuela, le Pakistan…

Dans ces pays, un tel travail représente souvent un filet de sécurité précieux. "Ce n'est pas une source de travail fixe ou suffisante, mais c'est au moins quelque chose, résume Maria*. La crise économique au Venezuela a forcé beaucoup d'entre nous à quitter le marché du travail", raconte à franceinfo l'ingénieure industrielle, qui s'est lancée sur Remotasks à la faveur du confinement, en 2020. Après avoir suivi une formation, elle travaille aujourd'hui trois jours par semaine sur la plateforme, à raison de 10 heures par jour.

Pour quel salaire ? "Les tâches de catégorisation données par Remotasks au Venezuela peuvent prendre seulement quelques minutes et être payées 11 centimes de dollar, détaille Maria. D'autres beaucoup plus complexes peuvent durer huit heures ou plus, comme l'annotation de vidéos ou de données lidar, et être payées 10 dollars." Mais tout dépend du pays et de la difficulté de la tâche. Un "eldorado" relatif qui attire, y compris parfois des mineurs qui mentent sur leur âge pour rejoindre ces plateformes de micro-tâches, raconte le site spécialisé Wired. 

Précarité et dépendance

Mais ces espoirs ne suffisent pas à en faire un emploi de rêve. Même si une tâche peut être payée correctement par rapport au marché local, les travailleurs du clic déplorent souvent la différence de traitements entre les pays. "Les entreprises profitent de notre pauvreté", estime Andry*, annotateur à Madagascar, pour qui "un agent en Inde ou au Maroc sera mieux payé que nous". Le mode de calcul des rémunérations n'est jamais précisément expliqué.

"Il y a clairement une forme de néo-colonialisme."

Antonio Casilli, professeur à l'Institut polytechnique de Paris

Pour gagner des sommes correctes, les indépendants doivent être disponibles à toute heure du jour et de la nuit et s'adapter à des projets aux durées variables. "Sur Appen, les tâches arrivent à l'heure américaine, donc vers 21 heures en France", explique par exemple Astro*. "Sur une autre plateforme, j'ai reçu une tâche vendredi vers 19 heures, j'ai travaillé 45 heures sur le week-end, j'ai gagné 1 200 euros", résume Astro, qui dit apprécier le travail de nuit. 

Ce que certains voient comme une "opportunité professionnelle" peut aussi se transformer en piège. En Chine, des établissements promettent à leurs étudiants une formation en "IA" ou en "Big data", mais les forcent à annoter des images toute la journée pour un salaire inférieur au minimum légal, raconte le média Rest of World. Cette pratique n'est pas spécifique à la Chine, assure Antonio Casilli, qui cite également l'exemple de Madagascar.

"L'IA ne peut pas être éthique si elle est entraînée de façon immorale"

A qui profite ce travail souvent ingrat, parfois à la frontière de l'éthique ? Difficile de le savoir : l'industrie baigne dans un épais voile de secret, et comme dans le cas de Mophat Okinyi, les annotateurs indépendants savent rarement à qui sont destinées les données qu'ils traitent. "Je sais que le client est au Japon, mais c'est tout. On ne nous a rien dit sur eux", note Eduardo* à propos d'une de ses missions d'annotation, fournie par Remotasks aux Philippines.

"Les entreprises d'IA expliquent que si elles étaient pleinement transparentes sur leurs besoins en données, cela pourrait donner des indices sur leurs projets en cours et influencer les réponses des contributeurs", résume Antonio Casilli d'un ton sceptique. "Elles veulent échapper à leurs responsabilités", assène Mophat Okinyi, qui ne savait pas que son travail servirait à OpenAI avant la fin anticipée du contrat, à la demande de Sama, en mars 2022. 

"Si les annotateurs savaient qu'ils travaillent pour une entreprise qui génère des centaines de millions de dollars comme OpenAI, ils n'accepteraient pas des salaires si bas." Mophat Okinyi, ex-analyste qualité chez Sama

Ce travail peut-il être organisé de manière à satisfaire tout le monde, géants de la tech comme travailleurs du clic ? "Il faut plus de transparence, les entreprises basées à San Francisco doivent prendre leurs responsabilités", réclame Mophat Okinyi. Il s'est associé à 150 travailleurs du secteur de l'annotation et de la modération des plateformes pour créer l'Union des modérateurs de contenus du Kenya, qui devrait être autorisée "dans les deux mois", et a cofondé l'ONG Techworker Community Africa pour militer en faveur de meilleurs pratiques. "L'IA ne peut pas être éthique si elle est entraînée de façon immorale, en exploitant des gens en difficulté économique et sur des données volées", assène-t-il.

"Beaucoup de gens ne savent pas qu'il y a de l'humain derrière l'IA. Il faudrait que ce soit plus connu, et mieux payé." Astro, annotateur de données

Pour Antonio Casilli, il faut commencer par oublier l'idée que l'IA est seulement une prouesse d'ingénieurs ou d'entrepreneurs. " Nous sommes tous en quelque sorte les producteurs de ces IA, parce que ce sont nos données qui servent à les entraîner, mais nous ne sommes pas reconnus comme tels. Tant qu'on continuera à penser que l'IA est seulement l'affaire de Sam Altman, on aura un problème."

* Les prénoms suivis d'un astérisque ont été modifiés.

Auteur: Internet

Info: Francetvinfo.fr - Luc Chagnon, 9 avril 2024

[ texte-image ] [ homme-machine ] [ données intelligentes ] [ enrichies ] [ nord-sud ] [ domination économique ] [ data augmenté ] [ bases sémantiques ] [ post-colonialisme ]

 

Commentaires: 0

Ajouté à la BD par miguel

legos protéiques

De nouveaux outils d’IA prédisent comment les blocs de construction de la vie s’assemblent

AlphaFold3 de Google DeepMind et d'autres algorithmes d'apprentissage profond peuvent désormais prédire la forme des complexes en interaction de protéines, d'ADN, d'ARN et d'autres molécules, capturant ainsi mieux les paysages biologiques des cellules.

Les protéines sont les machines moléculaires qui soutiennent chaque cellule et chaque organisme, et savoir à quoi elles ressemblent sera essentiel pour comprendre comment elles fonctionnent normalement et fonctionnent mal en cas de maladie. Aujourd’hui, les chercheurs ont fait un grand pas en avant vers cet objectif grâce au développement de nouveaux algorithmes d’apprentissage automatique capables de prédire les formes rdéployées et repliées non seulement des protéines mais aussi d’autres biomolécules avec une précision sans précédent.

Dans un article publié aujourd'hui dans Nature , Google DeepMind et sa société dérivée Isomorphic Labs ont annoncé la dernière itération de leur programme AlphaFold, AlphaFold3, capable de prédire les structures des protéines, de l'ADN, de l'ARN, des ligands et d'autres biomolécules, seuls ou liés ensemble dans différentes configurations. Les résultats font suite à une mise à jour similaire d'un autre algorithme de prédiction de structure d'apprentissage profond, appelé RoseTTAFold All-Atom, publié en mars dans Science .

Même si les versions précédentes de ces algorithmes pouvaient prédire la structure des protéines – une réussite remarquable en soi – elles ne sont pas allées assez loin pour dissiper les mystères des processus biologiques, car les protéines agissent rarement seules. "Chaque fois que je donnais une conférence AlphaFold2, je pouvais presque deviner quelles seraient les questions", a déclaré John Jumper, qui dirige l'équipe AlphaFold chez Google DeepMind. "Quelqu'un allait lever la main et dire : 'Oui, mais ma protéine interagit avec l'ADN.' Pouvez-vous me dire comment ?' " Jumper devrait bien admettre qu'AlphaFold2 ne connaissait pas la réponse.

Mais AlphaFold3 pourrait le faire. Avec d’autres algorithmes d’apprentissage profond émergents, il va au-delà des protéines et s’étend sur un paysage biologique plus complexe et plus pertinent qui comprend une bien plus grande diversité de molécules interagissant dans les cellules.

" On découvre désormais toutes les interactions complexes qui comptent en biologie ", a déclaré Brenda Rubenstein , professeure agrégée de chimie et de physique à l'Université Brown, qui n'a participé à aucune des deux études. " On commence à avoir une vision plus large."

Comprendre ces interactions est " fondamental pour la fonction biologique ", a déclaré Paul Adams , biophysicien moléculaire au Lawrence Berkeley National Laboratory qui n’a également participé à aucune des deux études. " Les deux groupes ont fait des progrès significatifs pour résoudre ce problème. "

Les deux algorithmes ont leurs limites, mais ils ont le potentiel d’évoluer vers des outils de prédiction encore plus puissants. Dans les mois à venir, les scientifiques commenceront à les tester et, ce faisant, ils révéleront à quel point ces algorithmes pourraient être utiles.

Progrès de l’IA en biologie

L’apprentissage profond est une variante de l’apprentissage automatique vaguement inspirée du cerveau humain. Ces algorithmes informatiques sont construits à l’aide de réseaux complexes de nœuds d’information (appelés neurones) qui forment des connexions en couches les unes avec les autres. Les chercheurs fournissent au réseau d’apprentissage profond des données d’entraînement, que l’algorithme utilise pour ajuster les forces relatives des connexions entre les neurones afin de produire des résultats toujours plus proches des exemples d’entraînement. Dans le cas des systèmes d'intelligence artificielle protéique, ce processus amène le réseau à produire de meilleures prédictions des formes des protéines sur la base de leurs données de séquence d'acides aminés.

AlphaFold2, sorti en 2021, a constitué une avancée majeure dans l’apprentissage profond en biologie. Il a ouvert la voie à un monde immense de structures protéiques jusque-là inconnues et est déjà devenu un outil utile pour les chercheurs qui cherchent à tout comprendre, depuis les structures cellulaires jusqu'à la tuberculose. Cela a également inspiré le développement d’outils supplémentaires d’apprentissage biologique profond. Plus particulièrement, le biochimiste David Baker et son équipe de l’Université de Washington ont développé en 2021 un algorithme concurrent appelé RoseTTAFold , qui, comme AlphaFold2, prédit les structures protéiques à partir de séquences de données.

Depuis, les deux algorithmes ont été mis à jour avec de nouvelles fonctionnalités. RoseTTAFold Diffusion pourrait être utilisé pour concevoir de nouvelles protéines qui n’existent pas dans la nature. AlphaFold Multimer pourrait étudier l’interaction de plusieurs protéines. " Mais ce que nous avons laissé sans réponse ", a déclaré Jumper, " était : comment les protéines communiquent-elles avec le reste de la cellule ? "

Le succès des premières itérations d'algorithmes d'apprentissage profond de prédiction des protéines reposait sur la disponibilité de bonnes données d'entraînement : environ 140 000 structures protéiques validées qui avaient été déposées pendant 50 ans dans la banque de données sur les protéines. De plus en plus, les biologistes ont également déposé les structures de petites molécules, d'ADN, d'ARN et leurs combinaisons. Dans cette expansion de l'algorithme d'AlphaFold pour inclure davantage de biomolécules, " la plus grande inconnue ", a déclaré Jumper, "est de savoir s'il y aurait suffisamment de données pour permettre à l'algorithme de prédire avec précision les complexes de protéines avec ces autres molécules."

Apparemment oui. Fin 2023, Baker puis Jumper ont publié les versions préliminaires de leurs nouveaux outils d’IA, et depuis, ils soumettent leurs algorithmes à un examen par les pairs.

Les deux systèmes d'IA répondent à la même question, mais les architectures sous-jacentes de leurs méthodes d'apprentissage profond diffèrent, a déclaré Mohammed AlQuraishi , biologiste des systèmes à l'Université de Columbia qui n'est impliqué dans aucun des deux systèmes. L'équipe de Jumper a utilisé un processus appelé diffusion – technologie qui alimente la plupart des systèmes d'IA génératifs non basés sur du texte, tels que Midjourney et DALL·E, qui génèrent des œuvres d'art basées sur des invites textuelles, a expliqué AlQuraishi. Au lieu de prédire directement la structure moléculaire puis de l’améliorer, ce type de modèle produit d’abord une image floue et l’affine de manière itérative.

D'un point de vue technique, il n'y a pas de grand saut entre RoseTTAFold et RoseTTAFold All-Atom, a déclaré AlQuraishi. Baker n'a pas modifié massivement l'architecture sous-jacente de RoseTTAFold, mais l'a mise à jour pour inclure les règles connues des interactions biochimiques. L'algorithme n'utilise pas la diffusion pour prédire les structures biomoléculaires. Cependant, l'IA de Baker pour la conception de protéines le fait. La dernière itération de ce programme, connue sous le nom de RoseTTAFold Diffusion All-Atom, permet de concevoir de nouvelles biomolécules en plus des protéines.

" Le type de dividendes qui pourraient découler de la possibilité d'appliquer les technologies d'IA générative aux biomolécules n'est que partiellement réalisé grâce à la conception de protéines", a déclaré AlQuraishi. "Si nous pouvions faire aussi bien avec de petites molécules, ce serait incroyable." 

Évaluer la concurrence

Côte à côte, AlphaFold3 semble être plus précis que RoseTTAFold All-Atom. Par exemple, dans leur analyse dans Nature , l'équipe de Google a constaté que leur outil est précis à environ 76 % pour prédire les structures des protéines interagissant avec de petites molécules appelées ligands, contre une précision d'environ 42 % pour RoseTTAFold All-Atom et 52 % pour le meilleur. outils alternatifs disponibles.

Les performances de prédiction de structure d'AlphaFold3 sont " très impressionnantes ", a déclaré Baker, " et meilleures que celles de RoseTTAFold All-Atom ".

Toutefois, ces chiffres sont basés sur un ensemble de données limité qui n'est pas très performant, a expliqué AlQuraishi. Il ne s’attend pas à ce que toutes les prédictions concernant les complexes protéiques obtiennent un score aussi élevé. Et il est certain que les nouveaux outils d’IA ne sont pas encore assez puissants pour soutenir à eux seuls un programme robuste de découverte de médicaments, car cela nécessite que les chercheurs comprennent des interactions biomoléculaires complexes. Pourtant, " c'est vraiment prometteur ", a-t-il déclaré, et nettement meilleur que ce qui existait auparavant.

Adams est d'accord. "Si quelqu'un prétend pouvoir utiliser cela demain pour développer des médicaments avec précision, je n'y crois pas", a-t-il déclaré. " Les deux méthodes sont encore limitées dans leur précision, [mais] les deux constituent des améliorations spectaculaires par rapport à ce qui était possible. "

(Image gif, tournante, en 3D : AlphaFold3 peut prédire la forme de complexes biomoléculaires, comme cette protéine de pointe provenant d'un virus du rhume. Les structures prédites de deux protéines sont visualisées en bleu et vert, tandis que les petites molécules (ligands) liées aux protéines sont représentées en jaune. La structure expérimentale connue de la protéine est encadrée en gris.)

Ils seront particulièrement utiles pour créer des prédictions approximatives qui pourront ensuite être testées informatiquement ou expérimentalement. Le biochimiste Frank Uhlmann a eu l'occasion de pré-tester AlphaFold3 après avoir croisé un employé de Google dans un couloir du Francis Crick Institute de Londres, où il travaille. Il a décidé de rechercher une interaction protéine-ADN qui était " vraiment déroutante pour nous ", a-t-il déclaré. AlphaFold3 a craché une prédiction qu'ils testent actuellement expérimentalement en laboratoire. "Nous avons déjà de nouvelles idées qui pourraient vraiment fonctionner", a déclaré Uhlmann. " C'est un formidable outil de découverte. "

Il reste néanmoins beaucoup à améliorer. Lorsque RoseTTAFold All-Atom prédit les structures de complexes de protéines et de petites molécules, il place parfois les molécules dans la bonne poche d'une protéine mais pas dans la bonne orientation. AlphaFold3 prédit parfois de manière incorrecte la chiralité d'une molécule – l'orientation géométrique distincte " gauche " ou " droite " de sa structure. Parfois, il hallucine ou crée des structures inexactes.

Et les deux algorithmes produisent toujours des images statiques des protéines et de leurs complexes. Dans une cellule, les protéines sont dynamiques et peuvent changer en fonction de leur environnement : elles se déplacent, tournent et passent par différentes conformations. Il sera difficile de résoudre ce problème, a déclaré Adams, principalement en raison du manque de données de formation. " Ce serait formidable de déployer des efforts concertés pour collecter des données expérimentales conçues pour éclairer ces défis ", a-t-il déclaré.

Un changement majeur dans le nouveau produit de Google est qu'il ne sera pas open source. Lorsque l’équipe a publié AlphaFold2, elle a publié le code sous-jacent, qui a permis aux biologistes de reproduire et de jouer avec l’algorithme dans leurs propres laboratoires. Mais le code d'AlphaFold3 ne sera pas accessible au public.

 " Ils semblent décrire la méthode en détail. Mais pour le moment, au moins, personne ne peut l’exécuter et l’utiliser comme il l’a fait avec [AlphaFold2] ", a déclaré AlQuraishi. C’est " un grand pas en arrière. Nous essaierons bien sûr de le reproduire."

Google a cependant annoncé qu'il prenait des mesures pour rendre le produit accessible en proposant un nouveau serveur AlphaFold aux biologistes exécutant AlphaFold3. Prédire les structures biomoléculaires nécessite une tonne de puissance de calcul : même dans un laboratoire comme Francis Crick, qui héberge des clusters informatiques hautes performances, il faut environ une semaine pour produire un résultat, a déclaré Uhlmann. En comparaison, les serveurs plus puissants de Google peuvent faire une prédiction en 10 minutes, a-t-il déclaré, et les scientifiques du monde entier pourront les utiliser. "Cela va démocratiser complètement la recherche sur la prédiction des protéines", a déclaré Uhlmann.

Le véritable impact de ces outils ne sera pas connu avant des mois ou des années, alors que les biologistes commenceront à les tester et à les utiliser dans la recherche. Et ils continueront à évoluer. La prochaine étape de l'apprentissage profond en biologie moléculaire consiste à " gravir l'échelle de la complexité biologique ", a déclaré Baker, au-delà même des complexes biomoléculaires prédits par AlphaFold3 et RoseTTAFold All-Atom. Mais si l’histoire de l’IA en matière de structure protéique peut prédire l’avenir, alors ces modèles d’apprentissage profond de nouvelle génération continueront d’aider les scientifiques à révéler les interactions complexes qui font que la vie se réalise.

" Il y a tellement plus à comprendre ", a déclaré Jumper. "C'est juste le début."

Auteur: Internet

Info: https://www.quantamagazine.org/new-ai-tools-predict-how-lifes-building-blocks-assemble-20240508/ - Yasemin Saplakoglu, 8 mai 2024

[ briques du vivant ] [ texte-image ] [ modélisation mobiles ] [ nano mécanismes du vivant ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-animal

La conscience du Dauphin
Bien entendu, les modèles du monde ne manqueront pas de différer selon le degré où les systèmes sensoriels périphériques diffèrent.
Le travail du cerveau est en effet, au moins en partie, de construire une réalité cohérente à partir de données sensorielles spécifiques, réalité qui constitue d’ailleurs la seule connue par celui qui l’expérimente au détriment de toutes les autres.
Dans le cas du dauphin, le système nerveux est celui d’un herbivore retourné à la mer, il y a quelques millions d’années, et ne diffère donc pas fondamentalement de celui de n’importe quel autre grand mammifère.
Le monde physique en revanche, au sein duquel il évolue, nous poserait à nous, humains, d’impossibles défis. C’est pourquoi les cétacés ont développé tout à la fois des formes physiques mieux adaptées au milieu marin mais surtout tout un outillage sensoriel susceptible des les aider à survivre dans un monde humide, froid et obscur, où règnent de fortes pressions.
Faire l’expérience d’une telle subjectivité est par définition une tâche impossible. Même entre époux, entre amis, entre enfants et parents, cette connaissance ne peut s’acquérir que par le biais maladroit du discours mais jamais nous ne pourrons accéder au "goût du monde" d’une autre espèce que la nôtre.
Il se fait heureusement que nos organes sensoriels et nos structures cérébrales sont des outils communs à tous les êtres humains, ce qui nous permet de fonder l’illusion d’un univers de formes stables et tangibles, dont l’existence fait l’unanimité mais que nous sommes les seuls à percevoir comme telles.
En revanche, nous sommes génétiquement incapables de nous figurer un monde filtré par d’autres sens que les nôtres, de la même manière qu’il nous est impossible de visualiser un cube en quatre dimensions ou simplement le monde des abeilles….
"Pouvez-vous imaginer l’expérience que représente le fait d’être sans cesse corrélé à une boussole solaire ?" nous demande le neurologue H.Jerison à ce propos "L’information consiste en la triangulation des objets externes relativement à un observateur (le je) et au soleil comme point de référence. Si cette réaction devait être représentée en terme de perception, on pourrait dire que l’abeille ou la fourmi ressent de manière constante l’existence des points cardinaux au sein d’un monde tridimensionnel de type euclidien. Si notre système sensoriel était celui des hyménoptères, c’est cela la seule réalité que nous pourrions percevoir.
L’intégration de deux points de référence, le soi et le soleil, plutôt qu’un seul soi unitaire en tant qu’origine et centre d’un monde périphérique, doit certainement mener à d’autres perspectives sur les dimensions fondamentales de la réalité. Il est intéressant d’imaginer les catégories additionnelles que Kant aurait pu reconnaître en tant qu’à priori si nous avions été équipés d’un tel système de navigation!"
Les expériences de Louis Herman nous apprennent que les dauphins partagent tout de même les mêmes dimensions que nous : le haut, le bas, la gauche la droite, devant, derrière, tout cela existe chez eux mais il semble qu’ils ignorent la nuance entre les adjectifs "grand" et "petit" et qu’ils construisent leurs phrases selon un mode syntaxique particulier. Ces expériences, profondément anthropocentristes, n’offrent qu’un pâle reflet d’un monde mental autrement plus riche et foisonnant en liberté, comme le montre avec bien plus d’éclat le très étrange langage delphinien mis à jour par le chercheur russe Vladimir Markov, mais elles sont à tout le moins significatives de la nature d’une conscience "autre" qui ne s’appuie pas sur nos paramètres.
Les sens et l’Umwelt
Imaginons un instant ce que pourrait être "l’Umwelt" d’un dauphin.
Au centre d’un réseau d’informations sensorielles qu’il ré-organise sans cesse en tant qu’images du monde, pulse un noyau de conscience conscient de lui-même.
La vision
Le monde visuel du dauphin peut être comparé à celui des espèces-proies, non prédatrices, comme le lapin ou le chevreuil, en ce sens que les champs visuels de ses yeux latéraux couvrent ensemble 360° mais qu’ils ne se chevauchent pas ou très peu.
L’absence de fibres non-croisées dans le chiasma optique suggère une plus large indépendance dans le contrôle des yeux et dans l’usage de l’information qu’ils fournissent, par rapport à ce que l’on observe chez les autres mammifères. Chacun des yeux est capable de mouvements propres, indépendants de ceux de l’autre œil et une certaine focalisation frontale peut donc être obtenue.
On peine cependant à imaginer un monde dans lequel le Soi se trouve ainsi de manière constante au centre d’un champ visuel circulaire de 360°.
Le nôtre, comme on le sait, se réduit à un cône de 120°.
Notre Soi se place juste derrière le front et les yeux, en vis-à-vis de l’objet focalisé par notre regard binoculaire et dans la ligne de fuite du cône, c’est-à-dire à peu près sur la glande pinéale. On comprend mieux dès lors la fausse intuition de René Descartes.
Incapables de distinguer le vert du rouge, les yeux des dauphins n’en sont pas moins d’une sensibilité extrême à l’instar des yeux de chat, percent l’obscurité et peuvent, d’une simple torsion de la rétine, adapter leur vision aux fonds marins ou à l’air libre. Par contre, le sens du relief leur est impossible, puisqu’ils ne sont pas binoculaires.
La "quasi-olfaction"
Le goût et l’odorat sont absents en tant que tels, remplacés par la "quasi-olfaction" qui consiste à filtrer une certaine quantité d’eau au travers de l’évent et à en goûter le parfum. Un tel sens est fondamental : le dauphin s’en sert pour repérer les femelles en rut autant que pour sentir les fèces de son groupe, nuage diffus de couleur foncée expulsé de manière régulière et qui donne à l’ensemble social une "odeur" propre.
Le toucher et le sens proprioceptif
Quiconque a jamais caressé la peau satinée d’un tursiops sait à quel point ce tissu est sensible, doux et fragile. Le sens du toucher joue lui aussi un rôle essentiel dans la vie de ces mammifères nus, qui n’aiment rien tant que de rester collés les uns contre les autres et d’échanger les caresses les plus voluptueuses.
Au niveau plus profond du sens proprioceptif, la différence avec nos perceptions s’accroît cependant encore davantage : "L’Umwelt des dauphins se fonde comme tout autre sur les caractéristiques de leur environnement" déclare Jerison, "et cet univers mental représente très certainement une adaptation cognitive optimale aux exigences environnementales du monde aquatique. A cet égard, l’un des traits principaux de cet univers marin – considéré depuis notre point de vue – est notamment l’absence d’une plate-forme stable tel que les mammifères l’éprouvent en se tenant sur la terre ferme".
Ce point est important, car le sol sur lequel nous nous tenons, le rôle essentiel de la gravité dans les adaptations anatomiques de la plupart des mammifères occupe une place centrale au plan biologique mais ne sont que rarement notées au niveau de la conscience vigile. Notre intuition s’épuise en revanche lorsque nous tentons d’imaginer les adaptations perceptuelles chez certaines espèces dont les données sensorielles sont profondément différentes des nôtres, et cela d’autant plus que nous ne sommes même pas conscients de notre propre spécificité sensorielle. Les informations relatives aux forces gravitationnelles qui s’exercent sur nos corps jouent également un rôle-clé chez le dauphin, mais d’une autre manière.
Celui-ci s’oriente en effet en "s’informant" régulièrement de la position de son corps par rapport aux fonds marins, à la surface de l’eau ou à la place du soleil au moment de l’observation.
Bien que les dauphins ne disposent d’aucun sol référentiel en guise de plate-forme fixe, mais qu’ils possèdent en revanche un degré de liberté dans les trois dimensions plus important que le nôtre, le sens de l’orientation spatiale est certainement fondamental pour eux. On peut imaginer ce que les cétacés ressentent en pensant à ces appareils d’entraînement destinés aux astronautes afin de les préparer à l’apesanteur.
Ces instruments sont de gigantesques balançoires, disposant de six degrés de liberté et permettant aux candidats pour l’espace de contrôler au mieux les diverses rotations possibles de leur axe corporel aussi bien que les mouvements de propulsion linéaire.
Si nous étions dauphins, nous nous trouverions dans un monde un peu semblable à celui d’un vol spatial à gravité zéro. Il est intéressant de noter à ce propos que l’expérience de l’apesanteur a crée chez les astronautes divers problèmes liés à cet environnement, telles que nausées, vertiges, migraines, etc. mais qu’elles n’ont cependant jamais altéré leur perception "juste" des choses.
Rappelons aussi, sans nous y étendre, à quel point la gestuelle constitue un mode de communication privilégié chez les dauphins : les degrés de liberté dont leur corps dispose leur a permis d’élaborer un véritable vocabulaire d’attitudes : ventre en l’air, en oblique, corps groupés par faisceaux, rostre au sol, caudale haute, inclinée, etc., le tout agrémenté ou non d’émissions de bulles et de vocalisations.
L’audition
Mais de tous les sens dont dispose le dauphin, c’est certainement l’audition qui est le plus développé et qui atteint des capacités discriminatoires sans aucun équivalent connu. Ce système sensoriel s’est transformé au cours des millénaires en écholocation, tout à la fois outil de connaissance (le monde externe "vu" par le son) et moyen de communication (le monde interne transmis par le langage). Cette convergence fonctionnelle ne manque pas d’entraîner des conséquences étonnantes !
D’après Harry J. Jerison : "Si le spectre auditif des dauphins est plus large que le nôtre de plusieurs octaves dans les fréquences les plus élevées, la caractéristique principale de ce système auditif est bien évidemment l’écholocation. Celle-ci pourrait contribuer à conférer au monde des dauphins une dimension inhabituelle, dépassant largement les perceptions élémentaires relatives aux événements survenant à distance. En tant qu’adaptation sensori-motrice, l’écholocation partage en effet certaines caractéristiques similaires à celles du langage humain".
Rappelons brièvement en quoi consiste cette vision acoustique d’un type inusité. Le dauphin émet en permanence – dès lors qu’il se déplace et cherche sa route activement – une série de "sons explosés" extrêmement brefs (moins d’une seconde d’émission continue). Ces "clicks" ne sont pas des sons purs mais des "bruits", d’inextricables petits paquets d’ondes situés sur des fréquences de 120 à 130 Khz et d’une puissance frisant parfois les 220 décibels. Ils retentissent sous l’eau comme une grêle de minuscules coups secs et nets enchaînés l’un à l’autre en de courtes séquences.
Les clicks sont émis sous forme d’un large faisceau, qui balaie par intermittence le sol sablonneux à la façon d’un projecteur. On peut donc dire que la nuit ou sous une certaine profondeur, le dauphin ne voit que lorsqu’il éclaire le paysage de ses éclairs sonores. Les informations reçues, assez grossières, concernent l’aspect du fond marin ou une masse importante, bateau ou autre cétacé.
Supposons à présent qu’un poisson soit repéré dans ce champ de vision "stroboscopique". Puisqu’il fait nuit, l’œil ne peut confirmer l’image en mode visuel.
Lorsque la chasse commence, le dauphin resserre alors le rayon de son biosonar et le dédouble en deux faisceaux.
Plus précis, mieux ciblés les trains de click bombardent le poisson sous tous ses angles et peuvent même pénétrer dans son corps en renvoyant l’image de ses organes internes.
Les deux trains de clicks sont produits presque simultanément, l’un à 20° à gauche de la ligne du rostre et l’autre à 20° sur la droite. Les deux rayons se chevauchent au point focal (0°) et fournissent une "visiaudition" de type, cette fois, binoculaire.
Un intervalle de 80 millièmes de seconde sépare l’émission de chacun des faisceaux, de sorte qu’en calculant le léger retard d’un écho par rapport à l’autre, le dauphin peut estimer la profondeur de champ et la distance qui le sépare de chaque élément de l’objet observé.
Se rapprochant de sa proie à toute vitesse, le dauphin n’a de cesse que de conserver le contact avec elle et multiplie la fréquence et l’intensité de ses trains de clicks, comme pour maintenir le "projecteur" allumé presque en continu.
Les ondes à haute fréquence ont une portée plus courte mais fournissent en revanche une bien meilleure définition des détails. En nageant, le dauphin opère un mouvement de balayage avec la tête avant d’obtenir une image complète de sa cible, que ses organes visuels conforteront par ailleurs.
S’il veut obtenir davantage de détails encore sur son contenu, le dauphin la bombardera alors sa cible à bout portant, d’un faisceau de clicks aussi fin et précis qu’un rayon laser.
Celui-ci pénètre la matière et en estime la densité avec une incroyable précision : la nature d’un métal (zinc plutôt que cuivre) ou des variations de l’épaisseur d’un tube de l’ordre d’un millième de millimètres sont alors parfaitement perçus par cette échographie biologique.
Une telle "vision acoustique" nous sera à tout jamais inimaginable, comme la couleur rouge l’est pour l’aveugle. Néanmoins, au prix d’une comparaison grossière, on peut mettre en parallèle la pluie d’échos que perçoivent les cétacés avec les pixels que l’œil humain perçoit sur un écran de télévision. Les pixels dessinent très rapidement une image en se succédant l’un à l’autre et laissent sur la rétine du téléspectateur une série de rémanences qui figurent le mouvement et les formes. Une scène visuelle est ainsi décodée à partir d’une séquence de taches ultra rapides surgissant sur l’écran. De la même manière, une expérience éidétique similaire est sans doute générée par les données discrètes de l’écholocation (clicks).
L’information pourrait être alors parfaitement comparable à celle que l’on obtient grâce au bombardement de photons dans le système visuel, à ceci près qu’elle parviendrait par un autre canal, en l’occurrence le canal auditif.

Auteur: Internet

Info: http://www.dauphinlibre.be/dauphins-cerveau-intelligence-et-conscience-exotiques

[ comparaisons ]

 

Commentaires: 0

microbiote

Un chef d'orchestre de la subtile symphonie d'Evolution

Le biologiste Richard Lenski pensait que son expérience à long terme sur l'évolution pourrait durer 2 000 générations. Près de trois décennies et plus de 65 000 générations plus tard, il est toujours étonné par " l’incroyable inventivité " de l’évolution.

Au début de sa carrière, le biologiste décoré Richard Lenski pensait qu'il pourrait être contraint d'évoluer. Après l’annulation de sa subvention de recherche postdoctorale, Lenski a commencé à envisager provisoirement d’autres options. Avec un enfant et un deuxième en route, Lenski a assisté à un séminaire sur l'utilisation de types spécifiques de données dans un contexte actuariel* – le même type de données avec lequel il avait travaillé lorsqu'il était étudiant diplômé. Lenski a récupéré la carte de visite du conférencier, pensant qu'il pourrait peut-être mettre à profit son expérience dans une nouvelle carrière.

"Mais ensuite, comme c'est parfois le cas - et j'ai eu beaucoup de chance - le vent a tourné", a déclaré Lenski à Quanta Magazine dans son bureau de la Michigan State University. " Nous avons obtenu le renouvellement de la subvention et peu de temps après, j'ai commencé à recevoir des offres pour être professeur. 

Lenski, professeur d'écologie microbienne à l'État du Michigan, est surtout connu pour ses travaux sur ce que l'on appelle l' expérience d'évolution à long terme . Le projet, lancé en 1988, examine l'évolution en action. Lui et les membres de son laboratoire ont cultivé 12 populations d' E. coli en continu depuis plus de 65 000 générations, suivant le développement et les mutations des 12 souches distinctes.

Les résultats ont attiré l’attention et les éloges – y compris une bourse " genius " MacArthur, que Lenski a reçue en 1996 – à la fois pour l’énormité de l’entreprise et pour les découvertes intrigantes que l’étude a produites. Plus particulièrement, en 2003, Lenski et ses collaborateurs ont réalisé qu'une souche d' E. coli avait développé la capacité d'utiliser le citrate comme source d'énergie, ce qu'aucune population précédente d' E. coli n'était capable de faire.

Lenski s'intéresse également aux organismes numériques, c'est-à-dire aux programmes informatiques conçus pour imiter le processus d'évolution. Il a joué un rôle déterminant dans l’ouverture du Beacon Center dans l’État du Michigan, qui donne aux informaticiens et aux biologistes évolutionnistes l’opportunité de forger des collaborations uniques.

Quanta Magazine a rencontré Lenski dans son bureau pour parler de ses propres intérêts évolutifs dans le domaine de la biologie évolutive – et du moment où il a presque mis fin à l'expérience à long terme. 

QUANTA MAGAZINE : Quels types de questions ont été les moteurs de votre carrière ?

RICHARD LENSKI : Une question qui m'a toujours intrigué concerne la reproductibilité ou la répétabilité de l'évolution . Stephen Jay Gould, paléontologue et historien des sciences, a posé cette question : si nous pouvions rembobiner la bande de la vie sur Terre, à quel point serait-elle similaire ou différente si nous regardions l'ensemble du processus se reproduire ? L’expérimentation à long terme que nous menons nous a permis de rassembler de nombreuses données sur cette question.

Alors, l’évolution est-elle reproductible ?

Oui et non! Je dis parfois aux gens que c'est une question fascinante et motivante, mais à un certain niveau, c'est une question terrible, et on ne dirait jamais à un étudiant diplômé de s'y poser. C’est parce qu’elle est très ouverte et qu’il n’y a pas de réponse très claire.

Grâce à cette expérience à long terme, nous avons vu de très beaux exemples de choses remarquablement reproductibles, et d'autre part des choses folles où une population s'en va et fait des choses qui sont complètement différentes des 11 autres populations de la planète dans l' expérience.

Comment vous est venue l’idée de cette expérience à long terme ?

Je travaillais déjà depuis plusieurs années sur l'évolution expérimentale des bactéries, ainsi que des virus qui infectent les bactéries. C'était fascinant, mais tout est devenu si compliqué si vite que j'ai dit : " Réduisons l'évolution à sa plus simple expression. " En particulier, j'ai voulu approfondir cette question de reproductibilité ou répétabilité de l'évolution. Et pour pouvoir l'examiner, je voulais un système très simple. Lorsque j'ai commencé l'expérience à long terme, mon objectif initial était de l'appeler expérience à long terme lorsque j'arriverais à 2 000 générations.

Combien de temps cela vous a-t-il pris ?

La durée réelle de l'expérience a duré environ 10 ou 11 mois, mais au moment où nous avons collecté les données, les avons rédigées et publié l'article, il nous a fallu environ deux ans et demi. À ce moment-là, l’expérience avait déjà dépassé 5 000 générations et j’ai réalisé qu'il fallait la poursuivre.

Pensiez-vous que l’expérience se poursuivrait aussi longtemps ?

Non, non... il y a eu une période de cinq ans, peut-être de la fin des années 90 au début des années 2000, pendant laquelle j'ai réfléchi à la possibilité d'arrêter l'expérience. C'était pour plusieurs raisons différentes. La première était que je devenais accro à cette autre façon d’étudier l’évolution, qui impliquait d’observer l’évolution dans des programmes informatiques auto-réplicatifs, ce qui était absolument fascinant. Soudain, j'ai découvert cette manière encore plus brillante d'étudier l'évolution, où elle pouvait s'étendre sur encore plus de générations et faire encore plus d'expériences, apparemment plus soignées.

Comment votre vision de l’étude de l’évolution via ces organismes numériques a-t-elle évolué au fil du temps ?

J’ai eu ce genre d’" amour de chiot " lorsque j’en ai entendu parler pour la première fois. Au début, c'était tellement extraordinairement intéressant et excitant de pouvoir regarder des programmes auto-répliquants, de pouvoir changer leur environnement et d'observer l'évolution se produire.

L’un des aspects les plus passionnants de l’évolution numérique est qu’elle montre que nous considérons l’évolution comme une affaire de sang, d’intestins, d’ADN, d’ARN et de protéines. Mais l’idée d’évolution se résume en réalité à des idées très fondamentales d’hérédité, de réplication et de compétition. Le philosophe des sciences Daniel Dennett a souligné que nous considérons l’évolution comme cette instanciation, cette forme de vie biologique, mais que ses principes sont bien plus généraux que cela.

Je dirais que mes dernières orientations de recherche ont consisté principalement à discuter avec des collègues très intelligents et à siéger à des comités d'étudiants diplômés qui utilisent ces systèmes. Je suis moins impliqué dans la conception d'expériences ou dans la formulation d'hypothèses spécifiques, car ce domaine évolue extrêmement rapidement. Je pense que j'ai eu beaucoup de chance de pouvoir cueillir certains des fruits les plus faciles à trouver, mais maintenant j'ai l'impression d'être là en tant que biologiste, critiquant peut-être des hypothèses, suggérant des contrôles qui pourraient être effectués dans certaines expériences.

Votre intérêt pour les organismes numériques est donc l’une des raisons pour lesquelles vous avez envisagé de mettre fin à l’expérience à long terme. Quel était l'autre ?

À ce stade, l’autre chose qui était un peu frustrante dans les lignes à long terme était que la vitesse à laquelle les bactéries évoluaient ralentissait. À la façon dont j’y pensais, c’était presque comme si l’évolution s’était arrêtée. Je pensais que c'était tout simplement un environnement trop simple et qu'ils n'avaient pas grand-chose à faire de plus.

Donc ces deux choses différentes m’ont fait réfléchir à arrêter l’expérience. Et j'ai parlé à quelques collègues et ils m'ont dit en gros : tu ne devrais pas faire ça. D’ailleurs, j’en ai parlé avec ma femme, Madeleine, lorsque je commençais à m’intéresser beaucoup à ces organismes numériques – nous étions d’ailleurs en congé sabbatique en France à cette époque – et je lui ai dit : " Peut-être que je devrais appeler chez moi et fermer le labo. " Et elle a dit : " Je ne pense pas que tu devrais faire ça. "

Pourquoi votre femme et vos collègues ont-ils eu cette réaction ?

L’expérience s’était déjà avérée très rentable au sens scientifique, fournissant des données très riches sur la dynamique du changement évolutif. C’était plus ou moins unique dans les échelles de temps étudiées. Je pense donc que c’était de très bons conseils qu’ils m’ont donné. Je ne sais pas si j’aurais déjà pu débrancher moi-même. J'étais certainement un peu frustré et j'y pensais – mais de toute façon, les gens ont dit non !

Avez-vous dépassé le palier où vous disiez avoir l’impression que les organismes n’évoluaient pas tellement ?

C’est en fait l’une des découvertes vraiment intéressantes de l’expérience. Lorsque j’ai commencé l’expérience à long terme, je pensais que les bactéries atteindraient rapidement une sorte de limite à leur croissance. Il y a seulement quelques années, nous avons commencé à réaliser que les bactéries seraient toujours capables de dépasser tout ce que nous avions déduit dans le passé quant à leur limite stricte. J’ai réalisé que nous n’y réfléchissions tout simplement pas de la bonne manière. Même dans l’environnement le plus simple, il est toujours possible pour les organismes de réaliser n’importe quelle étape de leur métabolisme, ou n’importe quelle étape de leur biochimie, un peu mieux. Et la sélection naturelle, même si elle ne réussit pas à chaque étape, favorisera toujours, à long terme, ces améliorations subtiles.

Une lignée de bactéries a développé la capacité d’utiliser le citrate comme source de nourriture. Est-ce que cela s'est produit avant ou après que vous envisagiez d'arrêter l'expérience ?

C’est l’une des choses qui m’a fait réaliser que nous n’arrêterions pas l’expérience. En 2003, une lignée a développé la capacité d’utiliser le citrate. Cela a changé la donne : se rendre compte que même dans cet environnement extrêmement simple, les bactéries devaient évoluer et comprendre certaines choses importantes.

J’aime dire que les bactéries dînaient tous les soirs sans se rendre compte qu’il y avait ce bon dessert citronné juste au coin de la rue. Et jusqu’à présent, même après 65 000 générations, seule une population sur 12 a compris comment consommer ce citrate.

Vous avez également mentionné que certaines populations au sein de votre expérience ont développé des mutations à un rythme plus élevé. A quoi cela ressemble-t-il?

Après plus de 60 000 générations, six des 12 populations ont évolué pour devenir hypermutables. Elles ont développé des changements dans la réparation de leur ADN et dans les processus métaboliques de l'ADN, ce qui les amène à avoir de nouvelles mutations quelque part de l'ordre de 100 fois la vitesse à laquelle l'ancêtre [au début de l'expérience] le faisait.

C'est un processus très intéressant, car il est à la fois bon et mauvais du point de vue des bactéries. C'est mauvais car la plupart des mutations sont nocives ou, au mieux, neutres. Seule une rare pépite dans cette mine est une mutation bénéfique. Les bactéries qui ont le taux de mutation le plus élevé sont un peu plus susceptibles de découvrir l’une de ces pépites. Mais d’un autre côté, ils sont également plus susceptibles de produire des enfants et petits-enfants porteurs de mutations délétères.

La lignée capable de consommer du citrate faisait-elle partie du groupe qui avait évolué pour devenir hypermutable ?

C'est une excellente question. La lignée qui a développé la capacité d’utiliser le citrate n’avait pas un taux de mutation élevé. Il est intéressant de noter qu’il est devenu l’un de ceux présentant un taux de mutation plus élevé, mais seulement après avoir développé la capacité d’utiliser le citrate. Cela est cohérent avec l’avantage du taux de mutation plus élevé – la capacité supplémentaire d’exploration. Les bactéries étaient en fait assez mauvaises pour utiliser le citrate au départ, donc il y avait beaucoup d'opportunités après qu'elles aient développé la capacité d'utiliser le citrate pour affiner cette capacité.

Comment l’expérience à long terme vous aide-t-elle à comprendre l’évolution de la vie à plus grande échelle ?

Pour moi, l’une des leçons de cette expérience à long terme a été de constater à quel point la vie peut être riche et intéressante, même dans l’environnement le plus ennuyeux et le plus simple. Le fait que l’évolution puisse générer cette diversité et découvrir des portes légèrement entrouvertes qu’elle peut franchir témoigne de l’incroyable inventivité de l’évolution. Et s’il peut être si inventif et créatif à cette minuscule échelle spatiale et temporelle, et dans un environnement aussi ennuyeux, cela me suscite encore plus de respect, quand je pense à quel point il est remarquable dans la nature.

Qu’est-ce qui vous a le plus surpris dans ce projet ?

Que ça continue après toutes ces années. L’un de mes objectifs dans la vie est de faire en sorte que l’expérience continue. J'aimerais lever une dotation pour poursuivre l'expérience à perpétuité.

Qu’espérez-vous pour l’expérience à long terme dans le futur ?

J’espère que ce projet apportera bien d’autres surprises. Par exemple, deux lignées coexistent depuis 60 000 générations dans l’une des populations, où l’une se nourrit du produit que l’autre génère. Je pense qu'il est fascinant de se demander si, à un moment donné, cela pourrait se transformer en quelque chose qui ressemble davantage à une interaction prédateur-proie. Ce n’est certainement pas hors du domaine des possibles. Si cela arriverait un jour, je ne sais pas.

Cela a également été une immense joie de travailler avec des étudiants, des postdoctorants et des collaborateurs, et de les voir grandir et se développer. C'est vraiment la plus grande joie pour moi d'être un scientifique. J'aime dire aux gens que je suis bigame. J'ai deux familles : ma famille de laboratoire et ma famille biologique, et elles sont toutes les deux incroyablement merveilleuses.

Auteur: Internet

Info: Logan Zillmer pour Quanta Magazine - * Relatif aux méthodes mathématiques des actuaires

[ microbiome ] [ bio-informatique ] [ plasticité ] [ dépassement ] [ tâtonnement ] [ élargissement ] [ gaspillage ] [ adaptation ]

 

Commentaires: 0

Ajouté à la BD par miguel

fauteurs de guerres

La même cabale d'experts bellicistes, de spécialistes de la politique étrangère et de responsables gouvernementaux, année après année, débâcle après débâcle, esquive avec suffisance la responsabilité des fiascos militaires qu'ils orchestrent. Ils sont protéiformes, changeant adroitement avec les vents politiques, passant du Parti républicain au Parti démocrate puis reviennent, passant de guerriers froids à néoconservateurs à interventionnistes libéraux. Pseudo-intellectuels, ils dégagent un snobisme écoeurant de la Ivy League alors qu'ils vendent la peur perpétuelle, la guerre perpétuelle et une vision du monde raciste, où les races inférieures de la terre ne comprennent que la violence.

Ce sont des proxénètes de guerre, des marionnettes du Pentagone, un État dans l'État, et les sous-traitants de la défense qui financent généreusement leurs groupes de réflexion - Project for the New American Century, American Enterprise Institute, Foreign Policy Initiative, Institute for the Study of War, Conseil de l'Atlantique et Brookings Institute. Comme certaines souches mutantes d'une bactérie résistante aux antibiotiques, elles ne peuvent être vaincues. Peu importe à quel point ils se trompent, à quel point leurs théories sont absurdes, combien de fois ils mentent ou dénigrent d'autres cultures et sociétés comme non civilisées ou combien d'interventions militaires meurtrières tournent mal. Ce sont des piliers inamovibles, les mandarins parasites du pouvoir que vommissent les derniers jours de tout empire, y compris celui des États-Unis, sautant d'une catastrophe autodestructrice à l'autre.

J'ai passé 20 ans en tant que correspondant étranger à rendre compte de la souffrance, de la misère et des déchaînements meurtriers que ces complices de guerre ont conçus et financés. Ma première rencontre avec eux a eu lieu en Amérique centrale. Elliot Abrams - reconnu coupable d'avoir fourni un témoignage trompeur au Congrès sur l'affaire Iran-Contra et plus tard gracié par le président George HW Bush afin qu'il puisse retourner au gouvernement pour nous vendre la guerre en Irak - et Robert Kagan, directeur du bureau de la diplomatie publique du département d'État pour Amérique latine - étaient des propagandistes des régimes militaires brutaux au Salvador et au Guatemala, ainsi que des violeurs et des voyous meurtriers qui composaient les forces voyous de la Contra combattant le gouvernement sandiniste au Nicaragua, qu'ils ont illégalement financé. Leur travail consistait à discréditer nos reportages.

"Comme une souche mutante d'une bactérie résistante aux antibiotiques, ils ne peuvent pas être vaincus."

Eux et leur coterie d'amoureux de la guerre ont continué à faire pression pour l'expansion de l'OTAN en Europe centrale et orientale après la chute du mur de Berlin, violant un accord de ne pas étendre l'OTAN au-delà des frontières d'une Allemagne unifiée et s'opposant imprudemment à la Russie. Ils étaient et sont toujours les pom-pom girls de l'État d'Israël pro apartheid, justifiant les crimes de guerre contre les Palestiniens et confondant myopement les intérêts d'Israël avec ceux des États-Unis. Ils ont plaidé pour des frappes aériennes en Serbie, appelant les États-Unis à "éliminer" Slobodan Milosevic. Ils sont à la source de la politique d'invasion de l'Afghanistan, de l'Irak, de la Syrie et de la Libye. Robert Kagan et William Kristol, avec leur ignorance typique, ont écrit en avril 2002 que "la route qui mène à la sécurité et à la paix réelles" est "la route qui traverse Bagdad".

Nous avons vu comment cela fonctionnait. Cette route a entraîné la dissolution de l'Iraq, la destruction de ses infrastructures civiles, y compris l'anéantissement de 18 des 20 centrales électriques et de presque tous les systèmes de pompage d'eau et d'assainissement au cours d'une période de 43 jours où 90 000 tonnes de bombes ont plu sur le pays, la montée des groupes djihadistes radicaux dans toute la région et les États défaillants.

La guerre en Irak, ainsi que la défaite humiliante en Afghanistan, ont détruit l'illusion de l'hégémonie militaire et mondiale des États-Unis. Elle a également infligé aux Irakiens, qui n'avaient rien à voir avec les attentats du 11 septembre, le massacre généralisé de civils, la torture et l'humiliation sexuelle des prisonniers irakiens, et l'ascension de l'Iran en tant que puissance prééminente dans la région.

Poussez pour la guerre et les renversements

Et ils continuent d'appeler à une guerre avec l'Iran, Fred Kagan déclarant que "nous ne pouvons rien faire d'autre que d'attaquer pour forcer l'Iran à renoncer à ses armes nucléaires". Ils ont poussé au renversement du président Nicholas Maduro, après avoir tenté de faire de même avec Hugo Chavez, au Venezuela. Ils ont ciblé Daniel Ortega, leur vieil ennemi au Nicaragua.

Ils embrassent un nationalisme aveugle qui leur interdit de voir le monde sous un angle autre que le leur. Ils ne savent rien de la machinerie de guerre, de ses conséquences ou de son retour inévitable. Ils ne savent rien des peuples et des cultures qu'ils ciblent pour une régénération violente. Ils croient en leur droit divin d'imposer leurs "valeurs" aux autres par la force. Fiasco après fiasco. Maintenant, ils alimentent une guerre avec la Russie.

"Le nationaliste est par définition un ignorant", a  observé l'écrivain yougoslave Danilo Kiš, qui poursuit.

Le nationalisme est la ligne de moindre résistance, la voie facile. Le nationaliste est serein, il sait ou croit savoir quelles sont ses valeurs, les siennes, c'est-à-dire nationales, c'est-à-dire les valeurs de la nation à laquelle il appartient, éthiques et politiques ; il ne s'intéresse pas aux autres, ils ne le regardent pas, l'enfer — ce sont les autres (les autres nations, une autre tribu). Ils n'ont même pas besoin d'enquête. Le nationaliste voit les autres à sa propre image – en tant que nationalistes."

L'administration Biden est remplie de ces ignorants, dont Joe Biden. Victoria Nuland, l'épouse de Robert Kagan, est la sous-secrétaire d'État de Biden aux affaires politiques. Antony Blinken est secrétaire d'État. Jake Sullivan est conseiller à la sécurité nationale.

Ils sont issus de cette cabale de trolls moraux et intellectuels qui comprend Kimberly Kagan, l'épouse de Fred Kagan, qui a fondé l'Institut pour l'étude de la guerre, William Kristol, Max Boot, John Podhoretz, Gary Schmitt, Richard Perle, Douglas Feith, David Frum et autres. Beaucoup étaient autrefois de fervents républicains ou, comme Nuland, ont servi dans les administrations républicaines et démocrates. Nuland était le principal conseiller adjoint en politique étrangère du vice-président Dick Cheney.

Ils sont unis par la demande de budgets de défense de plus en plus importants et d'une armée en constante expansion. Julian Benda a appelé ces courtisans au pouvoir "les barbares autodidactes de l'intelligentsia".

Ils ont autrefois pesté contre la faiblesse et la volonté d'apaisement des libéraux. Mais ils ont rapidement migré vers le Parti démocrate plutôt que de soutenir Donald Trump, qui n'a montré aucune volonté de déclencher un conflit avec la Russie et qui a qualifié l'invasion de l'Irak de "grosse et grosse erreur". De plus, comme ils l'ont souligné à juste titre, Hillary Clinton était une collègue néoconservatrice. Et les libéraux se demandent pourquoi près de la moitié de l'électorat, qui insulte ces courtiers de pouvoir arrogants et non élus, comme il se doit, a voté pour Trump.

Ces idéologues n'ont pas vu les cadavres de leurs victimes. Je l'ai fait. Y compris les enfants. Chaque cadavre que j'ai vu au Guatemala, au Salvador, au Nicaragua, à Gaza, en Irak, au Soudan, au Yémen ou au Kosovo, mois après mois, année après année, a révélé sa faillite morale, sa malhonnêteté intellectuelle et sa soif de sang malade. 

Ils n'ont pas servi dans l'armée. Leurs enfants ne servent pas dans l'armée. Mais ils envoient avec impatience de jeunes hommes et femmes américains combattre et mourir pour leurs rêves illusoires d'empire et d'hégémonie américaine. Ou, comme en Ukraine, ils fournissent des centaines de millions de dollars en armement et en soutien logistique pour soutenir de longues et sanglantes guerres par procuration.

Le temps historique s'est arrêté pour eux avec la fin de la Seconde Guerre mondiale. Le renversement des gouvernements démocratiquement élus par les États-Unis pendant la guerre froide en Indonésie, au Guatemala, au Congo, en Iran et au Chili (où la CIA a supervisé l'assassinat du commandant en chef de l'armée, le général René Schneider, et du président Salvador Allende ); la Baie des Cochons ; les atrocités et les crimes de guerre qui ont défini les guerres au Vietnam, au Cambodge et au Laos ; même les désastres qu'ils ont fabriqués au Moyen-Orient, ont disparu dans le trou noir de leur amnésie historique collective.

La domination mondiale américaine, affirment-ils, est bénigne, une force pour le bien, une «hégémonie bienveillante». Le monde, a insisté Charles Krauthammer, accueille "notre pouvoir". Tous les ennemis, de Saddam Hussein à Vladimir Poutine, sont le nouvel Hitler. Toutes les interventions américaines sont un combat pour la liberté qui rend le monde plus sûr. Tous les refus de bombarder et d'occuper un autre pays sont un moment de Munich de 1938, une retraite pathétique du nouveau Neville Chamberlain face au mal. Nous avons des ennemis à l'étranger. Mais notre ennemi le plus dangereux est à l'intérieur.

Les bellicistes construisent une campagne contre un pays comme l'Irak ou la Russie et attendent ensuite une crise - ils l'appellent le prochain Pearl Harbor - pour justifier l'injustifiable.

En 1998, William Kristol et Robert Kagan, ainsi qu'une douzaine d'autres néoconservateurs éminents, ont écrit une lettre ouverte au président Bill Clinton dénonçant sa politique d'endiguement de l'Irak comme un échec et exigeant qu'il entre en guerre pour renverser Saddam Hussein. Poursuivre le "cours de faiblesse et de dérive", ont-ils averti, c'était "mettre nos intérêts et notre avenir en danger".

D'énormes majorités au Congrès, républicaines et démocrates, se sont précipitées pour adopter la loi de libération de l'Irak. Peu de démocrates ou de républicains ont osé être considérés comme indulgents en matière de sécurité nationale. La loi stipulait que le gouvernement des États-Unis s'emploierait à "éliminer le régime dirigé par Saddam Hussein" et autorisait des millions de dollars à cet effet, une partie étant utilisée pour financer le Congrès national irakien d'Ahmed Chalabi qui deviendrait un instrument de diffusion des fabrications et des mensonges. utilisé pour justifier la guerre en Irak sous l'administration de George W. Bush.

Les attentats du 11 septembre ont donné à la guerre son ouverture, d'abord avec l'Afghanistan, puis l'Irak. Krauthammer, qui ne savait rien du monde musulman, a écrit que : "La façon d'apprivoiser la rue arabe n'est pas avec l'apaisement et la douce sensibilité mais avec la puissance brute et la victoire… La vérité élémentaire qui semble échapper encore et encore aux experts… est que le pouvoir est sa propre récompense. La victoire change tout, psychologiquement avant tout. La psychologie au [Moyen-Orient] est maintenant celle de la peur et du profond respect pour la puissance américaine. Il est maintenant temps de l'utiliser."

Renverser Saddam Hussein du pouvoir, chantait Kristol, "transformera le paysage politique du Moyen-Orient".

Il l'a fait, bien sûr, mais pas d'une manière qui a profité aux États-Unis

Ils aspirent à une guerre mondiale apocalyptique. Fred Kagan, le frère de Robert, un historien militaire, écrivait en 1999 que "l'Amérique doit être capable de combattre l'Irak et la Corée du Nord, et aussi être capable de combattre le génocide dans les Balkans et ailleurs sans compromettre sa capacité à combattre deux conflits régionaux majeurs. . Et il doit être capable d'envisager une guerre avec la Chine ou la Russie dans un temps considérable (mais pas infini) à partir de maintenant" (souligné par l'auteur).

Ils croient que la violence résout comme par magie tous les différends, même le bourbier israélo-palestinien. Dans une interview bizarre immédiatement après le 11 septembre, Donald Kagan, le classique de Yale et idéologue de droite qui était le père de Robert et Fred, a appelé, avec son fils Fred, au déploiement de troupes américaines à Gaza afin que nous puissions "amener la guerre à ces gens".

Ils exigent depuis longtemps le stationnement de troupes de l'OTAN en Ukraine, Robert Kagan déclarant que "nous ne devons pas nous inquiéter que le problème soit notre encerclement plutôt que les ambitions russes". Son épouse, Victoria Nuland, fut dévoilée lors d'une conversation téléphonique divulguée en 2014 avec l'ambassadeur américain en Ukraine, Geoffrey Pyatt, dénigrant l'UE et complotant pour destituer le président légalement élu Viktor Ianoukovitch et installer au pouvoir des politiciens ukrainiens dociles, dont la plupart l'ont fait. finalement prendre le pouvoir.

Ils ont fait pression pour que des troupes américaines soient envoyées en Syrie pour aider les rebelles "modérés" cherchant à renverser Bashar al-Assad. Alors que l'intervention en Irak avait déjà engendré le Califat. Les États-Unis ont donc fini par bombarder les forces mêmes qu'ils avaient armées, devenant de facto l'armée de l'air d'Assad.

L'invasion russe de l'Ukraine, comme les attentats du 11 septembre, est une prophétie auto-réalisatrice. Poutine, comme tous ceux qu'ils ciblent, ne comprend que la force. Nous pouvons, nous assurent-ils, plier militairement la Russie à notre volonté.

"Il est vrai qu'agir fermement en 2008 ou 2014 aurait signifié risquer un conflit", a écrit Robert Kagan dans le dernier numéro des Affaires étrangères de l'Ukraine, déplorant notre refus d'affronter militairement la Russie plus tôt. Il a écrit:

" Mais Washington risque maintenant un conflit ; Les ambitions de la Russie ont créé une situation intrinsèquement dangereuse. Il est préférable pour les États-Unis de risquer la confrontation avec des puissances belligérantes lorsqu'elles en sont aux premiers stades de l'ambition et de l'expansion, et non après qu'elles ont déjà consolidé des gains substantiels. La Russie possède peut-être un arsenal nucléaire redoutable, mais le risque que Moscou l'utilise n'est pas plus élevé aujourd'hui qu'il ne l'aurait été en 2008 ou 2014, si l'Occident était alors intervenu. Et il a toujours été extraordinairement faible : Poutine n'atteindrait jamais ses objectifs en se détruisant lui-même et son pays, ainsi qu'une grande partie du reste du monde."

En bref, ne vous inquiétez pas d'entrer en guerre avec la Russie, Poutine n'utilisera pas la bombe.

Je ne sais pas si ces gens sont stupides ou cyniques ou les deux. Ils sont généreusement financés par l'industrie de guerre. Ils ne sont jamais retirés des instances suite à leurs idioties répétées. Ils entrent et sortent du pouvoir, parqués dans des endroits comme le Council on Foreign Relations ou le Brookings Institute, avant d'être rappelés au gouvernement. Ils sont aussi bienvenus à la Maison Blanche d'Obama ou de Biden qu'à la Maison Blanche de Bush.

La guerre froide, pour eux, n'a jamais pris fin. Le monde reste binaire, nous et eux, le bien et le mal. Ils ne sont jamais tenus pour responsables. Quand une intervention militaire part en fumée, ils sont prêts à promouvoir la suivante. Ces Dr Folamours, si nous ne les arrêtons pas, mettront fin à la vie telle que nous la connaissons sur la planète. 

Auteur: Hedges Christopher Lynn

Info: https://consortiumnews.com/2022/04/11/chris-hedges-the-pimps-of-war/

[ va-t-en-guerre ] [ bellicistes ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

bio-évolution

La "tectonique" des chromosomes révèle les secrets de l'évolution des premiers animaux

De grands blocs de gènes conservés au cours de centaines de millions d'années d'évolution permettent de comprendre comment les premiers chromosomes animaux sont apparus.

De nouvelles recherches ont montré que des blocs de gènes liés peuvent conserver leur intégrité et être suivis au cours de l'évolution. Cette découverte est à la base de ce que l'on appelle la tectonique des génomes (photo).

Les chromosomes, ces faisceaux d'ADN qui se mettent en scène dans le ballet mitotique de la division cellulaire, jouent un rôle de premier plan dans la vie complexe. Mais la question de savoir comment les chromosomes sont apparus et ont évolué a longtemps été d'une difficulté décourageante. C'est dû en partie au manque d'informations génomiques au niveau des chromosomes et en partie au fait que l'on soupçonne que des siècles de changements évolutifs ont fait disparaître tout indice sur cette histoire ancienne.

Dans un article paru dans Science Advances, une équipe internationale de chercheurs dirigée par Daniel Rokhsar, professeur de sciences biologiques à l'université de Californie à Berkeley, a suivi les changements survenus dans les chromosomes il y a 800 millions d'années.  Ils ont identifié 29 grands blocs de gènes qui sont restés identifiables lors de leur passage dans trois des plus anciennes subdivisions de la vie animale multicellulaire. En utilisant ces blocs comme marqueurs, les scientifiques ont pu déterminer comment les chromosomes se sont fusionnés et recombinés au fur et à mesure que ces premiers groupes d'animaux devenaient distincts.

Les chercheurs appellent cette approche "tectonique du génome". De la même manière que les géologues utilisent leur compréhension de la tectonique des plaques pour comprendre l'apparition et le mouvement des continents, ces biologistes reconstituent comment diverses duplications, fusions et translocations génomiques ont créé les chromosomes que nous voyons aujourd'hui.

Ces travaux annoncent une nouvelle ère de la génomique comparative : Auparavant, les chercheurs étudiaient des collections de gènes de différentes lignées et décrivaient les changements une paire de bases à la fois. Aujourd'hui, grâce à la multiplication des assemblages de chromosomes, les chercheurs peuvent retracer l'évolution de chromosomes entiers jusqu'à leur origine. Ils peuvent ensuite utiliser ces informations pour faire des prédictions statistiques et tester rigoureusement des hypothèses sur la façon dont les groupes d'organismes sont liés.

Il y a deux ans, à l'aide de méthodes novatrices similaires, M. Rokhsar et ses collègues ont résolu un mystère de longue date concernant la chronologie des duplications du génome qui ont accompagné l'apparition des vertébrés à mâchoires. Mais l'importance de cette approche n'est pas purement rétrospective. En faisant ces découvertes, les chercheurs apprennent les règles algébriques simples qui régissent ce qui se passe lorsque les chromosomes échangent des parties d'eux-mêmes. Ces informations peuvent orienter les futures études génomiques et aider les biologistes à prédire ce qu'ils trouveront dans les génomes des espèces qui n'ont pas encore été séquencées.

"Nous commençons à avoir une vision plus large de l'évolution des chromosomes dans l'arbre de la vie", a déclaré Paulyn Cartwright, professeur d'écologie et de biologie évolutive à l'université du Kansas. Selon elle, les scientifiques peuvent désormais tirer des conclusions sur le contenu des chromosomes des tout premiers animaux. Ils peuvent également examiner comment les différents contenus des chromosomes ont changé ou sont restés les mêmes - et pourquoi - à mesure que les animaux se sont diversifiés. "Nous ne pouvions vraiment pas faire cela avant de disposer de ces génomes de haute qualité". 

Ce que partagent les anciens génomes

Dans l'étude publiée aujourd'hui, Rokhsar et une grande équipe internationale de collaborateurs ont produit le premier assemblage de haute qualité, au niveau des chromosomes, du génome de l'hydre, qu'ils décrivent comme un modèle de "vénérable cnidaire". En le comparant à d'autres génomes animaux disponibles, ils ont découvert des groupes de gènes liés hautement conservés. Bien que l'ordre des gènes au sein d'un bloc soit souvent modifié, les blocs eux-mêmes sont restés stables sur de longues périodes d'évolution.

Lorsque les scientifiques ont commencé à séquencer les génomes animaux il y a une vingtaine d'années, beaucoup d'entre eux n'étaient pas convaincus que des groupes de gènes liés entre eux sur les chromosomes pouvaient rester stables et reconnaissables au cours des éons, et encore moins qu'il serait possible de suivre le passage de ces blocs de gènes à travers pratiquement toutes les lignées animales.

Les animaux ont divergé de leurs parents unicellulaires il y a 600 ou 700 millions d'années, et "être capable de reconnaître les morceaux de chromosomes qui sont encore conservés après cette période de temps est étonnant", a déclaré Jordi Paps, un biologiste de l'évolution à l'Université de Bristol au Royaume-Uni.

"Avant de disposer de ces données sur les chromosomes entiers, nous examinions de petits fragments de chromosomes et nous observions de nombreux réarrangements", a déclaré M. Cartwright. "Nous supposions donc qu'il n'y avait pas de conservation, car les gènes eux-mêmes dans une région du chromosome changent de position assez fréquemment."

Pourtant, bien que l'ordre des gènes soit fréquemment remanié le long des chromosomes, Rokhsar a eu l'intuition, grâce à ses études antérieures sur les génomes animaux, qu'il y avait une relative stabilité dans les gènes apparaissant ensemble. "Si vous comparez une anémone de mer ou une éponge à un être humain, le fait que les gènes se trouvent sur le même morceau d'ADN semble être conservé", explique Rokhsar. "Et le modèle suggérait que des chromosomes entiers étaient également conservés". Mais cette notion n'a pu être testée que récemment, lorsque suffisamment d'informations génomiques à l'échelle du chromosome sur divers groupes d'animaux sont devenues disponibles.

Inertie génomique

Mais pourquoi des blocs de gènes restent-ils liés entre eux ? Selon Harris Lewin, professeur d'évolution et d'écologie à l'université de Californie à Davis, qui étudie l'évolution des génomes de mammifères, une des explications de ce phénomène, appelé synténie, est liée à la fonction des gènes. Il peut être plus efficace pour les gènes qui fonctionnent ensemble d'être physiquement situés ensemble ; ainsi, lorsqu'une cellule a besoin de transcrire des gènes, elle n'a pas à coordonner la transcription à partir de plusieurs endroits sur différents chromosomes. 

Ceci explique probablement la conservation de certains ensembles de gènes dont l'agencement est crucial : les gènes Hox qui établissent les plans corporels des animaux, par exemple, doivent être placés dans un ordre spécifique pour établir correctement le schéma corporel. Mais ces gènes étroitement liés se trouvent dans un morceau d'ADN relativement court. M. Rokhsar dit qu'il ne connaît aucune corrélation fonctionnelle s'étendant sur un chromosome entier qui pourrait expliquer leurs résultats.

(Ici une image décrit les différents types de fusion de chromosomes et l'effet de chacun sur l'ordre des gènes qu'ils contiennent.)

C'est pourquoi Rokhsar est sceptique quant à une explication fonctionnelle. Elle est séduisante ("Ce serait le résultat le plus cool, d'une certaine manière", dit-il) mais peut-être aussi inutile car, à moins qu'un réarrangement chromosomique ne présente un avantage fonctionnel important, il est intrinsèquement difficile pour ce réarrangement de se propager. Et les réarrangements ne sont généralement pas avantageux : Au cours de la méiose et de la formation des gamètes, tous les chromosomes doivent s'apparier avec un partenaire correspondant. Sans partenaire, un chromosome de taille inhabituelle ne pourra pas faire partie d'un gamète viable, et il a donc peu de chances de se retrouver dans la génération suivante. De petites mutations qui remanient l'ordre des gènes à l'intérieur des chromosomes peuvent encore se produire ("Il y a probablement une petite marge d'erreur en termes de réarrangements mineurs, de sorte qu'ils peuvent encore se reconnaître", a déclaré Cartwright). Mais les chromosomes brisés ou fusionnés ont tendance à être des impasses.

Peut-être que dans des groupes comme les mammifères, qui ont des populations de petite taille, un réarrangement pourrait se propager de façon aléatoire par ce qu'on appelle la dérive génétique, suggère Rokhsar. Mais dans les grandes populations qui se mélangent librement, comme celles des invertébrés marins qui pondent des centaines ou des milliers d'œufs, "il est vraiment difficile pour l'un des nouveaux réarrangements de s'imposer", a-t-il déclaré. "Ce n'est pas qu'ils ne sont pas tentés. C'est juste qu'ils ne parviennent jamais à s'imposer dans l'évolution."

Par conséquent, les gènes ont tendance à rester bloqués sur un seul chromosome. "Les processus par lesquels ils se déplacent sont tout simplement lents, sur une échelle de 500 millions d'années", déclare Rokhsar. "Même s'il s'est écoulé énormément de temps, ce n'est toujours pas assez long pour qu'ils puissent se développer".

( une image avec affichage de données montre comment des blocs de gènes ont eu tendance à rester ensemble même lorsqu'ils se déplaçaient vers différents chromosomes dans l'évolution de cinq premières espèces animales.)

L'équipe de Rokhsar a toutefois constaté que lorsque ces rares fusions de chromosomes se produisaient, elles laissaient une signature claire : Après une fusion, les gènes des deux blocs s'entremêlent et sont réorganisés car des "mutations d'inversion" s'y sont accumulées au fil du temps. En conséquence, les gènes des deux blocs se sont mélangés comme du lait versé dans une tasse de thé, pour ne plus jamais être séparés. "Il y a un mouvement entropique vers le mélange qui ne peut être annulé", affirme Rokhsar.

Et parce que les processus de fusion, de mélange et de duplication de blocs génétiques sont si rares, irréversibles et spécifiques, ils sont traçables : Il est très improbable qu'un chromosome se fracture deux fois au même endroit, puis fusionne et se mélange avec un autre bloc génétique de la même manière.

Les signatures de ces événements dans les chromosomes représentent donc un nouvel ensemble de caractéristiques dérivées que les biologistes peuvent utiliser pour tester des hypothèses sur la façon dont les espèces sont liées. Si deux lignées partagent un mélange de deux blocs de gènes, le mélange s'est très probablement produit chez leur ancêtre commun. Si des lignées ont deux ensembles de mêmes blocs de gènes, une duplication du génome a probablement eu lieu chez leur ancêtre commun. Cela fait des syntéries un "outil très, très puissant", a déclaré Oleg Simakov, génomiste à l'université de Vienne et premier auteur des articles. 

Empreintes digitales d'événements évolutifs

"L'un des aspects que je préfère dans notre étude est que nous faisons des prédictions sur ce à quoi il faut s'attendre au sein des génomes qui n'ont pas encore été séquencés", a écrit Rokhsar dans un courriel adressé à Quanta. Par exemple, son équipe a découvert que divers invertébrés classés comme spiraliens partagent tous quatre schémas spécifiques de fusion avec mélange, ce qui implique que les événements de fusion se sont produits chez leur ancêtre commun. "Il s'ensuit que tous les spiraliens devraient présenter ces schémas de fusion avec mélange de modèles", écrit Rokhsar. "Si l'on trouve ne serait-ce qu'un seul spiralien dépourvu de ces motifs, alors l'hypothèse peut être rejetée !".

Et d'ajouter : "On n'a pas souvent l'occasion de faire ce genre de grandes déclarations sur l'histoire de l'évolution."

Dans leur nouvel article Science Advances, Simakov, Rokhsar et leurs collègues ont utilisé l'approche tectonique pour en savoir plus sur l'émergence de certains des premiers groupes d'animaux il y a environ 800 millions d'années. En examinant le large éventail de vie animale représenté par les éponges, les cnidaires (tels que les hydres, les méduses et les coraux) et les bilatériens (animaux à symétrie bilatérale), les chercheurs ont trouvé 27 blocs de gènes hautement conservés parmi leurs chromosomes.

Ensuite, en utilisant les règles de fusion chromosomique et génétique qu'ils avaient identifiées, les chercheurs ont reconstitué les événements de mélange au niveau des chromosomes qui ont accompagné l'évolution de ces trois lignées à partir d'un ancêtre commun. Ils ont montré que les chromosomes des éponges, des cnidaires et des bilatériens représentent tous des manières distinctes de combiner des éléments du génome ancestral.

(Pour expliquer les 2 paragraphes précédents une image avec 3 schémas montre la fusion des chromosomes au début de l'évolution pou arriver au 27 blocs de gènes)

Une découverte stimulante qui a été faite est que certains des blocs de gènes liés semblent également présents dans les génomes de certaines créatures unicellulaires comme les choanoflagellés, les plus proches parents des animaux multicellulaires. Chez les animaux multicellulaires, l'un de ces blocs contient un ensemble diversifié de gènes homéobox qui guident le développement de la structure générale de leur corps. Cela suggère que l'un des tout premiers événements de l'émergence des animaux multicellulaires a été l'expansion et la diversification de ces gènes importants. "Ces anciennes unités de liaison fournissent un cadre pour comprendre l'évolution des gènes et des génomes chez les animaux", notent les scientifiques dans leur article.

Leur approche permet de distinguer de subtiles et importantes différences au niveau des événements chromosomiques. Par exemple, dans leur article de 2020, les chercheurs ont déduit que le génome des vertébrés avait subi une duplication au cours de la période cambrienne, avant que l'évolution ne sépare les poissons sans mâchoire des poissons avec mâchoire. Ils ont ensuite trouvé des preuves que deux poissons à mâchoires se sont hybridés plus tard et ont subi une deuxième duplication de leur génome ; cet hybride est devenu l'ancêtre de tous les poissons osseux.

John Postlethwait, génomicien à l'université de l'Oregon, souligne l'importance de la méthode d'analyse de l'équipe. "Ils ont adopté une approche statistique, et ne se sont pas contentés de dire : "Eh bien, il me semble que telle et telle chose s'est produite", a-t-il déclaré. "C'est une partie vraiment importante de leur méthodologie, non seulement parce qu'ils avaient accès à des génomes de meilleure qualité, mais aussi parce qu'ils ont adopté cette approche quantitative et qu'ils ont réellement testé ces hypothèses."

Ces études ne marquent que le début de ce que la tectonique des génomes et  ce que les syntagmes génétiques peuvent nous apprendre. Dans des prépublications récentes partagées sur biorxiv.org, l'équipe de Rokhsar a reconstitué l'évolution des chromosomes de grenouilles, et une équipe européenne s'est penchée sur l'évolution des chromosomes des poissons téléostéens. Une étude parue dans Current Biology a révélé une "inversion massive du génome" à l'origine de la coexistence de formes divergentes chez la caille commune, ce qui laisse entrevoir certaines des conséquences fonctionnelles du réarrangement des chromosomes.

L'hypothèse selon laquelle le mélange de ces groupes de liaisons génétiques pourrait être lié à la diversification des lignées et à l'innovation évolutive au cours des 500 derniers millions d'années est alléchante. Les réarrangements chromosomiques peuvent conduire à des incompatibilités d'accouplement qui pourraient provoquer la scission en deux d'une lignée. Il est également possible qu'un gène atterrissant dans un nouveau voisinage ait conduit à des innovations dans la régulation des gènes. "Peut-être que ce fut l'une des forces motrices de la diversification des animaux", a déclaré Simakov.

"C'est la grande question", a déclaré Lewin. "Il s'agit de véritables bouleversements tectoniques dans le génome, et il est peu probable qu'ils soient sans conséquence".

Auteur: Internet

Info: https://www.quantamagazine.org/secrets-of-early-animal-evolution-revealed-by-chromosome-tectonics-20220202.Viviane Callier 2 février 2022

[ méta-moteurs ] [ néo-phylogénie ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Chat GPT ou le perroquet grammairien

L’irruption des IA conversationnelles dans la sphère publique a conféré une pertinence supplémentaire aux débats sur le langage humain et sur ce qu’on appelle parler. Notamment, les IA redonnent naissance à un débat ancien sur la grammaire générative et sur l’innéisme des facultés langagières. Mais les grands modèles de langage et les IA neuronales nous offrent peut-être l’occasion d’étendre le domaine de la réflexion sur l’architecture des systèmes possibles de cognition, de communication et d’interaction, et considérant aussi la façon dont les animaux communiquent.

a capacité de ChatGPT à produire des textes en réponse à n’importe quelle requête a immédiatement attiré l’attention plus ou moins inquiète d’un grand nombre de personnes, les unes animées par une force de curiosité ou de fascination, et les autres, par un intérêt professionnel.

L’intérêt professionnel scientifique que les spécialistes du langage humain peuvent trouver aux Large Language Models ne date pas d’hier : à bien des égards, des outils de traduction automatique comme DeepL posaient déjà des questions fondamentales en des termes assez proches. Mais l’irruption des IA conversationnelles dans la sphère publique a conféré une pertinence supplémentaire aux débats sur ce que les Large Language Models sont susceptibles de nous dire sur le langage humain et sur ce qu’on appelle parler.

L’outil de traduction DeepL (ou les versions récentes de Google Translate) ainsi que les grands modèles de langage reposent sur des techniques d’" apprentissage profond " issues de l’approche " neuronale " de l’Intelligence Artificielle : on travaille ici sur des modèles d’IA qui organisent des entités d’information minimales en les connectant par réseaux ; ces réseaux de connexion sont entraînés sur des jeux de données considérables, permettant aux liaisons " neuronales " de se renforcer en proportion des probabilités de connexion observées dans le jeu de données réelles – c’est ce rôle crucial de l’entraînement sur un grand jeu de données qui vaut aux grands modèles de langage le sobriquet de " perroquets stochastiques ". Ces mécanismes probabilistes sont ce qui permet aussi à l’IA de gagner en fiabilité et en précision au fil de l’usage. Ce modèle est qualifié de " neuronal " car initialement inspiré du fonctionnement des réseaux synaptiques. Dans le cas de données langagières, à partir d’une requête elle-même formulée en langue naturelle, cette technique permet aux agents conversationnels ou aux traducteurs neuronaux de produire très rapidement des textes généralement idiomatiques, qui pour des humains attesteraient d’un bon apprentissage de la langue.

IA neuronales et acquisition du langage humain

Au-delà de l’analogie " neuronale ", ce mécanisme d’entraînement et les résultats qu’il produit reproduisent les théories de l’acquisition du langage fondées sur l’interaction avec le milieu. Selon ces modèles, généralement qualifiés de comportementalistes ou behavioristes car étroitement associés aux théories psychologiques du même nom, l’enfant acquiert le langage par l’exposition aux stimuli linguistiques environnants et par l’interaction (d’abord tâtonnante, puis assurée) avec les autres. Progressivement, la prononciation s’aligne sur la norme majoritaire dans l’environnement individuel de la personne apprenante ; le vocabulaire s’élargit en fonction des stimuli ; l’enfant s’approprie des structures grammaticales de plus en plus contextes ; et en milieu bilingue, les enfants apprennent peu à peu à discriminer les deux ou plusieurs systèmes auxquels ils sont exposés. Cette conception essentiellement probabiliste de l’acquisition va assez spontanément de pair avec des théories grammaticales prenant comme point de départ l’existence de patrons (" constructions ") dont la combinatoire constitue le système. Dans une telle perspective, il n’est pas pertinent qu’un outil comme ChatGPT ne soit pas capable de référer, ou plus exactement qu’il renvoie d’office à un monde possible stochastiquement moyen qui ne coïncide pas forcément avec le monde réel. Cela ne change rien au fait que ChatGPT, DeepL ou autres maîtrisent le langage et que leur production dans une langue puisse être qualifiée de langage : ChatGPT parle.

Mais ce point de vue repose en réalité sur un certain nombre de prémisses en théorie de l’acquisition, et fait intervenir un clivage lancinant au sein des sciences du langage. L’actualité de ces dernières années et surtout de ces derniers mois autour des IA neuronales et génératives redonne à ce clivage une acuité particulière, ainsi qu’une pertinence nouvelle pour l’appréhension de ces outils qui transforment notre rapport au texte et au discours. La polémique, comme souvent (trop souvent ?) quand il est question de théorie du langage et des langues, se cristallise – en partie abusivement – autour de la figure de Noam Chomsky et de la famille de pensée linguistique très hétérogène qui se revendique de son œuvre, généralement qualifiée de " grammaire générative " même si le pluriel (les grammaires génératives) serait plus approprié.

IA générative contre grammaire générative

Chomsky est à la fois l’enfant du structuralisme dans sa variante états-unienne et celui de la philosophie logique rationaliste d’inspiration allemande et autrichienne implantée sur les campus américains après 1933. Chomsky est attaché à une conception forte de la logique mathématisée, perçue comme un outil d’appréhension des lois universelles de la pensée humaine, que la science du langage doit contribuer à éclairer. Ce parti-pris que Chomsky qualifiera lui-même de " cartésien " le conduit à fonder sa linguistique sur quelques postulats psychologiques et philosophiques, dont le plus important est l’innéisme, avec son corollaire, l’universalisme. Selon Chomsky et les courants de la psychologie cognitive influencée par lui, la faculté de langage s’appuie sur un substrat génétique commun à toute l’espèce humaine, qui s’exprime à la fois par un " instinct de langage " mais aussi par l’existence d’invariants grammaticaux, identifiables (via un certain niveau d’abstraction) dans toutes les langues du monde.

La nature de ces universaux fluctue énormément selon quelle période et quelle école du " générativisme " on étudie, et ce double postulat radicalement innéiste et universaliste reste très disputé aujourd’hui. Ces controverses mettent notamment en jeu des conceptions très différentes de l’acquisition du langage et des langues. Le moment fondateur de la théorie chomskyste de l’acquisition dans son lien avec la définition même de la faculté de langage est un violent compte-rendu critique de Verbal Behavior, un ouvrage de synthèse des théories comportementalistes en acquisition du langage signé par le psychologue B.F. Skinner. Dans ce compte-rendu publié en 1959, Chomsky élabore des arguments qui restent structurants jusqu’à aujourd’hui et qui définissent le clivage entre l’innéisme radical et des théories fondées sur l’acquisition progressive du langage par exposition à des stimuli environnementaux. C’est ce clivage qui préside aux polémiques entre linguistes et psycholinguistes confrontés aux Large Language Models.

On comprend dès lors que Noam Chomsky et deux collègues issus de la tradition générativiste, Ian Roberts, professeur de linguistique à Cambridge, et Jeffrey Watumull, chercheur en intelligence artificielle, soient intervenus dans le New York Times dès le 8 mars 2023 pour exposer un point de vue extrêmement critique intitulée " La fausse promesse de ChatGPT ". En laissant ici de côté les arguments éthiques utilisés dans leur tribune, on retiendra surtout l’affirmation selon laquelle la production de ChatGPT en langue naturelle ne pourrait pas être qualifiée de " langage " ; ChatGPT, selon eux, ne parle pas, car ChatGPT ne peut pas avoir acquis la faculté de langage. La raison en est simple : si les Grands Modèles de Langage reposent intégralement sur un modèle behaviouriste de l’acquisition, dès lors que ce modèle, selon eux, est réfuté depuis soixante ans, alors ce que font les Grands Modèles de Langage ne peut être qualifié de " langage ".

Chomsky, trop têtu pour qu’on lui parle ?

Le point de vue de Chomsky, Roberts et Watumull a été instantanément tourné en ridicule du fait d’un choix d’exemple particulièrement malheureux : les trois auteurs avançaient en effet que certaines constructions syntaxiques complexes, impliquant (dans le cadre générativiste, du moins) un certain nombre d’opérations sur plusieurs niveaux, ne peuvent être acquises sur la base de l’exposition à des stimuli environnementaux, car la fréquence relativement faible de ces phénomènes échouerait à contrebalancer des analogies formelles superficielles avec d’autres tournures au sens radicalement différent. Dans la tribune au New York Times, l’exemple pris est l’anglais John is too stubborn to talk to, " John est trop entêté pour qu’on lui parle ", mais en anglais on a littéralement " trop têtu pour parler à " ; la préposition isolée (ou " échouée ") en position finale est le signe qu’un constituant a été supprimé et doit être reconstitué aux vues de la structure syntaxique d’ensemble. Ici, " John est trop têtu pour qu’on parle à [John] " : le complément supprimé en anglais l’a été parce qu’il est identique au sujet de la phrase.

Ce type d’opérations impliquant la reconstruction d’un complément d’objet supprimé car identique au sujet du verbe principal revient dans la plupart des articles de polémique de Chomsky contre la psychologie behaviouriste et contre Skinner dans les années 1950 et 1960. On retrouve même l’exemple exact de 2023 dans un texte du début des années 1980. C’est en réalité un exemple-type au service de l’argument selon lequel l’existence d’opérations minimales universelles prévues par les mécanismes cérébraux humains est nécessaire pour l’acquisition complète du langage. Il a presque valeur de shibboleth permettant de séparer les innéistes et les comportementalistes. Il est donc logique que Chomsky, Roberts et Watumull avancent un tel exemple pour énoncer que le modèle probabiliste de l’IA neuronale est voué à échouer à acquérir complètement le langage.

On l’aura deviné : il suffit de demander à ChatGPT de paraphraser cette phrase pour obtenir un résultat suggérant que l’agent conversationnel a parfaitement " compris " le stimulus. DeepL, quand on lui demande de traduire cette phrase en français, donne deux solutions : " John est trop têtu pour qu’on lui parle " en solution préférée et " John est trop têtu pour parler avec lui " en solution de remplacement. Hors contexte, donc sans qu’on sache qui est " lui ", cette seconde solution n’est guère satisfaisante. La première, en revanche, fait totalement l’affaire.

Le détour par DeepL nous montre toutefois la limite de ce petit test qui a pourtant réfuté Chomsky, Roberts et Watumull : comprendre, ici, ne veut rien dire d’autre que " fournir une paraphrase équivalente ", dans la même langue (dans le cas de l’objection qui a immédiatement été faite aux trois auteurs) ou dans une autre (avec DeepL), le problème étant que les deux équivalents fournis par DeepL ne sont justement pas équivalents entre eux, puisque l’un est non-ambigu référentiellement et correct, tandis que l’autre est potentiellement ambigu référentiellement, selon comment on comprend " lui ". Or l’argument de Chomsky, Roberts et Watumull est justement celui de l’opacité du complément d’objet… Les trois auteurs ont bien sûr été pris à défaut ; reste que le test employé, précisément parce qu’il est typiquement behaviouriste (observer extérieurement l’adéquation d’une réaction à un stimulus), laisse ouverte une question de taille et pourtant peu présente dans les discussions entre linguistes : y a-t-il une sémantique des énoncés produits par ChatGPT, et si oui, laquelle ? Chomsky et ses co-auteurs ne disent pas que ChatGPT " comprend " ou " ne comprend pas " le stimulus, mais qu’il en " prédit le sens " (bien ou mal). La question de la référence, présente dans la discussion philosophique sur ChatGPT mais peu mise en avant dans le débat linguistique, n’est pas si loin.

Syntaxe et sémantique de ChatGPT

ChatGPT a une syntaxe et une sémantique : sa syntaxe est homologue aux modèles proposés pour le langage naturel invoquant des patrons formels quantitativement observables. Dans ce champ des " grammaires de construction ", le recours aux données quantitatives est aujourd’hui standard, en particulier en utilisant les ressources fournies par les " grand corpus " de plusieurs dizaines de millions voire milliards de mots (quinze milliards de mots pour le corpus TenTen francophone, cinquante-deux milliards pour son équivalent anglophone). D’un certain point de vue, ChatGPT ne fait que répéter la démarche des modèles constructionalistes les plus radicaux, qui partent de co-occurrences statistiques dans les grands corpus pour isoler des patrons, et il la reproduit en sens inverse, en produisant des données à partir de ces patrons.

Corrélativement, ChatGPT a aussi une sémantique, puisque ces théories de la syntaxe sont majoritairement adossées à des modèles sémantiques dits " des cadres " (frame semantics), dont l’un des inspirateurs n’est autre que Marvin Minsky, pionnier de l’intelligence artificielle s’il en est : la circulation entre linguistique et intelligence artificielle s’inscrit donc sur le temps long et n’est pas unilatérale. Là encore, la question est plutôt celle de la référence : la sémantique en question est très largement notionnelle et ne permet de construire un énoncé susceptible d’être vrai ou faux qu’en l’actualisant par des opérations de repérage (ne serait-ce que temporel) impliquant de saturer grammaticalement ou contextuellement un certain nombre de variables " déictiques ", c’est-à-dire qui ne se chargent de sens que mises en relation à un moi-ici-maintenant dans le discours.

On touche ici à un problème transversal aux clivages dessinés précédemment : les modèles " constructionnalistes " sont plus enclins à ménager des places à la variation contextuelle, mais sous la forme de variables situationnelles dont l’intégration à la description ne fait pas consensus ; les grammaires génératives ont très longtemps évacué ces questions hors de leur sphère d’intérêt, mais les considérations pragmatiques y fleurissent depuis une vingtaine d’années, au prix d’une convocation croissante du moi-ici-maintenant dans l’analyse grammaticale, du moins dans certains courants. De ce fait, l’inscription ou non des enjeux référentiels et déictiques dans la définition même du langage comme faculté humaine représente un clivage en grande partie indépendant de celui qui prévaut en matière de théorie de l’acquisition.

À l’école du perroquet

La bonne question, en tout cas la plus féconde pour la comparaison entre les productions langagières humaines et les productions des grands modèles de langage, n’est sans doute pas de savoir si " ChatGPT parle " ni si les performances de l’IA neuronale valident ou invalident en bloc tel ou tel cadre théorique. Une piste plus intéressante, du point de vue de l’étude de la cognition et du langage humains, consiste à comparer ces productions sur plusieurs niveaux : les mécanismes d’acquisition ; les régularités sémantiques dans leur diversité, sans les réduire aux questions de référence et faisant par exemple intervenir la conceptualisation métaphorique des entités et situations désignées ; la capacité à naviguer entre les registres et les variétés d’une même langue, qui fait partie intégrante de la maîtrise d’un système ; l’adaptation à des ontologies spécifiques ou à des contraintes communicatives circonstancielles… La formule du " perroquet stochastique ", prise au pied de la lettre, indique un modèle de ce que peut être une comparaison scientifique du langage des IA et du langage humain.

Il existe en effet depuis plusieurs décennies maintenant une linguistique, une psycholinguistique et une pragmatique de la communication animale, qui inclut des recherches comparant l’humain et l’animal. Les progrès de l’étude de la communication animale ont permis d’affiner la compréhension de la faculté de langage, des modules qui la composent, de ses prérequis cognitifs et physiologiques. Ces travaux ne nous disent pas si " les animaux parlent ", pas plus qu’ils ne nous disent si la communication des corbeaux est plus proche de celle des humains que celle des perroquets. En revanche ils nous disent comment diverses caractéristiques éthologiques, génétiques et cognitives sont distribuées entre espèces et comment leur agencement produit des modes de communication spécifiques. Ces travaux nous renseignent, en nous offrant un terrain d’expérimentation inédit, sur ce qui fait toujours système et sur ce qui peut être disjoint dans la faculté de langage. Loin des " fausses promesses ", les grands modèles de langage et les IA neuronales nous offrent peut-être l’occasion d’étendre le domaine de la réflexion sur l’architecture des systèmes possibles de cognition, de communication et d’interaction. 



 

Auteur: Modicom Pierre-Yves

Info: https://aoc.media/ 14 nov 2023

[ onomasiologie bayésienne ] [ sémiose homme-animal ] [ machine-homme ] [ tiercités hors-sol ] [ signes fixés externalisables ]

 

Commentaires: 0

Ajouté à la BD par miguel

protérozoïque

Des molécules fossilisées révèlent un monde perdu de vie ancienne

Une nouvelle analyse de sédiments vieux d’un milliard d’années comble une lacune dans les archives fossiles, révélant une dynastie de premiers eucaryotes qui pourraient avoir façonné l’histoire de la vie sur Terre.

Un arbre a quelque chose en commun avec les mauvaises herbes et les champignons qui poussent autour de ses racines, les écureuils qui grimpent sur son tronc, les oiseaux perchés sur ses branches et le photographe qui prend des photos de la scène. Ils ont tous un génome et une machinerie cellulaire soigneusement emballés dans des compartiments reliés par des membranes, un système organisationnel qui les place dans un groupe de formes de vie extrêmement performantes appelés eucaryotes.

Les débuts de l’histoire des eucaryotes fascinent depuis longtemps les scientifiques qui aspirent à comprendre quand la vie moderne a commencé et comment elle a évolué. Mais retracer les premiers eucaryotes à travers l’histoire de la Terre a été difficile. Des données fossiles limitées montrent que leur premier ancêtre est apparu il y a au moins 1,6 milliard d’années. Pourtant, d’autres preuves révélatrices de leur existence manquent. Les eucaryotes devraient produire et laisser derrière eux certaines molécules distinctives, mais les versions fossilisées de ces molécules n'apparaissent dans les archives rocheuses qu'il y a 800 millions d'années. Cet écart inexpliqué de 800 millions d'années dans l'histoire des premiers eucaryotes, période cruciale au cours de laquelle le dernier ancêtre commun de toute la vie complexe d'aujourd'hui est apparu, a enveloppé de mystère l'histoire des débuts de la vie.

"Il existe un énorme écart temporel entre les archives fossiles de ce que nous pensons être les premiers eucaryotes et les premiers biomarqueurs des eucaryotes", a déclaré Galen Halverson , professeur à l'Université McGill de Montréal.

Il existe de nombreuses explications possibles à cet écart paradoxal. Peut-être que les eucaryotes étaient trop rares à cette époque pour laisser derrière eux des preuves de fossiles moléculaires. Ou peut-être étaient-ils abondants, mais leurs fossiles moléculaires n’ont pas survécu aux dures conditions géologiques.

Une étude récente publiée dans Nature propose une explication alternative : les scientifiques ont peut-être recherché les mauvaises molécules fossilisées pendant tout ce temps. Lorsque les auteurs de l’étude ont recherché des versions plus primitives des produits chimiques recherchés par d’autres, ils les ont découverts en abondance – révélant ce qu’ils ont décrit comme " un monde perdu " d’eucaryotes qui vivaient il y a 800 millions à au moins 1,6 milliard d’années.

"Ces molécules ont toujours été là", a déclaré Jochen Brocks , géochimiste à l'Université nationale australienne de Canberra, qui a codirigé l'étude avec Benjamin Nettersheim, alors étudiant diplômé . "Nous ne pouvions pas les trouver parce que nous ne savions pas à quoi elles ressemblaient."

Les résultats apportent une nouvelle clarté à la dynamique de la vie eucaryote précoce. L'abondance de ces fossiles moléculaires suggère que les organismes primitifs ont prospéré dans les océans pendant des centaines de millions d'années avant que les ancêtres des eucaryotes modernes ne prennent le relais, semant des formes de vie qui évolueraient un jour vers les animaux, les plantes, les champignons et les protistes que nous voyons. aujourd'hui.

"C'est une hypothèse élégante qui semble réconcilier ces enregistrements très disparates", a déclaré Halverson, qui n'a pas participé à l'étude. " Cela donne un sens à tout."

Ces découvertes ont été une bonne nouvelle pour des paléontologues comme Phoebe Cohen , présidente de géosciences au Williams College dans le Massachusetts, qui a longtemps pensé qu'il manquait quelque chose dans le dossier des biomarqueurs. "Il existe une histoire riche et dynamique de la vie avant l'évolution des animaux, qui est plus difficile à comprendre car nous ne pouvons pas la voir", a déclaré Cohen. "Mais c'est extrêmement important car cela prépare le terrain pour le monde que nous avons aujourd'hui."

Le casse-tête des protostéroïdes

Lorsque les archives fossiles sont décevantes, les scientifiques disposent d’autres moyens pour estimer le moment où différentes espèces se sont dérivées les unes des autres dans l’arbre évolutif. Parmi ces outils figurent principalement les horloges moléculaires : des fragments d’ADN qui mutent à un rythme constant, permettant aux scientifiques d’estimer le passage du temps. Selon les horloges moléculaires, le dernier ancêtre commun des eucaryotes modernes, qui appartenait à un ensemble diversifié d’organismes appelé groupe couronne, est apparu pour la première fois il y a au moins 1,2 milliard d’années.

Mais l’histoire des eucaryotes ne commence pas là. D’autres eucaryotes primitifs, connus sous le nom de groupe souche, ont vécu des centaines de millions d’années avant l’évolution de notre premier ancêtre commun. Les chercheurs en savent peu sur eux, au-delà du fait qu’ils ont existé. La petite poignée d’anciens fossiles d’eucaryotes découverts sont trop ambigus pour être identifiés comme une tige ou une couronne.

En l’absence de fossiles corporels convaincants, les chercheurs recherchent des fossiles moléculaires. Les fossiles moléculaires, qui se conservent séparément des fossiles corporels, peuvent être difficiles à cerner pour les scientifiques. Ils doivent d’abord identifier quelles molécules auraient pu être produites uniquement par les organismes qu’ils souhaitent étudier. Ensuite, ils doivent composer avec le fait que toutes ces molécules ne se fossilisent pas bien.

La matière organique se désintègre à des rythmes différents et certaines parties des eucaryotes se conservent mieux que d’autres dans la roche. Les tissus se dissolvent en premier. L’ADN peut rester plus longtemps, mais pas trop longtemps : l’ADN le plus ancien jamais découvert a environ 2 millions d’années. Les molécules de graisse, cependant, peuvent potentiellement survivre pendant des milliards d’années.

Les eucaryotes créent de grandes quantités de molécules de graisse appelées stérols, un type de stéroïde qui constitue un composant essentiel des membranes cellulaires. Étant donné que la présence d’une membrane cellulaire est révélatrice des eucaryotes et que les molécules de graisse ont tendance à persister dans la roche, les stérols sont devenus le fossile moléculaire de référence pour ce groupe.

Les eucaryotes modernes fonctionnent avec trois grandes familles de stérols : le cholestérol chez les animaux, les phytostérols chez les plantes et l'ergostérol chez les champignons et certains protistes. Leur synthèse commence par une molécule linéaire, que la cellule façonne en quatre anneaux afin que la forme résultante s'intègre parfaitement dans une membrane, a déclaré Brocks. Ce processus comporte de nombreuses étapes : il faut huit étapes enzymatiques supplémentaires aux cellules animales pour fabriquer du cholestérol, tandis que les cellules végétales nécessitent 11 étapes enzymatiques supplémentaires pour fabriquer un phytostérol.

En route pour fabriquer son stérol avancé, une cellule crée une série de molécules plus simples à chaque étape du processus. Lorsqu’ils sont branchés sur une membrane artificielle, même ces stérols intermédiaires offrent la perméabilité et la rigidité dont une cellule a besoin pour fonctionner comme elle le devrait. Le biochimiste Konrad Bloch, qui a reçu le prix Nobel en 1964 en partie pour avoir découvert les étapes cellulaires de fabrication du cholestérol , "en a été perplexe", a déclaré Brocks. Pourquoi une cellule déploierait-elle des efforts supplémentaires pour fabriquer un stérol plus complexe alors qu’une molécule plus simple ferait le travail ?

En 1994, Bloch a écrit un livre dans lequel il prédisait que chacun de ces stérols intermédiaires avait été autrefois le produit final utilisé dans la membrane d'une cellule eucaryote ancestrale. Chaque étape supplémentaire a peut-être nécessité plus d'énergie de la cellule, mais la molécule résultante constituait une légère amélioration par rapport à la précédente – une amélioration suffisante pour surpasser le précurseur et s'imposer dans l'histoire de l'évolution.

Si cela était vrai, cela expliquerait pourquoi personne n’avait pu trouver de fossiles moléculaires de stérols avant l’expansion rapide des eucaryotes modernes, il y a environ 800 millions d’années. Les chercheurs recherchaient des cholestérols et d’autres structures modernes dans les archives rocheuses. Ils ne se rendaient pas compte que les anciennes voies biochimiques étaient plus courtes et que les organismes des groupes souches ne produisaient pas de stérols modernes : ils  faisaient des protostérols.

Mouture de café moléculaire

En 2005, environ cinq ans après la mort de Bloch, Brocks et ses collègues ont rapporté dans Nature les premiers indices de l'existence de telles molécules intermédiaires. Dans d'anciens sédiments, ils avaient trouvé des stéroïdes de structure inhabituelle qu'ils ne reconnaissaient pas. Mais à l’époque, Brocks ne pensait pas qu’un eucaryote aurait pu les créer. " À l’époque, j’étais assez convaincu qu’ils étaient bactériens ", a-t-il déclaré. "Personne ne pensait du tout à la possibilité d'avoir des eucaryotes du groupe souche."

Il a continué à échantillonner des roches anciennes et à rechercher ces curieuses molécules. Environ une décennie après le début de leurs travaux, Nettersheim et lui ont réalisé que de nombreuses structures moléculaires dans les échantillons de roche semblaient " primitives " et ne ressemblaient pas à celles que fabriquent généralement les bactéries, a déclaré Brocks. Serait-ce les stérols intermédiaires de Bloch ?

(Photo : De rares fossiles microscopiques de la vie ancienne fournissent des horodatages sur l’évolution des eucaryotes.  Satka favosa  (à gauche) et  Valeria lophostriata  datent d'il y a 1,6 milliard d'années. On ne sait pas si les organismes, probablement des protistes, appartiennent au groupe tige ou couronne. )

Il leur fallait davantage de preuves. Au cours de la décennie qui a suivi, Brocks et Nettersheim ont contacté des sociétés pétrolières et minières pour demander des échantillons de tout sédiment ancien qu'elles avaient accidentellement découvert lors d'expéditions de forage.

"La plupart des gens auraient trouvé deux exemples et publiés", a déclaré Andrew Knoll , professeur d'histoire naturelle à l'Université Harvard qui n'a pas participé à l'étude. (Il était le conseiller postdoctoral de Brocks il y a des années.) " Jochen a passé la majeure partie de la décennie à étudier les roches du Protérozoïque du monde entier. "

Pendant ce temps, les chercheurs ont créé un modèle de recherche pour identifier les molécules présentes dans les sédiments. Ils ont converti les molécules intermédiaires modernes fabriquées lors de la synthèse des stérols en équivalents géologiques plausibles des stéroïdes. (Le cholestérol, par exemple, se fossilise sous forme de cholestane.) " Si vous ne savez pas à quoi ressemble la molécule, vous ne la verrez pas 2, a déclaré Brocks.

En laboratoire, ils ont extrait des molécules fossiles des échantillons de sédiments en utilisant un processus qui " ressemble un peu à la préparation du café ", a déclaré Nettersheim. Après avoir broyé les roches, ils ont ajouté des solvants organiques pour en extraire les molécules – tout comme l’eau chaude est utilisée pour extraire le café des grains torréfiés et moulus.

(Photo :Benjamin Nettersheim, géochimiste à l'Université de Brême, examine les cartes moléculaires d'anciens sédiments rocheux à la recherche de biomarqueurs de la vie ancienne.)

Pour analyser leurs échantillons et les comparer à leurs références, ils ont utilisé la spectrométrie de masse, qui détermine le poids des molécules, et la chromatographie, qui révèle leur composition atomique.

Le processus est ardu. "Vous analysez des centaines de roches et ne trouvez rien", a déclaré Brocks. Lorsque l’on trouve quelque chose, il s’agit souvent d’une contamination récente. Mais plus ils analysaient d’échantillons, plus ils trouvaient de fossiles.

Certains échantillons étaient remplis à ras bord de protostéroïdes. Ils ont découvert ces molécules dans des roches datant d'il y a 800 millions à 1,6 milliard d'années. Il semblait que non seulement les eucaryotes anciens étaient présents depuis environ 800 millions d’années avant le décollage des eucaryotes modernes, mais qu’ils étaient également abondants.

Les chercheurs ont même pu reconnaître le processus évolutif des eucaryotes à mesure que leurs stéroïdes devenaient plus complexes. Par exemple, dans des roches vieilles de 1,3 milliard d’années, ils ont découvert une molécule intermédiaire plus avancée que les protostéroïdes vieux de 1,6 milliard d’années, mais pas aussi avancée que les stéroïdes modernes.

"C'était une façon très intelligente de traiter les archives manquantes de fossiles moléculaires", a déclaré David Gold , géobiologiste à l'Université de Californie à Davis, qui n'a pas participé à l'étude. Leur découverte a immédiatement comblé une lacune de 800 millions d’années dans l’histoire de la naissance de la vie moderne.

Un monde perdu

Les découvertes moléculaires, combinées aux données génétiques et fossiles, révèlent l'image la plus claire à ce jour de la dynamique eucaryote précoce d'il y a environ 1 milliard d'années, au cours de la mystérieuse ère médiane du Protérozoïque, ont déclaré les experts. D'après les preuves de Brocks et Nettersheim, les eucaryotes des groupes tige et couronne (stem and crown)  ont probablement vécu ensemble pendant des centaines de millions d'années et se sont probablement fait concurrence pendant une période que les géologues appellent le milliard ennuyeux en raison de sa lente évolution biologique.

L'absence de stéroïdes plus modernes à cette époque suggère que le groupe couronne n'a pas immédiatement pris le dessus. Au contraire, les organismes liés à la membrane ont commencé petit à mesure qu'ils trouvaient des niches dans l'ancien écosystème, a déclaré Gold. " Il faut beaucoup de temps pour que les [eucaryotes] deviennent écologiquement dominants ", a-t-il déclaré.

(Photo : Ces anciens microfossiles partagent un ancêtre avec tous les eucaryotes vivant aujourd’hui. Vieille d’un milliard d’années, l’algue benthique  Proterocladus antiquus  (au centre) est le plus ancien fossile de couronne connu. Il y a 750 millions d'années, les eucaryotes du groupe couronne tels que l'amibozoaire Bonniea dacruchares  (à gauche) et le rhizarien  Melicerion poikilon  (à droite) étaient courants.)

De gauche à droite : Susannah Porter ; Avec l'aimable autorisation de Virginia Tech ; Susannah Porter

Au début, le groupe souche avait peut-être un avantage. Les niveaux d’oxygène dans l’atmosphère étaient nettement inférieurs à ce qu’ils sont aujourd’hui. Étant donné que la construction de protostérols nécessite moins d’oxygène et d’énergie que les stérols modernes, les eucaryotes du groupe souche étaient probablement plus efficaces et plus abondants.

Leur influence déclina lorsque le monde traversa une transition critique connue sous le nom de période tonienne. Il y a entre 1 milliard et 720 millions d’années, l’oxygène, les nutriments et autres matières premières cellulaires ont augmenté dans les océans. Des fossiles d'eucaryotes modernes, comme des algues et des champignons, commencent à apparaître dans les archives rocheuses, et les stéroïdes modernes commencent à dépasser en nombre les protostéroïdes dans les biomarqueurs fossilisés – des preuves qui suggèrent que les eucaryotes du groupe couronne avaient commencé à prospérer, à augmenter en nombre et à se diversifier.

Pourquoi les stérols deviendraient-ils plus compliqués avec le temps ? Les auteurs suggèrent que les stérols les plus complexes confèrent à leurs propriétaires un certain avantage évolutif, peut-être lié à la dynamique des membranes cellulaires des créatures. Quelle que soit la raison, le changement de stérol était significatif sur le plan évolutif. La composition des stérols modernes a probablement donné aux eucaryotes du groupe couronne un avantage par rapport au groupe souche. Finalement, " ce monde perdu d’anciens eucaryotes a été remplacé par les eucaryotes modernes ", a déclaré Brocks.

Une ride bactérienne

L’histoire évolutive des chercheurs sur les stérols est convaincante, mais elle n’est pas solide comme le roc.

"Je ne serais pas surpris" si leur interprétation est correcte, a déclaré Gold. Cependant, il existe une autre possibilité. Bien que les scientifiques aient tendance à associer les stérols aux eucaryotes, certaines bactéries peuvent également les fabriquer. Les fossiles moléculaires de l’étude auraient-ils pu être laissés par des bactéries ?Gordon Love , géochimiste à l'Université de Californie à Riverside, pense que le scénario bactérien est plus logique. "Ces protostéroïdes se retrouvent dans les roches de tous âges", a-t-il déclaré. "Ils ne disparaissent pas tout simplement, ce qui signifie que quelque chose d'autre que les eucaryotes souches est capable de les fabriquer." Il a fait valoir que les bactéries, qui dominaient la mer à cette époque, auraient pu facilement produire des protostéroïdes.

Les auteurs ne peuvent pas exclure cette possibilité. En fait, ils soupçonnent que certaines de leurs molécules fossiles ont été fabriquées par des bactéries. Mais la possibilité que leur vaste collection de protostéroïdes fossilisés, s'étendant sur des centaines de millions d'années, ait été entièrement constituée de bactéries semble peu probable, a déclaré Brocks.


" Si vous regardez l'écologie de ces bactéries aujourd'hui et leur abondance, il n'y a tout simplement aucune raison de croire qu'elles pourraient devenir si abondantes qu'elles auraient pu produire toutes ces molécules", a-t-il déclaré. Dans le monde moderne, les bactéries produisent des protostérols uniquement dans des environnements de niche tels que les sources hydrothermales ou les suintements de méthane.

Cohen, paléontologue du Williams College, est d'accord avec Brocks. L’interprétation selon laquelle ces molécules ont été faites par des eucaryotes " est cohérente avec toutes les autres sources de preuves ", a-t-elle déclaré – des archives fossiles aux analyses de l’horloge moléculaire. " Je ne suis pas aussi inquiète 2 quant à cette possibilité, a-t-elle déclaré.

L’une ou l’autre interprétation présente plus de questions que de réponses. "Les deux histoires seraient absolument folles et bizarres", a déclaré Brocks. Ce sont " des visions différentes de notre monde ", a-t-il ajouté, et il serait bien de savoir laquelle est la vraie.

Faute de machine à remonter le temps, les chercheurs recherchent davantage de preuves pour améliorer leur certitude dans un sens ou dans l’autre. Mais il n’existe qu’un nombre limité de façons de reconstruire ou de percevoir la vie ancienne – et même les meilleures suppositions des scientifiques ne peuvent jamais combler complètement cette lacune. "La plupart des formes de vie n'ont laissé aucune trace sur Terre", a déclaré Nettersheim. " Le bilan que nous voyons est limité. … Pendant la majeure partie de l’histoire de la Terre, la vie aurait pu être très différente. "


Auteur: Internet

Info: Quanta Magazine, Yasemin Saplakoglu, 23 octobre 2023

[ unicité ] [ microbiote ] [ palier évolutif ] [ précambrien ] [ protérozoïque ]

 

Commentaires: 0

Ajouté à la BD par miguel

consumérisme

Comment réguler l’exploitation de notre attention ? Dans Les marchands d’attention (The Attention Merchants, 2017, Atlantic Books, non traduit), le professeur de droit, spécialiste des réseaux et de la régulation des médias, Tim Wu (@superwuster), 10 ans après avoir raconté l’histoire des télécommunications et du développement d’internet dans The Master Switch (où il expliquait la tendance de l’industrie à créer des empires et le risque des industries de la technologie à aller dans le même sens), raconte, sur 400 pages, l’histoire de l’industrialisation des médias américains et de la publicité de la fin du XIXe siècle à aujourd’hui. En passant d’une innovation médiatique l’autre, des journaux à la radio, de la télé à l’internet, Wu tisse une très informée histoire du rapport de l’exploitation commerciale de l’information et du divertissement. Une histoire de l’industrialisation des médias américains qui se concentre beaucoup sur leurs innovations et leurs modèles d’affaires, c’est-à-dire qui s’attarde à montrer comment notre attention a été convertie en revenus, comment nous avons été progressivement cédés à la logique du commerce – sans qu’on n’y trouve beaucoup à redire d’ailleurs.

"La compétition pour notre attention n’a jamais cherché à nous élever, au contraire."

Tout le long de cette histoire, Tim Wu insiste particulièrement sur le fait que la capture attentionnelle produite par les médias s’est faite par-devers nous. La question attentionnelle est souvent présentée comme le résultat d’une négociation entre l’utilisateur, le spectateur, et le service ou média qu’il utilise… mais aucun d’entre nous n’a jamais consenti à la capture attentionnelle, à l’extraction de son attention. Il souligne notamment que celle-ci est plus revendue par les médias aux annonceurs, qu’utilisée par les médias eux-mêmes. Il insiste également à montrer que cette exploitation vise rarement à nous aider à être en contrôle, au contraire. Elle ne nous a jamais apporté rien d’autre que toujours plus de contenus insignifiants. Des premiers journaux à 1 cent au spam publicitaire, l’exploitation attentionnelle a toujours visé nos plus vils instincts. Elle n’a pas cherché à nous élever, à nous aider à grandir, à développer nos connaissances, à créer du bien commun, qu’à activer nos réactions les plus instinctives. Notre exploitation commerciale est allée de pair avec l’évolution des contenus. Les journaux qui ont adopté le modèle publicitaire, ont également inventé des rubriques qui n’existaient pas pour mieux les servir : comme les faits divers, les comptes-rendus de procès, les récits de crimes… La compétition pour notre attention dégrade toujours les contenus, rappelle Tim Wu. Elle nous tourne vers "le plus tapageur, le plus sinistre, le plus choquant, nous propose toujours l’alternative la plus scandaleuse ou extravagante". Si la publicité a incontestablement contribué à développer l’économie américaine, Wu rappelle qu’elle n’a jamais cherché à présenter une information objective, mais plutôt à déformer nos mécanismes de choix, par tous les moyens possibles, même par le mensonge. L’exploitation attentionnelle est par nature une course contre l’éthique. Elle est et demeure avant tout une forme d’exploitation. Une traite, comme disait le spécialiste du sujet Yves Citton, en usant volontairement de ce vocabulaire marqué au fer.

Wu souligne que l’industrie des contenus a plus été complice de cette exploitation qu’autre chose. La presse par exemple, n’a pas tant cherché à contenir ou réguler la publicité et les revenus qu’elle générait, qu’à y répondre, qu’à évoluer avec elle, notamment en faisant évoluer ses contenus pour mieux fournir la publicité. Les fournisseurs de contenus, les publicitaires, aidés des premiers spécialistes des études comportementales, ont été les courtiers et les ingénieurs de l’économie de l’attention. Ils ont transformé l’approche intuitive et improvisée des premières publicités en machines industrielles pour capturer massivement l’attention. Wu rappelle par exemple que les dentifrices, qui n’existaient pas vraiment avant les années 20, vont prendre leur essor non pas du fait de la demande, mais bien du fait de l’offensive publicitaire, qui s’est attaquée aux angoisses inconscientes des contemporains. Plus encore que des ingénieurs de la demande, ces acteurs ont été des fabricants de comportements, de moeurs…

L’histoire de l’exploitation de notre attention souligne qu’elle est sans fin, que "les industries qui l’exploitent, contrairement aux organismes, n’ont pas de limite à leur propre croissance". Nous disposons de très peu de modalités pour limiter l’extension et la croissance de la manipulation attentionnelle. Ce n’est pas pour autant que les usagers ne se sont pas régulièrement révoltés, contre leur exploitation. "La seule dynamique récurrente qui a façonné la course des industries de l’attention a été la révolte". De l’opposition aux premiers panneaux publicitaires déposés en pleine ville au rejet de services web qui capturent trop nos données ou exploitent trop notre attention, la révolte des utilisateurs semble avoir toujours réussi à imposer des formes de régulations. Mais l’industrie de l’exploitation attentionnelle a toujours répondu à ces révoltes, s’adaptant, évoluant au gré des rejets pour proposer toujours de nouvelles formes de contenus et d’exploitation. Parmi les outils dont nous nous sommes dotés pour réguler le développement de l’économie de l’attention, Wu évoque trop rapidement le travail des associations de consommateurs (via par exemple le test de produits ou les plaintes collectives…) ou celui des régulateurs définissant des limites au discours publicitaire (à l’image de la création de la Commission fédérale du commerce américaine et notamment du bureau de la protection des consommateurs, créée pour réguler les excès des annonceurs, que ce soit en améliorant l’étiquetage des produits ou en interdisant les publicités mensongères comme celles, nombreuses, ventant des produits capables de guérir des maladies). Quant à la concentration et aux monopoles, ils ont également toujours été surveillés et régulés, que ce soit par la création de services publics ou en forçant les empires des médias à la fragmentation.

L’attention, un phénomène d’assimilation commercial et culturel L’invention du prime time à la radio puis à la télé a été à la fois une invention commerciale et culturelle, fusionnant le contenu au contenant, l’information/divertissement et la publicité en inventant un rituel d’attention collective massive. Il n’a pas servi qu’à générer une exposition publicitaire inédite, il a créé un phénomène social, une conscience et une identité partagée, tout en rendant la question de l’exposition publicitaire normale et sociale.

Dans la succession des techniques qu’ont inventés les médias de masse pour mobiliser et orienter les foules que décrit Tim Wu, on constate qu’une sorte de cycle semble se reproduire. Les nouvelles technologies et les nouveaux formats rencontrent des succès très rapides. Puis, le succès rencontre des résistances et les audiences se délitent vers de nouvelles techniques ou de nouveaux formats proposés par des concurrents. On a l’impression d’être dans une course poursuite où chaque décennie pourrait être représentée par le succès d’un support phare à l’image des 28 courts chapitres qui scandent le livre. L’essor de la télévision par exemple est fulgurant : entre 1950 et 1956 on passe de 9% à 72% des maisons équipées et à la fin des années 50, on l’a regarde déjà 5 heures par jour en moyenne. Les effets de concentration semblent très rapides… et dès que la fatigue culturelle pointe, que la nouveauté s’émousse, une nouvelle vague de propositions se développe à la fois par de nouveaux formats, de nouvelles modalités de contrôle et de nouveaux objets attentionnels qui poussent plus loin l’exploitation commerciale des publics. Patiemment, Wu rappelle la très longue histoire des nouveaux formats de contenus : la naissance des jeux, des journaux télé, des soirées spéciales, du sport, des feuilletons et séries, de la télé-réalité aux réseaux sociaux… Chacun ayant généré une nouvelle intrication avec la publicité, comme l’invention des coupures publicitaires à la radio et à la télé, qui nécessitaient de réinventer les contenus, notamment en faisant monter l’intrigue pour que les gens restent accrochés. Face aux outils de révolte, comme l’invention de la télécommande ou du magnétoscope, outils de reprise du contrôle par le consommateur, les industries vont répondre par la télévision par abonnement, sans publicité. Elles vont aussi inventer un montage plus rapide qui ne va cesser de s’accélérer avec le temps.

Pour Wu, toute rébellion attentionnelle est sans cesse assimilée. Même la révolte contre la communication de masse, d’intellectuels comme Timothy Leary ou Herbert Marcuse, sera finalement récupérée.

De l’audience au ciblage

La mesure de l’audience a toujours été un enjeu industriel des marchands d’attention. Notamment avec l’invention des premiers outils de mesure de l’audimat permettant d’agréger l’audience en volumes. Wu prend le temps d’évoquer le développement de la personnalisation publicitaire, avec la socio-géo-démographie mise au point par la firme Claritas à la fin des années 70. Claritas Prizm, premier outil de segmentation de la clientèle, va permettre d’identifier différents profils de population pour leur adresser des messages ciblés. Utilisée avec succès pour l’introduction du Diet Coke en 1982, la segmentation publicitaire a montré que la nation américaine était une mosaïque de goûts et de sensibilités qu’il fallait adresser différemment. Elle apporte à l’industrie de la publicité un nouvel horizon de consommateurs, préfigurant un ciblage de plus en plus fin, que la personnalisation de la publicité en ligne va prolonger toujours plus avant. La découverte des segments va aller de pair avec la différenciation des audiences et la naissance, dans les années 80, des chaînes câblées qui cherchent à exploiter des populations différentes (MTV pour la musique, ESPN pour le sport, les chaînes d’info en continu…). L’industrie du divertissement et de la publicité va s’engouffrer dans l’exploitation de la fragmentation de l’audience que le web tentera de pousser encore plus loin.

Wu rappelle que la technologie s’adapte à ses époques : "La technologie incarne toujours l’idéologie, et l’idéologie en question était celle de la différence, de la reconnaissance et de l’individualité". D’un coup le spectateur devait avoir plus de choix, plus de souveraineté… Le visionnage lui-même changeait, plus inattentif et dispersé. La profusion de chaînes et le développement de la télécommande se sont accompagnés d’autres modalités de choix comme les outils d’enregistrements. La publicité devenait réellement évitable. D’où le fait qu’elle ait donc changé, devenant plus engageante, cherchant à devenir quelque chose que les gens voudraient regarder. Mais dans le même temps, la télécommande était aussi un moyen d’être plus branché sur la manière dont nous n’agissons pas rationnellement, d’être plus distraitement attentif encore, à des choses toujours plus simples. "Les technologies conçues pour accroître notre contrôle sur notre attention ont parfois un effet opposé", prévient Wu. "Elles nous ouvrent à un flux de sélections instinctives et de petites récompenses"… En fait, malgré les plaintes du monde de la publicité contre la possibilité de zapper, l’état d’errance distrait des spectateurs n’était pas vraiment mauvais pour les marchands d’attention. Dans l’abondance de choix, dans un système de choix sans friction, nous avons peut-être plus perdu d’attention qu’autre chose.

L’internet a démultiplié encore, par de nouvelles pratiques et de nouveaux médiums, ces questions attentionnelles. L’e-mail et sa consultation sont rapidement devenus une nouvelle habitude, un rituel attentionnel aussi important que le prime time. Le jeu vidéo dès ses débuts a capturé toujours plus avant les esprits.

"En fin de compte, cela suggère aussi à quel point la conquête de l’attention humaine a été incomplète entre les années 1910 et les années 60, même après l’entrée de la télévision à la maison. En effet, même s’il avait enfreint la sphère privée, le domaine de l’interpersonnel demeurait inviolable. Rétrospectivement, c’était un territoire vierge pour les marchands d’attention, même si avant l’introduction de l’ordinateur domestique, on ne pouvait pas concevoir comment cette attention pourrait être commercialisée. Certes, personne n’avait jamais envisagé la possibilité de faire de la publicité par téléphone avant même de passer un appel – non pas que le téléphone ait besoin d’un modèle commercial. Ainsi, comme AOL qui a finalement opté pour la revente de l’attention de ses abonnés, le modèle commercial du marchand d’attention a été remplacé par l’un des derniers espaces considérés comme sacrés : nos relations personnelles." Le grand fournisseur d’accès des débuts de l’internet, AOL, a développé l’accès aux données de ses utilisateurs et a permis de développer des techniques de publicité dans les emails par exemple, vendant également les mails de ses utilisateurs à des entreprises et leurs téléphones à des entreprises de télémarketing. Tout en présentant cela comme des "avantages" réservés à ses abonnés ! FB n’a rien inventé ! "

La particularité de la modernité repose sur l’idée de construire une industrie basée sur la demande à ressentir une certaine communion". Les célébrités sont à leur tour devenues des marchands d’attention, revendant les audiences qu’elles attiraient, à l’image d’Oprah Winfrey… tout en transformant la consommation des produits qu’elle proposait en méthode d’auto-récompense pour les consommateurs.

L’infomercial a toujours été là, souligne Wu. La frontière entre divertissement, information et publicité a toujours été floue. La télé-réalité, la dernière grande invention de format (qui va bientôt avoir 30 ans !) promettant justement l’attention ultime : celle de devenir soi-même star.

Le constat de Wu est amer. "Le web, en 2015, a été complètement envahi par la malbouffe commerciale, dont une grande partie visait les pulsions humaines les plus fondamentales du voyeurisme et de l’excitation." L’automatisation de la publicité est le Graal : celui d’emplacements parfaitement adaptés aux besoins, comme un valet de chambre prévenant. "Tout en promettant d’être utile ou réfléchi, ce qui a été livré relevait plutôt de l’intrusif et pire encore." La télévision – la boîte stupide -, qui nous semblait si attentionnellement accablante, paraît presque aujourd’hui vertueuse par rapport aux boucles attentionnelles sans fin que produisent le web et le mobile.

Dans cette histoire, Wu montre que nous n’avons cessé de nous adapter à cette capture attentionnelle, même si elle n’a cessé de se faire à notre détriment. Les révoltes sont régulières et nécessaires. Elles permettent de limiter et réguler l’activité commerciale autour de nos capacités cognitives. Mais saurons-nous délimiter des frontières claires pour préserver ce que nous estimons comme sacré, notre autonomie cognitive ? La montée de l’internet des objets et des wearables, ces objets qui se portent, laisse supposer que cette immixtion ira toujours plus loin, que la régulation est une lutte sans fin face à des techniques toujours plus invasives. La difficulté étant que désormais nous sommes confrontés à des techniques cognitives qui reposent sur des fonctionnalités qui ne dépendent pas du temps passé, de l’espace ou de l’emplacement… À l’image des rythmes de montage ou des modalités de conception des interfaces du web. Wu conclut en souhaitant que nous récupérions "la propriété de l’expérience même de la vie". Reste à savoir comment…

Comment répondre aux monopoles attentionnels ?

Tim Wu – qui vient de publier un nouveau livre The Curse of Bigness : antitrust in the new Gilded age (La malédiction de la grandeur, non traduit) – prône, comme d’autres, un renforcement des lois antitrusts américaines. Il y invite à briser les grands monopoles que construisent les Gafam, renouvelant par là la politique américaine qui a souvent cherché à limiter l’emprise des monopoles comme dans le cas des télécommunications (AT&T), de la radio ou de la télévision par exemple ou de la production de pétrole (Standard Oil), pour favoriser une concurrence plus saine au bénéfice de l’innovation. À croire finalement que pour lutter contre les processus de capture attentionnels, il faut peut-être passer par d’autres leviers que de chercher à réguler les processus attentionnels eux-mêmes ! Limiter le temps d’écran finalement est peut-être moins important que limiter la surpuissance de quelques empires sur notre attention !

La règle actuelle pour limiter le développement de monopoles, rappelle Wu dans une longue interview pour The Verge, est qu’il faut démontrer qu’un rachat ou une fusion entraînera une augmentation des prix pour le consommateur. Outre, le fait que c’est une démonstration difficile, car spéculative, "il est pratiquement impossible d’augmenter les prix à la consommation lorsque les principaux services Internet tels que Google et Facebook sont gratuits". Pour plaider pour la fragmentation de ces entreprises, il faudrait faire preuve que leur concentration produit de nouveaux préjudices, comme des pratiques anticoncurrentielles quand des entreprises absorbent finalement leurs concurrents. Aux États-Unis, le mouvement New Brandeis (qui fait référence au juge Louis Brandeis acteur majeur de la lutte contre les trusts) propose que la régulation favorise la compétition.

Pour Wu par exemple, la concurrence dans les réseaux sociaux s’est effondrée avec le rachat par Facebook d’Instagram et de WhatsApp. Et au final, la concurrence dans le marché de l’attention a diminué. Pour Wu, il est temps de défaire les courtiers de l’attention, comme il l’explique dans un article de recherche qui tente d’esquisser des solutions concrètes. Il propose par exemple de créer une version attentionnelle du test du monopoleur hypothétique, utilisé pour mesurer les abus de position dominante, en testant l’influence de la publicité sur les pratiques. Pour Tim Wu, il est nécessaire de trouver des modalités à l’analyse réglementaire des marchés attentionnels.

Dans cet article, Wu s’intéresse également à la protection des audiences captives, à l’image des écrans publicitaires des pompes à essence qui vous délivrent des messages sans pouvoir les éviter où ceux des écrans de passagers dans les avions… Pour Wu, ces nouvelles formes de coercition attentionnelle sont plus qu’un ennui, puisqu’elles nous privent de la liberté de penser et qu’on ne peut les éviter. Pour lui, il faudrait les caractériser comme un "vol attentionnel". Certes, toutes les publicités ne peuvent pas être caractérisées comme telles, mais les régulateurs devraient réaffirmer la question du consentement souligne-t-il, notamment quand l’utilisateur est captif ou que la capture cognitive exploite nos biais attentionnels sans qu’on puisse lutter contre. Et de rappeler que les consommateurs doivent pouvoir dépenser ou allouer leur attention comme ils le souhaitent. Que les régulateurs doivent chercher à les protéger de situations non consensuelles et sans compensation, notamment dans les situations d’attention captive ainsi que contre les intrusions inévitables (celles qui sont augmentées par un volume sonore élevé, des lumières clignotantes, etc.). Ainsi, les publicités de pompe à essence ne devraient être autorisées qu’en cas de compensation pour le public (par exemple en proposant une remise sur le prix de l’essence)…

Wu indique encore que les réglementations sur le bruit qu’ont initié bien des villes peuvent être prises pour base pour construire des réglementations de protection attentionnelle, tout comme l’affichage sur les autoroutes, également très réglementé. Pour Tim Wu, tout cela peut sembler peut-être peu sérieux à certain, mais nous avons pourtant imposé par exemple l’interdiction de fumer dans les avions sans que plus personne aujourd’hui n’y trouve à redire. Il est peut-être temps de prendre le bombardement attentionnel au sérieux. En tout cas, ces défis sont devant nous, et nous devrons trouver des modalités pour y répondre, conclut-il.

Auteur: Guillaud Hubert

Info: 27 décembre 2018, http://internetactu.blog.lemonde.fr

[ culture de l'epic fail ] [ propagande ] [ captage de l'attention ]

 

Commentaires: 0

Ajouté à la BD par miguel

rapetissement

Des mathématiciens identifient le seuil à partir duquel les formes cèdent. Une nouvelle preuve établit la limite à laquelle une forme devient si ondulée qu'elle ne peut être écrasée plus avant.

En ajoutant un nombre infini de torsions aux courbes d'une sphère, il est possible de la réduire en une minuscule boule sans en déformer les distances.

Dans les années 1950, quatre décennies avant qu'il ne remporte le prix Nobel pour ses contributions à la théorie des jeux et que son histoire n'inspire le livre et le film "A Beautiful Mind", le mathématicien John Nash a démontré l'un des résultats les plus remarquables de toute la géométrie. Ce résultat impliquait, entre autres, que l'on pouvait froisser une sphère pour en faire une boule de n'importe quelle taille sans jamais la déformer. Il a rendu cela possible en inventant un nouveau type d'objet géométrique appelé " inclusion ", qui situe une forme à l'intérieur d'un espace plus grand, un peu comme lorsqu'on insère un poster bidimensionnel dans un tube tridimensionnel.

Il existe de nombreuses façons d'encastrer une forme. Certaines préservent la forme naturelle - comme l'enroulement de l'affiche dans un cylindre - tandis que d'autres la plissent ou la découpent pour l'adapter de différentes manières.

De manière inattendue, la technique de Nash consiste à ajouter des torsions à toutes les courbes d'une forme, rendant sa structure élastique et sa surface ébouriffée. Il a prouvé que si l'on ajoutait une infinité de ces torsions, on pouvait réduire la sphère en une minuscule boule. Ce résultat avait étonné les mathématiciens qui pensaient auparavant qu'il fallait des plis nets pour froisser la sphère de cette manière.

Depuis, les mathématiciens ont cherché à comprendre précisément les limites des techniques pionnières de Nash. Il avait montré que l'on peut froisser la sphère en utilisant des torsions, mais n'avait pas démontré exactement la quantité de torsions nécessaire, au minimum, pour obtenir ce résultat. En d'autres termes, après Nash, les mathématiciens ont voulu quantifier le seuil exact entre planéité et torsion, ou plus généralement entre douceur et rugosité, à partir duquel une forme comme la sphère commence à se froisser.

Et dans une paire de parutions récentes ils l'ont fait, au moins pour une sphère située dans un espace de dimension supérieure. Dans un article publié en septembre 2018 et en mars 2020, Camillo De Lellis, de l'Institute for Advanced Study de Princeton, dans le New Jersey, et Dominik Inauen, de l'université de Leipzig, ont identifié un seuil exact pour une forme particulière. Des travaux ultérieurs, réalisés en octobre 2020 par Inauen et Wentao Cao, aujourd'hui de l'Université normale de la capitale à Pékin, ont prouvé que le seuil s'appliquait à toutes les formes d'un certain type général.

Ces deux articles améliorent considérablement la compréhension des mathématiciens des inclusions de Nash. Ils établissent également un lien insolite entre les encastrements et les flux de fluides.

"Nous avons découvert des points de contact étonnants entre les deux problèmes", a déclaré M. De Lellis.

Les rivières tumultueuses peuvent sembler n'avoir qu'un vague rapport avec les formes froissées, mais les mathématiciens ont découvert en 2009 qu'elles pouvaient en fait être étudiées à l'aide des mêmes techniques. Il y a trois ans, des mathématiciens, dont M. De Lellis, ont utilisé les idées de Nash pour comprendre le point auquel un écoulement devient turbulent. Ils ont ré-imaginé un fluide comme étant composé d'écoulements tordus et ont prouvé que si l'on ajoutait juste assez de torsions à ces écoulements, le fluide prenait soudainement une caractéristique clé de la turbulence.

Les nouveaux travaux sur les inclusion(embeddings) s'appuient sur une leçon cruciale tirée de ces travaux antérieurs sur la turbulence, suggérant que les mathématiciens disposent désormais d'un cadre général pour identifier des points de transition nets dans toute une série de contextes mathématiques. 

Maintenir la longueur

Les mathématiciens considèrent aujourd'hui que les formes, comme la sphère, ont leurs propres propriétés géométriques intrinsèques : Une sphère est une sphère quel que soit l'endroit où vous la trouvez.

Mais vous pouvez prendre une forme abstraite et l'intégrer dans un espace géométrique plus grand. Lorsque vous l'intégrez, vous pouvez vouloir préserver toutes ses propriétés. Vous pouvez également exiger que seules certaines propriétés restent constantes, par exemple, que les longueurs des courbes sur sa surface restent identiques. De telles intégrations sont dites "isométriques".

Les incorporations isométriques conservent les longueurs mais peuvent néanmoins modifier une forme de manière significative. Commencez, par exemple, par une feuille de papier millimétré avec sa grille de lignes perpendiculaires. Pliez-la autant de fois que vous le souhaitez. Ce processus peut être considéré comme un encastrement isométrique. La forme obtenue ne ressemblera en rien au plan lisse de départ, mais la longueur des lignes de la grille n'aura pas changé.

(En illustration est montré  un gros plan de la forme sinueuse et ondulante d'un encastrement de Nash., avec ce commentaire - Les encastrements tordus de Nash conservent un degré surprenant de régularité, même s'ils permettent de modifier radicalement une surface.)

Pendant longtemps, les mathématiciens ont pensé que les plis nets étaient le seul moyen d'avoir les deux caractéristiques à la fois : une forme froissée avec des longueurs préservées.

"Si vous permettez aux plis de se produire, alors le problème est beaucoup plus facile", a déclaré Tristan Buckmaster de l'université de Princeton.

Mais en 1954, John Nash a identifié un type remarquablement différent d'incorporation isométrique qui réussit le même tour de force. Il utilisait des torsions hélicoïdales plutôt que des plis et des angles vifs.

Pour avoir une idée de l'idée de Nash, recommencez avec la surface lisse d'une sphère. Cette surface est composée de nombreuses courbes. Prenez chacune d'entre elles et tordez-la pour former une hélice en forme de ressort. Après avoir reformulé toutes les courbes de la sorte, il est possible de comprimer la sphère. Cependant, un tel processus semble violer les règles d'un encastrement isométrique - après tout, un chemin sinueux entre deux points est toujours plus long qu'un chemin droit.

Mais, de façon remarquable, Nash a montré qu'il existe un moyen rigoureux de maintenir les longueurs même lorsque l'on refabrique des courbes à partir de torsades. Tout d'abord, rétrécissez la sphère de manière uniforme, comme un ballon qui se dégonfle. Ensuite, ajoutez des spirales de plus en plus serrées à chaque courbe. En ajoutant un nombre infini de ces torsions, vous pouvez finalement redonner à chaque courbe sa longueur initiale, même si la sphère originale a été froissée.

Les travaux de Nash ont nécessité une exploration plus approfondie. Techniquement, ses résultats impliquent que l'on ne peut froisser une sphère que si elle existe en quatre dimensions spatiales. Mais en 1955, Nicolaas Kuiper a étendu les travaux de Nash pour qu'ils s'appliquent à la sphère standard à trois dimensions. À partir de là, les mathématiciens ont voulu comprendre le point exact auquel, en tordant suffisamment les courbes d'une sphère, on pouvait la faire s'effondrer.

Fluidité de la forme

Les formes pliées et tordues diffèrent les unes des autres sur un point essentiel. Pour comprendre comment, vous devez savoir ce que les mathématiciens veulent dire lorsqu'ils affirment que quelque chose est "lisse".

Un exemple classique de régularité est la forme ascendante et descendante d'une onde sinusoïdale, l'une des courbes les plus courantes en mathématiques. Une façon mathématique d'exprimer cette régularité est de dire que vous pouvez calculer la "dérivée" de l'onde en chaque point. La dérivée mesure la pente de la courbe en un point, c'est-à-dire le degré d'inclinaison ou de déclin de la courbe.

En fait, vous pouvez faire plus que calculer la dérivée d'une onde sinusoïdale. Vous pouvez également calculer la dérivée de la dérivée ou, la dérivée "seconde", qui saisit le taux de changement de la pente. Cette quantité permet de déterminer la courbure de la courbe - si la courbe est convexe ou concave près d'un certain point, et à quel degré.

Et il n'y a aucune raison de s'arrêter là. Vous pouvez également calculer la dérivée de la dérivée de la dérivée (la "troisième" dérivée), et ainsi de suite. Cette tour infinie de dérivées est ce qui rend une onde sinusoïdale parfaitement lisse dans un sens mathématique exact. Mais lorsque vous pliez une onde sinusoïdale, la tour de dérivées s'effondre. Le long d'un pli, la pente de la courbe n'est pas bien définie, ce qui signifie qu'il est impossible de calculer ne serait-ce qu'une dérivée première.

Avant Nash, les mathématiciens pensaient que la perte de la dérivée première était une conséquence nécessaire du froissement de la sphère tout en conservant les longueurs. En d'autres termes, ils pensaient que le froissement et la régularité étaient incompatibles. Mais Nash a démontré le contraire.

En utilisant sa méthode, il est possible de froisser la sphère sans jamais plier aucune courbe. Tout ce dont Nash avait besoin, c'était de torsions lisses. Cependant, l'infinité de petites torsions requises par son encastrement rend la notion de courbure en dérivée seconde insensée, tout comme le pliage détruit la notion de pente en dérivée première. Il n'est jamais clair, où que ce soit sur une des surfaces de Nash, si une courbe est concave ou convexe. Chaque torsion ajoutée rend la forme de plus en plus ondulée et rainurée, et une surface infiniment rainurée devient rugueuse.

"Si vous étiez un skieur sur la surface, alors partout, vous sentiriez des bosses", a déclaré Vincent Borrelli de l'Université de Lyon, qui a travaillé en 2012 avec des collaborateurs pour créer les premières visualisations précises des encastrements de Nash.

Les nouveaux travaux expliquent la mesure exacte dans laquelle une surface peut maintenir des dérivés même si sa structure cède.

Trouver la limite

Les mathématiciens ont une notation précise pour décrire le nombre de dérivées qui peuvent être calculées sur une courbe.

Un encastrement qui plie une forme est appelé C0. Le C représente la continuité et l'exposant zéro signifie que les courbes de la surface encastrée n'ont aucune dérivée, pas même une première. Il existe également des encastrements avec des exposants fractionnaires, comme C0,1/2, qui plissent encore les courbes, mais moins fortement. Puis il y a les incorporations C1 de Nash, qui écrasent les courbes uniquement en appliquant des torsions lisses, conservant ainsi une dérivée première.

(Un graphique à trois panneaux illustre les différents degrés de lissage des lettres O, U et B. DU simple au complexe)

Avant les travaux de Nash, les mathématiciens s'étaient principalement intéressés aux incorporations isométriques d'un certain degré d'uniformité standard, C2 et plus. Ces encastrements C2 pouvaient tordre ou courber des courbes, mais seulement en douceur. En 1916, l'influent mathématicien Hermann Weyl a émis l'hypothèse que l'on ne pouvait pas modifier la forme de la sphère à l'aide de ces courbes douces sans détruire les distances. Dans les années 1940, les mathématiciens ont résolu le problème de Weyl, en prouvant que les encastrements isométriques en C2 ne pouvaient pas froisser la sphère.

Dans les années 1960, Yurii Borisov a découvert qu'un encastrement C1,1/13 pouvait encore froisser la sphère, alors qu'un encastrement C1,2/3 ne le pouvait pas. Ainsi, quelque part entre les enrobages C1 de Nash et les enrobages C2 légèrement courbés, le froissement devient possible. Mais pendant des décennies après les travaux de Borisov, les mathématiciens n'ont pas réussi à trouver une limite exacte, si tant est qu'elle existe.

"Une nouvelle vision fondamentale [était] nécessaire", a déclaré M. Inauen.

Si les mathématiciens n'ont pas pu progresser, ils ont néanmoins trouvé d'autres applications aux idées de Nash. Dans les années 1970, Mikhael Gromov les a reformulées en un outil général appelé "intégration convexe", qui permet aux mathématiciens de construire des solutions à de nombreux problèmes en utilisant des sous-structures sinueuses. Dans un exemple, qui s'est avéré pertinent pour les nouveaux travaux, l'intégration convexe a permis de considérer un fluide en mouvement comme étant composé de nombreux sous-flux tordus.

Des décennies plus tard, en 2016, Gromov a passé en revue les progrès progressifs réalisés sur les encastrements de la sphère et a conjecturé qu'un seuil existait en fait, à C1,1/2. Le problème était qu'à ce seuil, les méthodes existantes s'effondraient.

"Nous étions bloqués", a déclaré Inauen.

Pour progresser, les mathématiciens avaient besoin d'un nouveau moyen de faire la distinction entre des incorporations de douceur différente. De Lellis et Inauen l'ont trouvé en s'inspirant de travaux sur un phénomène totalement différent : la turbulence.

Une énergie qui disparaît

Tous les matériaux qui entrent en contact ont un frottement, et nous pensons que ce frottement est responsable du ralentissement des choses. Mais depuis des années, les physiciens ont observé une propriété remarquable des écoulements turbulents : Ils ralentissent même en l'absence de friction interne, ou viscosité.

En 1949, Lars Onsager a proposé une explication. Il a supposé que la dissipation sans frottement était liée à la rugosité extrême (ou au manque de douceur) d'un écoulement turbulent : Lorsqu'un écoulement devient suffisamment rugueux, il commence à s'épuiser.

En 2018, Philip Isett a prouvé la conjecture d'Onsager, avec la contribution de Buckmaster, De Lellis, László Székelyhidi et Vlad Vicol dans un travail séparé. Ils ont utilisé l'intégration convexe pour construire des écoulements tourbillonnants aussi rugueux que C0, jusqu'à C0,1/3 (donc sensiblement plus rugueux que C1). Ces flux violent une règle formelle appelée conservation de l'énergie cinétique et se ralentissent d'eux-mêmes, du seul fait de leur rugosité.

"L'énergie est envoyée à des échelles infiniment petites, à des échelles de longueur nulle en un temps fini, puis disparaît", a déclaré Buckmaster.

Des travaux antérieurs datant de 1994 avaient établi que les écoulements sans frottement plus lisses que C0,1/3 (avec un exposant plus grand) conservaient effectivement de l'énergie. Ensemble, les deux résultats ont permis de définir un seuil précis entre les écoulements turbulents qui dissipent l'énergie et les écoulements non turbulents qui conservent l'énergie.

Les travaux d'Onsager ont également fourni une sorte de preuve de principe que des seuils nets pouvaient être révélés par l'intégration convexe. La clé semble être de trouver la bonne règle qui tient d'un côté du seuil et échoue de l'autre. De Lellis et Inauen l'ont remarqué.

"Nous avons pensé qu'il existait peut-être une loi supplémentaire, comme la [loi de l'énergie cinétique]", a déclaré Inauen. "Les enchâssements isométriques au-dessus d'un certain seuil la satisfont, et en dessous de ce seuil, ils pourraient la violer".

Après cela, il ne leur restait plus qu'à aller chercher la loi.

Maintenir l'accélération

La règle qu'ils ont fini par étudier a trait à la valeur de l'accélération des courbes sur une surface. Pour la comprendre, imaginez d'abord une personne patinant le long d'une forme sphérique avant qu'elle ne soit encastrée. Elle ressent une accélération (ou une décélération) lorsqu'elle prend des virages et monte ou descend des pentes. Leur trajectoire forme une courbe.

Imaginez maintenant que le patineur court le long de la même forme après avoir été incorporé. Pour des encastrements isométriques suffisamment lisses, qui ne froissent pas la sphère ou ne la déforment pas de quelque manière que ce soit, le patineur devrait ressentir les mêmes forces le long de la courbe encastrée. Après avoir reconnu ce fait, De Lellis et Inauen ont ensuite dû le prouver : les enchâssements plus lisses que C1,1/2 conservent l'accélération.

En 2018, ils ont appliqué cette perspective à une forme particulière appelée la calotte polaire, qui est le sommet coupé de la sphère. Ils ont étudié les enchâssements de la calotte qui maintiennent la base de la calotte fixe en place. Puisque la base de la calotte est fixe, une courbe qui se déplace autour d'elle ne peut changer d'accélération que si la forme de la calotte au-dessus d'elle est modifiée, par exemple en étant déformée vers l'intérieur ou l'extérieur. Ils ont prouvé que les encastrements plus lisses que C1,1/2 - même les encastrements de Nash - ne modifient pas l'accélération et ne déforment donc pas le plafond. 

"Cela donne une très belle image géométrique", a déclaré Inauen.

En revanche, ils ont utilisé l'intégration convexe pour construire des enrobages de la calotte plus rugueux que C1,1/2. Ces encastrements de Nash tordent tellement les courbes qu'ils perdent la notion d'accélération, qui est une quantité dérivée seconde. Mais l'accélération de la courbe autour de la base reste sensible, puisqu'elle est fixée en place. Ils ont montré que les encastrements en dessous du seuil pouvaient modifier l'accélération de cette courbe, ce qui implique qu'ils déforment également le plafond (car si le plafond ne se déforme pas, l'accélération reste constante ; et si l'accélération n'est pas constante, cela signifie que le plafond a dû se déformer).

Deux ans plus tard, Inauen et Cao ont prolongé l'article précédent et prouvé que la valeur de C1,1/2 prédite par Gromov était en fait un seuil qui s'appliquait à toute forme, ou "collecteur", avec une limite fixe. Au-dessus de ce seuil, les formes ne se déforment pas, au-dessous, elles se déforment. "Nous avons généralisé le résultat", a déclaré Cao.

L'une des principales limites de l'article de Cao et Inauen est qu'il nécessite l'intégration d'une forme dans un espace à huit dimensions, au lieu de l'espace à trois dimensions que Gromov avait en tête. Avec des dimensions supplémentaires, les mathématiciens ont gagné plus de place pour ajouter des torsions, ce qui a rendu le problème plus facile.

Bien que les résultats ne répondent pas complètement à la conjecture de Gromov, ils fournissent le meilleur aperçu à ce jour de la relation entre l'aspect lisse et le froissement. "Ils donnent un premier exemple dans lequel nous voyons vraiment cette dichotomie", a déclaré M. De Lellis.

À partir de là, les mathématiciens ont un certain nombre de pistes à suivre. Ils aimeraient notamment résoudre la conjecture en trois dimensions. En même temps, ils aimeraient mieux comprendre les pouvoirs de l'intégration convexe.

Cet automne, l'Institute for Advanced Study accueillera un programme annuel sur le sujet. Il réunira des chercheurs issus d'un large éventail de domaines dans le but de mieux comprendre les idées inventées par Nash. Comme l'a souligné Gromov dans son article de 2016, les formes sinueuses de Nash ne faisaient pas simplement partie de la géométrie. Comme cela est désormais clair, elles ont ouvert la voie à un tout nouveau "pays" des mathématiques, où des seuils aigus apparaissent en de nombreux endroits.

Auteur: Internet

Info: https://www.quantamagazine.org/mathematicians-identify-threshold-at-which-shapes-give-way-20210603/Mordechai Rorvig, rédacteur collaborateur, , 3 juin 2021

[ ratatinement ] [ limite de conservation ] [ apparences ] [ topologie ] [ recherche ] [ densification ]

 

Commentaires: 0

Ajouté à la BD par miguel