Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 17
Temps de recherche: 0.0387s

méta-moteur

Un cerveau moléculaire dans le ribosome ?
L'analyse des structures tridimensionnelles des ribosomes des trois grands phylums du vivant par des chercheurs de l'Institut de microbiologie de la Méditerranée, montre que les protéines ribosomiques communiquent entre-elles par des extensions qui forment un réseau étrangement similaire aux réseaux de neurones des "cerveaux" d'organismes simples. L'organisation de ce réseau qui interconnecte les sites fonctionnels distants du ribosome, suggère qu'il pourrait transférer et traiter le flux d'information qui circule entre eux pour coordonner par des "synapses moléculaires" les tâches complexes associées à la biosynthèse des protéines. Cette étude est publiée dans la revue Scientific Reports.
Le ribosome, organite cellulaire formé d'ARN et de protéines, assure la traduction du code génétique dans les cellules: il réunit les ARN de transfert aminoacylés le long de l'ARN messager, pour fabriquer une protéine dont la séquence est dictée par celle de l'ARN messager. Ce processus constitue une véritable chorégraphie dans laquelle la fixation de nombreux acteurs moléculaires (substrats, facteurs de traduction) s'accompagne de mouvements complexes coordonnés dans le temps et l'espace.
La résolution de la structure des ribosomes d'archées et de bactéries par cristallographie aux rayons X a permis d'observer ces mécanismes à l'échelle moléculaire. Elle a aussi mis en lumière le mode d'action des antibiotiques les plus courants et surtout ouvert une fenêtre sur les origines de la Vie. En effet, le ribosome est universel et a évolué par accrétion. Ces découvertes ont valu le prix Nobel de chimie 2009 à T. Steitz, V. Ramakrishnan et A. Yonath. Peu de temps après, Marat Yusupov à l'Institut de Génétique et de Biologie Moléculaire et Cellulaire à Strasbourg, a réalisé l'exploit considérable de résoudre la structure à haute résolution d'un ribosome eukaryote, beaucoup plus gros et plus complexe. Cependant, dans ces structures vertigineuses, il restait encore un mystère à élucider: pourquoi les protéines ribosomiques ont-elles de si longues extensions filamenteuses qui se faufilent entres les groupements phosphates du labyrinthe de l'ARN ribosomique ? On a longtemps pensé que ces extensions, très chargées positivement (riches en arginines et lysines), servaient à neutraliser les charges négatives de l'ARN et à aider son repliement en 3D.
En analysant l'ensemble de ces données cristallographiques, les chercheurs marseillais proposent une explication tout à fait différente. Ils montrent que ces extensions radient dans tout le ribosome pour former un vaste réseau qui interconnecte les protéines ribosomiques entre-elles. Celles-ci interagissent par des interfaces très particulières et très conservées au cours de l'évolution. Cependant, ces zones de contact sont bien plus petites que les zones de contact observées habituellement entre les protéines destinées à stabiliser leurs interactions. Ici, elles sont limitées à quelques acides aminés et sont caractérisées par un type d'interaction très particulier (interactions entre acides aminés basiques et aromatiques) que l'on retrouve justement entre de nombreux neuromédiateurs et récepteurs dans le cerveau. Ces zones de contact évoquent des "synapses moléculaires" qui permettraient la transmission d'une information d'une protéine à l'autre. Il est à noter que l'établissement de la structure cristallographique de la protéine ribosomique bL20 d'une bactérie thermophile, avait déjà montré qu'une information structurale pouvait se propager le long de sa longue extension en hélice, d'une extrémité à l'autre de la protéine.
En outre, ce réseau présente une analogie frappante avec des réseaux de neurones ou avec le cerveau d'organismes simples comme C. elegans qui ne comporte que quelques dizaines de neurones. Comme les neurones, les protéines ribosomiques se répartissent en protéines "sensorielles" qui innervent les sites fonctionnels distants à l'intérieur du ribosome (sites de fixation des tRNAs, des facteurs de traductions et sites qui canalisent la sortie de la protéine synthétisée) et les "inter-protéines" qui établissent des ponts entre-elles. Cette organisation suggère que ce réseau forme une sorte de "cerveau moléculaire" permettant d'échanger et de traiter le flux d'information traversant le ribosome, pour coordonner les différentes étapes et les mouvements complexes pendant la traduction.
Le concept de "cerveau moléculaire" fait faire un grand saut d'échelle dans les propriétés du vivant et en particulier ses systèmes de traitement de l'information. Il ouvre de nouvelles perspectives tant en biologie fondamentale qu'en nanotechnologie.
Il reste maintenant à élucider la nature des signaux échangés entre les protéines et les mécanismes "allostériques" qui permettent la communication et le traitement de l'information au sein de ces réseaux.

Auteur: Internet

Info: http://www.techno-science.net, 12 juin 2016

 

Commentaires: 0

citation s'appliquant à ce logiciel

Le langage des hommes, surtout écrit, s'étendant et s'affinant continuellement, permet d'appréhender tout et son contraire, c'est à dire tant le réél tangible que les mondes imaginaires, oniriques, introspectifs, anciens  ou potentiels.

Ainsi, à l'aide du support linguistique, français en l'occurrence, et dans la lignée de C.S. Peirce - pour qui chaque mot est un "quasi esprit", FLP s'essaye à quelque chose de pas facile à formuler.

A l'aide de la technologie numérique, tout en ayant conscience d'un positionnement temporel "éphémère et subjectif", cette application tente d'établir un dictionnaire polynomial communautaire qui, ambition supplémentaire, voudrait tout conserver ouvert, ne pas se mettre de limites en terme de mémoire (taille) et donc demeurer adaptable à tout développement ultérieur.

Représentation de FLP (début 2021).

Grâce à cet outil, les idées/pensées collectives issues de la sphère Gaïa peuvent se développer au sein d'une auto/classification/structuration sémantique collective apte à se positionner aux miroitantes et changeantes interfaces des mondes incarnés/passés et non incarnés/imaginaires/futurs. En clair FLP se voudrait être capable d'accueillir/intégrer/répertorier tout ce que les idiomes sont capables d'énoncer, coder, décrire ou traduire de façon cohérente, compréhensible et, si possible, ramassée et élégante : descriptifs visuels, univers parallèles, sentiments, définitions, sensations, réflexions contextualisées et développées, termes spécifiques, impressions subjectives, reflets de l'histoire des hommes - ou de civilisations extraterrestres, modes vibratoires du monde astral, etc.. Mélanges de focales et de points de vues qui pourra peut-être s'approcher d'une idée de cosmos holographique.

Ainsi les Fils de la Pensée s'amusent à développer un monde scriptural virtuel intermédiaire, si possible avec un fort fondement littéraire pour ce qui est des témoignages humains, ah ah ah.  (En effet, pour ceux venus d'ailleurs, animaux et autres aliens, nous serons moins difficiles. Re ha ha ha... Bien qu'une telle intervention externe ne soit pas inimaginable.)

Tout ceci étant soigneusement intégré (paramétré) dans la base de données par des lecteurs-inserteurs attentifs. FLP devenant aussi du coup un outil de recherche sémantique qui permet de vaquer de mille manières dans cet univers idiomatique intermédiaire puisque le lecteur quêteur a la possibilité de jongler/mélanger/croiser les fonctions de recherche suivantes :

- par mot, bout de mots et additions/mélanges de ces derniers

- par chaines de caractère (mises entre "  " )

- par taille de l'extrait (du plus petit au plus grand ou le contraire)

- par ordre alphabétique (catégories, auteurs, etc.)

- par sexe de l'auteur de l'extrait

- par localisation - pays - continent - autre planète...

- par profession, ou caractéristique de l'auteur, si paramétré (non-voyant, sportif, oulipien...)

- par situation temporelle, si elle est paramétrée (date de la création de la citation ou de l'auteur - formacja)

- par époque-courant historique - si paramétrée

- en supprimant telle ou telle chaine de caractères en mettant un - devant elle.

- en affinant une recherche donnéepar l'usage des fonctions avancées

- par tag ou catégories uniquement (ou mélange des deux)

- Etc.

           ***

A moyen terme sont envisagées les possibilités de recherches/classements suivants

- étymologique (cladistique)  = filiation = continuité temporelle = évolution  (vision horizontale). CONSTATIF      

- lexicographique - sens, efficacité sémantique (phénétique) = emploi contextualisé  = présence à un présent x =  mode/pouvoir/politiquement correct/contraintes d'un moment donné (vision verticale). PERFORMATIF.

Deux axes susceptibles d'entrer dans la réflexion FLPienne quant aux prémisses d'une classification trétravalente ou pré-mémétique

           ***

Avec, en point de mire beaucoup plus lointain, littéraire, ésotérique... Une utopie - de science-fiction astrale dirons-nous, puisqu'il s'agirait d'un classement/strucure en septénaires intricables et communiquants (imaginez les interconnexions de boules à 7 facettes survolées de 7 satellites hepta-facés ) : avec, en première perspective de structuration, l'idée de s'inspirer des interconnexions entre les 7 degrés de bases de la pensée FLP (lettres, mots, phrases, tags/catégories, chaines, sujets, domaines) et les 7 grands domaines (PSY - POLITIQUE - ARTS-CULTURE - ENSEIGNEMENT - REFLEXION SUR LE LANGAGE - SCIENCES ET RATIONALISME - TRANSCENDANCE ET SPIRITUALITE).  chaque idée/insert présentant une partie de son particularisme au travers de la présentation de son degré de proximité avec les 6 autres via une disposition réfléchie de ces derniers, c'est à dire collectivement concertée par les participants de de FLP.

(Classifications listes bien évidemment sans cesse en cours de réflexions élaboratives).

Auteur: Mg

Info: Dès 2021 , en cours

[ prospective ] [ cogitation ] [ dualité ]

 
Commentaires: 1
Ajouté à la BD par miguel

biochimie

La découverte d'une nouvelle activité électrique au sein des cellules pourrait modifier la façon dont les chercheurs envisagent la chimie biologique.

Le corps humain est fortement tributaire des charges électriques. Des impulsions d'énergie semblables à des éclairs traversent le cerveau et les nerfs, et la plupart des processus biologiques dépendent des ions électriques qui voyagent à travers les membranes de chaque cellule de notre corps.

Ces signaux électriques sont possibles, en partie, en raison d'un déséquilibre entre les charges électriques présentes de part et d'autre d'une membrane cellulaire. Jusqu'à récemment, les chercheurs pensaient que la membrane était un élément essentiel pour créer ce déséquilibre. Mais cette idée a été bouleversée lorsque des chercheurs de l'université de Stanford ont découvert qu'un déséquilibre similaire des charges électriques pouvait exister entre des microgouttelettes d'eau et d'air.

Aujourd'hui, des chercheurs de l'université Duke ont découvert que ces types de champs électriques existent également à l'intérieur et autour d'un autre type de structure cellulaire appelée condensats biologiques. Comme des gouttelettes d'huile flottant dans l'eau, ces structures existent en raison de différences de densité. Elles forment des compartiments à l'intérieur de la cellule sans avoir besoin de la limite physique d'une membrane.

Inspirés par des recherches antérieures démontrant que les microgouttelettes d'eau interagissant avec l'air ou des surfaces solides créent de minuscules déséquilibres électriques, les chercheurs ont décidé de voir s'il en était de même pour les petits condensats biologiques. Ils ont également voulu voir si ces déséquilibres déclenchaient des réactions d'oxygène réactif, "redox"*comme dans ces autres systèmes.

Publiée le 28 avril dans la revue Chem, leur découverte fondamentale pourrait changer la façon dont les chercheurs envisagent la chimie biologique. Elle pourrait également fournir un indice sur la manière dont les premières formes de vie sur Terre ont exploité l'énergie nécessaire à leur apparition.

"Dans un environnement prébiotique sans enzymes pour catalyser les réactions, d'où viendrait l'énergie ?" s'interroge Yifan Dai, chercheur postdoctoral à Duke travaillant dans le laboratoire d'Ashutosh Chilkoti, professeur émérite d'ingénierie biomédicale.

"Cette découverte fournit une explication plausible de l'origine de l'énergie de réaction, tout comme l'énergie potentielle communiquée à une charge ponctuelle placée dans un champ électrique", a déclaré M. Dai.

Lorsque des charges électriques passent d'un matériau à un autre, elles peuvent produire des fragments moléculaires qui peuvent s'apparier et former des radicaux hydroxyles, dont la formule chimique est OH. Ceux-ci peuvent ensuite s'apparier à nouveau pour former du peroxyde d'hydrogène (H2O2) en quantités infimes mais détectables.

"Mais les interfaces ont rarement été étudiées dans des régimes biologiques autres que la membrane cellulaire, qui est l'une des parties les plus essentielles de la biologie", a déclaré M. Dai. "Nous nous sommes donc demandé ce qui pouvait se passer à l'interface des condensats biologiques, c'est-à-dire s'il s'agissait également d'un système asymétrique.

Les cellules peuvent construire des condensats biologiques pour séparer ou piéger certaines protéines et molécules, afin d'entraver ou de favoriser leur activité. Les chercheurs commencent à peine à comprendre comment fonctionnent les condensats** et à quoi ils pourraient servir.

Le laboratoire de Chilkoti étant spécialisé dans la création de versions synthétiques de condensats biologiques naturels, les chercheurs ont pu facilement créer un banc d'essai pour leur théorie. Après avoir combiné la bonne formule d'éléments constitutifs pour créer des condensats minuscules, avec l'aide de Marco Messina, chercheur postdoctoral dans le groupe de Christopher J. Chang, les chercheurs ont pu créer un banc d'essai pour leur théorie. Christopher J. Chang à l'université de Californie-Berkeley, ils ont ajouté au système un colorant qui brille en présence d'espèces réactives de l'oxygène.

Leur intuition était la bonne. Lorsque les conditions environnementales étaient réunies, une lueur solide est apparue sur les bords des condensats, confirmant qu'un phénomène jusqu'alors inconnu était à l'œuvre. Dai s'est ensuite entretenu avec Richard Zare, professeur de chimie à Stanford (Marguerite Blake Wilbur), dont le groupe a établi le comportement électrique des gouttelettes d'eau. Zare a été enthousiasmé par le nouveau comportement des systèmes biologiques et a commencé à travailler avec le groupe sur le mécanisme sous-jacent.

"Inspirés par des travaux antérieurs sur les gouttelettes d'eau, mon étudiant diplômé, Christian Chamberlayne, et moi-même avons pensé que les mêmes principes physiques pourraient s'appliquer et favoriser la chimie redox, telle que la formation de molécules de peroxyde d'hydrogène", a déclaré M. Zare. "Ces résultats expliquent pourquoi les condensats sont si importants pour le fonctionnement des cellules.

"La plupart des travaux antérieurs sur les condensats biomoléculaires se sont concentrés sur leurs parties internes", a déclaré M. Chilkoti. "La découverte de Yifan, selon laquelle les condensats biomoléculaires semblent être universellement redox-actifs, suggère que les condensats n'ont pas simplement évolué pour remplir des fonctions biologiques spécifiques, comme on le pense généralement, mais qu'ils sont également dotés d'une fonction chimique essentielle pour les cellules.

Bien que les implications biologiques de cette réaction permanente au sein de nos cellules ne soient pas connues, Dai cite un exemple prébiotique pour illustrer la puissance de ses effets. Les centrales de nos cellules, appelées mitochondries, créent de l'énergie pour toutes les fonctions de notre vie grâce au même processus chimique de base. Mais avant que les mitochondries ou même les cellules les plus simples n'existent, il fallait que quelque chose fournisse de l'énergie pour que la toute première fonction de la vie puisse commencer à fonctionner.

Des chercheurs ont proposé que l'énergie soit fournie par des sources thermales dans les océans ou des sources d'eau chaude. D'autres ont suggéré que cette même réaction d'oxydoréduction qui se produit dans les microgouttelettes d'eau a été créée par les embruns des vagues de l'océan.

Mais pourquoi pas par des condensats ?

"La magie peut opérer lorsque les substances deviennent minuscules et que le volume interfacial devient énorme par rapport à leur volume", a déclaré M. Dai. "Je pense que les implications sont importantes pour de nombreux domaines.

Auteur: Internet

Info: https://phys.org/news/2023-04, from Ken Kingery, Université de Duke. *réactions d'oxydoréduction. **les condensats biomoléculaires sont des compartiments cellulaires qui ne sont pas délimités par une membrane, mais qui s'auto-assemblent et se maintiennent de façon dynamique dans le contexte cellulaire

[ biophysique ]

 

Commentaires: 0

Ajouté à la BD par miguel

amélioration

Le progrès est devenu le moyen de l'aliénation
Cela fait des décennies, sinon un siècle ou deux, que des gens cherchent le mot, l'ont "sur le bout de la langue", qu'il leur échappe, leur laissant une vive et chagrine frustration - sans le mot, comment dire la chose ?
Comment donner et nommer la raison du désarroi, de la révolte, du deuil et pour finir du découragement et d'une indifférence sans fond. Comme si l'on avait été amputé d'une partie du cerveau : amnésie, zone blanche dans la matière grise.
La politique, en tout cas la politique démocratique, commence avec les mots et l'usage des mots ; elle consiste pour une part prépondérante à nommer les choses et donc à les nommer du mot juste, avec une exactitude flaubertienne. Nommer une chose, c'est former une idée. Les idées ont des conséquences qui s'ensuivent inévitablement.
La plus grande part du travail d'élaboration de la novlangue, dans 1984, consiste non pas à créer, mais à supprimer des mots, et donc des idées - de mauvaises idées, des idées nocives du point du vue du Parti -, et donc toute velléité d'action en conséquence de ces mots formulant de mauvaises idées.
Nous sommes tombés sur "regrès", il y a fort peu de temps, un bon et vieux mot de français, tombé en désuétude comme on dit, bon pour le dictionnaire des obsolètes qui est le cimetière des mots. Et des idées. Et de leurs conséquences, bonnes ou mauvaises. Un mot "oublié" ?
Difficile de croire que le mot "regrès", antonyme du "progrès" ait disparu par hasard de la langue et des têtes. Le mouvement historique de l'idéologie à un moment quelconque du XIXe siècle a décidé que désormais, il n'y aurait plus que du progrès, et que le mot de regrès n'aurait pas plus d'usage que la plus grande part du vocabulaire du cheval aujourd'hui disparu avec l'animal et ses multiples usages qui entretenaient une telle familiarité entre lui et l'homme d'autrefois.
Ainsi les victimes du Progrès, de sa rançon et de ses dégâts, n'auraient plus de mot pour se plaindre. Ils seraient juste des arriérés et des réactionnaires : le camp du mal et des maudits voués aux poubelles de l'histoire. Si vous trouvez que l'on enfonce des portes ouvertes, vous avez raison. L'étonnant est qu'il faille encore les enfoncer.
Place au Tout-Progrès donc. Le mot lui-même n'avait à l'origine nulle connotation positive. Il désignait simplement une avancée, une progression. Même les plus acharnés progressistes concéderont que l'avancée - le progrès - d'un mal, du chaos climatique, d'une épidémie, d'une famine ou de tout autre phénomène négatif n'est ni un petit pas ni un grand bond en avant pour l'humanité. Surtout lorsqu'elle se juge elle-même, par la voix de ses autorités scientifiques, politiques, religieuses et morales, au bord du gouffre.
Ce qui a rendu le progrès si positif et impératif, c'est son alliance avec le pouvoir, énoncée par Bacon, le philosophe anglais, à l'aube de la pensée scientifique et rationaliste moderne : "Savoir c'est pouvoir". Cette alliance dont la bourgeoisie marchande et industrielle a été l'agente et la bénéficiaire principale a conquis le monde. Le pouvoir va au savoir comme l'argent à l'argent. Le pouvoir va au pouvoir.
Le progrès est l'arme du pouvoir sur les sans pouvoirs
Et c'est la leçon qu'en tire Marx dans La Guerre civile en France. Les sans pouvoirs ne peuvent pas se "réapproprier" un mode de production qui exige à la fois des capitaux gigantesques et une hiérarchie implacable. L'organisation scientifique de la société exige des scientifiques à sa tête : on ne gère pas cette société ni une centrale nucléaire en assemblée générale, avec démocratie directe et rotation des tâches. Ceux qui savent, décident, quel que soit l'habillage de leur pouvoir.
Contrairement à ce que s'imaginait Tocqueville dans une page célèbre, sur le caractère "providentiel" du progrès scientifique et démocratique, entrelacé dans son esprit, le progrès scientifique est d'abord celui du pouvoir sur les sans pouvoirs.
Certes, une technicienne aux commandes d'un drone, peut exterminer un guerrier viriliste, à distance et sans risque. Mais cela ne signifie aucun progrès de l'égalité des conditions. Simplement un progrès de l'inégalité des armements et des classes sociales.
C'est cette avance scientifique qui a éliminé des peuples multiples là-bas, des classes multiples ici et prolongé l'emprise étatique dans tous les recoins du pays, de la société et des (in)dividus par l'emprise numérique.
Chaque progrès de la puissance technologique se paye d'un regrès de la condition humaine et de l'émancipation sociale. C'est désormais un truisme que les machines, les robots et l'automation éliminent l'homme de la production et de la reproduction. Les machines éliminent l'homme des rapports humains (sexuels, sociaux, familiaux) ; elles l'éliminent de lui-même. A quoi bon vivre ? Elles le font tellement mieux que lui.
Non seulement le mot de "Progrès" - connoté à tort positivement - s'est emparé du monopole idéologique de l'ère technologique, mais cette coalition de collabos de la machine, scientifiques transhumanistes, entrepreneurs high tech, penseurs queers et autres avatars de la French theory, s'est elle-même emparé du monopole du mot "Progrès" et des idées associées. Double monopole donc, et double escroquerie sémantique.
Ces progressistes au plan technologique sont des régressistes au plan social et humain. Ce qu'en langage commun on nomme des réactionnaires, des partisans de la pire régression sociale et humaine. Cette réaction politique - mais toujours à l'avant-garde technoscientifique - trouve son expression dans le futurisme italien (Marinetti) (1), dans le communisme russe (Trotsky notamment), dans le fascisme et le nazisme, tous mouvements d'ingénieurs des hommes et des âmes, visant le modelage de l'homme nouveau, de l'Ubermensch, du cyborg, de l'homme bionique, à partir de la pâte humaine, hybridée d'implants et d'interfaces.
Le fascisme, le nazisme et le communisme n'ont succombé que face au surcroît de puissance technoscientifique des USA (nucléaire, informatique, fusées, etc.). Mais l'essence du mouvement, la volonté de puissance technoscientifique, s'est réincarnée et amplifiée à travers de nouvelles enveloppes politiques.
Dès 1945, Norbert Wiener mettait au point la cybernétique, la " machine à gouverner " et " l'usine automatisée ", c'est-à-dire la fourmilière technologique avec ses rouages et ses connexions, ses insectes sociaux-mécaniques, ex-humains. Son disciple, Kevin Warwick, déclare aujourd'hui : " Il y aura des gens implantés, hybridés et ceux-ci domineront le monde. Les autres qui ne le seront pas, ne seront pas plus utiles que nos vaches actuelles gardées au pré. " (2)
Ceux qui ne le croient pas, ne croyaient pas Mein Kampf en 1933. C'est ce techno-totalitarisme, ce " fascisme " de notre temps que nous combattons, nous, luddites et animaux politiques, et nous vous appelons à l'aide.
Brisons la machine.

Auteur: PMO

Info:

[ décadence ]

 

Commentaires: 0

nanomonde

Comment l’IA impacte la recherche sur la structure des protéines

Chaque être humain possède plus de 20 000 protéines. Par exemple l’hémoglobine qui s’occupe du transport de l’oxygène depuis les poumons vers les cellules de tout le corps, ou encore l’insuline qui indique à l’organisme la présence de sucre dans le sang.

Chaque protéine est formée d’une suite d’acides aminés, dont la séquence détermine son repliement et sa structure spatiale – un peu comme si un mot se repliait dans l’espace en fonction des enchaînements de lettres dont il est composé. Cette séquence et ce repliement (ou structure) de la protéine déterminent sa fonction biologique : leur étude est le domaine de la « biologie structurale ». Elle s’appuie sur différentes méthodes expérimentales complémentaires, qui ont permis des avancées considérables dans notre compréhension du monde du vivant ces dernières décennies, et permet notamment la conception de nouveaux médicaments.

Depuis les années 1970, on cherche à connaître les structures de protéines à partir de la seule connaissance de la séquence d’acides aminés (on dit « ab initio »). Ce n’est que très récemment, en 2020, que ceci est devenu possible de manière quasi systématique, avec l’essor de l’intelligence artificielle et en particulier d’AlphaFold, un système d’IA développé par une entreprise appartenant à Google.

Face à ces progrès de l’intelligence artificielle, quel est désormais le rôle des chercheurs en biologie structurale ?

Pour le comprendre, il faut savoir qu’un des défis de la biologie de demain est la "biologie intégrative", qui a pour objectif de comprendre les processus biologiques au niveau moléculaire dans leurs contextes à l’échelle de la cellule. Vu la complexité des processus biologiques, une approche pluridisciplinaire est indispensable. Elle s’appuie sur les techniques expérimentales, qui restent incontournables pour l’étude de la structure des protéines, leur dynamique et leurs interactions. De plus, chacune des techniques expérimentales peut bénéficier à sa manière des prédictions théoriques d’AlphaFold.

(Photo) Les structures de trois protéines de la bactérie Escherichia coli, déterminées par les trois méthodes expérimentales expliquées dans l’article, à l’Institut de Biologie Structurale de Grenoble. Beate Bersch, IBS, à partir d’une illustration de David Goodsell, Fourni par l'auteur

La cristallographie aux rayons X

La cristallographie est, à cette date, la technique la plus utilisée en biologie structurale. Elle a permis de recenser plus de 170 000 structures de protéines dans la "Protein Data Bank", avec plus de 10 000 repliements différents.

Pour utiliser la cristallographie à rayons X, il faut faire "cristalliser les protéines". On dit souvent que cette technique est limitée par la qualité de cristaux de protéines, qui est moindre pour les grosses protéines. Mais cette notion ne correspond pas toujours à la réalité : par exemple, la structure du ribosome, l’énorme machine moléculaire qui assemble les protéines, a été résolue à 2,8 angströms de résolution. Venkatraman Ramakrishnan, Thomas Steitz et Ada Yonath ont reçu le prix Nobel de chimie en 2009 pour ce travail.

Avec le développement récent du laser X à électron libre (XFEL), il est devenu possible d’étudier simultanément des milliers de microcristaux de protéines à température ambiante et à l’échelle de la femtoseconde (10-15 secondes, soit un millionième de milliardième de seconde, l’échelle de temps à laquelle ont lieu les réactions chimiques et le repliement des protéines). Cette technique permet d’imager les protéines avant qu’elles ne soient détruites. Elle est en train de révolutionner la "cristallographie cinétique", qui permet de voir les protéines "en action", ainsi que la recherche de médicaments.

Pour l’instant, l’apport d’AlphaFold à l’étude de la structure des protéines par cristallographie s’est concentré dans la génération de modèles de protéines assez précis pour appliquer la technique dite de "remplacement moléculaire" à la résolution des structures.

La spectroscopie par résonance magnétique nucléaire

Une autre méthode expérimentale pour étudier la structure des protéines est la "spectroscopie par résonance magnétique nucléaire". Alors que son alter ego d’imagerie médicale, l’IRM, regarde la distribution spatiale d’un seul signal, caractéristique des éléments chimiques dans les tissus biologiques observés, en spectroscopie par résonance magnétique nucléaire, c’est un ensemble de signaux provenant des atomes constituant la protéine qui est enregistré (ce qu’on appelle le "spectre").

Généralement, la détermination de la structure par résonance magnétique est limitée à des protéines de taille modeste. On calcule des modèles de molécules basés sur des paramètres structuraux (comme des distances interatomiques), provenant de l’analyse des spectres expérimentaux. On peut s’imaginer cela comme dans les débuts de la cartographie, où des distances entre des points de référence permettaient de dessiner des cartes en 2D. Pour faciliter l’interprétation des spectres qui contiennent beaucoup d’information, on peut utiliser des modèles obtenus par prédiction (plutôt qu’expérimentalement), comme avec AlphaFold.

En plus de la détermination structurale, la spectroscopie par résonance magnétique nucléaire apporte deux atouts majeurs. D’une part, en général, l’étude est effectuée avec un échantillon en solution aqueuse et il est possible d’observer les parties particulièrement flexibles des protéines, souvent invisibles avec les autres techniques. On peut même quantifier leur mouvement en termes d’amplitude et de fréquence, ce qui est extrêmement utile car la dynamique interne des protéines est aussi cruciale pour leur fonctionnement que leur structure.

D’autre part, la spectroscopie par résonance magnétique nucléaire permet de détecter aisément les interactions des protéines avec des petites molécules (ligands, inhibiteurs) ou d’autres protéines. Ceci permet d’identifier les sites d’interaction, information essentielle entre autres pour la conception rationnelle de molécules actives comme des médicaments.

Ces propriétés font de la spectroscopie par résonance magnétique nucléaire un outil extraordinaire pour la caractérisation fonctionnelle des protéines en complémentarité avec d’autres techniques expérimentales et l’IA.

La "cryomicroscopie électronique"

La cryomicroscopie électronique consiste à congeler ultrarapidement (environ -180 °C) un échantillon hydraté dans une fine couche de glace, qui sera traversée par les électrons. Les électrons transmis vont générer une image de l’échantillon, qui après analyse, permet d’accéder à des structures qui peuvent atteindre la résolution atomique. En comparaison, un microscope optique n’a un pouvoir résolutif que de quelques centaines de nanomètres, qui correspond à la longueur d’onde de la lumière utilisée ; seul un microscope utilisant une source possédant des longueurs d’onde suffisamment faibles (comme les électrons pour la microscopie électronique) possède un pouvoir résolutif théorique de l’ordre de l’angström. Le prix Nobel de Chimie 2017 a été décerné à Jacques Dubochet, Richard Henderson et Joachim Frank pour leurs contributions au développement de la cryomicroscopie électronique.

Avec de nombreux développements technologiques, dont celui des détecteurs à électrons directs, depuis le milieu des années 2010, cette technique est devenue essentielle en biologie structurale en amorçant une "révolution de la résolution". En effet, la cryomicroscopie électronique permet désormais d’obtenir des structures avec une résolution atomique, comme dans le cas de l’apoferritine – une protéine de l’intestin grêle qui contribue à l’absorption du fer – à 1,25 angström de résolution.

Son principal atout est de permettre de déterminer la structure d’objets de taille moyenne, au-delà de 50 000 Dalton (un Dalton correspond environ à la masse d’un atome d’hydrogène), comme l’hémoglobine de 64 000 Dalton, mais également d’objets de quelques milliards de daltons (comme le mimivirus, virus géant d’environ 0,5 micromètre).

Malgré toutes les avancées technologiques précédemment évoquées, la cryomicroscopie ne permet pas toujours de résoudre à suffisamment haute résolution la structure de "complexes", constitués de plusieurs protéines. C’est ici qu’AlphaFold peut aider et permettre, en complémentarité avec la cryomicroscopie, de décrire les interactions au niveau atomique entre les différents constituants d’un complexe. Cette complémentarité donne une force nouvelle à la cryomicroscopie électronique pour son rôle à jouer demain en biologie structurale.

Les apports d’AlphaFold

AlphaFold permet de prédire la structure de protéines uniquement à partir de leur séquence avec la connaissance acquise par la biologie structurale expérimentale. Cette approche est révolutionnaire car les séquences de beaucoup de protéines sont connues à travers les efforts des séquençages des génomes, mais déterminer leurs structures expérimentalement nécessiterait des moyens humains et techniques colossaux.

À l’heure actuelle, ce type de programme représente donc un acteur supplémentaire de complémentarité, mais ne se substitue pas aux techniques expérimentales qui, comme nous l’avons vu, apportent aussi des informations complémentaires (dynamiques, interfaces), à des échelles différentes (des sites métalliques aux complexes multiprotéiques) et plus fiables, car expérimentalement vérifiées. Au-delà de la pure détermination structurale d’une protéine isolée, la complexité des systèmes biologiques nécessite souvent une approche pluridisciplinaire afin d’élucider mécanismes et fonctions de ces biomolécules fascinantes que sont les protéines.

Auteur: Internet

Info: Published: December 19, 2022 Beate Bersch, Emmanuelle Neumann, Juan Fontecilla, Université Grenoble Alpes (UGA)

[ gnose chimique ]

 

Commentaires: 0

Ajouté à la BD par miguel

consumérisme

Comment réguler l’exploitation de notre attention ? Dans Les marchands d’attention (The Attention Merchants, 2017, Atlantic Books, non traduit), le professeur de droit, spécialiste des réseaux et de la régulation des médias, Tim Wu (@superwuster), 10 ans après avoir raconté l’histoire des télécommunications et du développement d’internet dans The Master Switch (où il expliquait la tendance de l’industrie à créer des empires et le risque des industries de la technologie à aller dans le même sens), raconte, sur 400 pages, l’histoire de l’industrialisation des médias américains et de la publicité de la fin du XIXe siècle à aujourd’hui. En passant d’une innovation médiatique l’autre, des journaux à la radio, de la télé à l’internet, Wu tisse une très informée histoire du rapport de l’exploitation commerciale de l’information et du divertissement. Une histoire de l’industrialisation des médias américains qui se concentre beaucoup sur leurs innovations et leurs modèles d’affaires, c’est-à-dire qui s’attarde à montrer comment notre attention a été convertie en revenus, comment nous avons été progressivement cédés à la logique du commerce – sans qu’on n’y trouve beaucoup à redire d’ailleurs.

"La compétition pour notre attention n’a jamais cherché à nous élever, au contraire."

Tout le long de cette histoire, Tim Wu insiste particulièrement sur le fait que la capture attentionnelle produite par les médias s’est faite par-devers nous. La question attentionnelle est souvent présentée comme le résultat d’une négociation entre l’utilisateur, le spectateur, et le service ou média qu’il utilise… mais aucun d’entre nous n’a jamais consenti à la capture attentionnelle, à l’extraction de son attention. Il souligne notamment que celle-ci est plus revendue par les médias aux annonceurs, qu’utilisée par les médias eux-mêmes. Il insiste également à montrer que cette exploitation vise rarement à nous aider à être en contrôle, au contraire. Elle ne nous a jamais apporté rien d’autre que toujours plus de contenus insignifiants. Des premiers journaux à 1 cent au spam publicitaire, l’exploitation attentionnelle a toujours visé nos plus vils instincts. Elle n’a pas cherché à nous élever, à nous aider à grandir, à développer nos connaissances, à créer du bien commun, qu’à activer nos réactions les plus instinctives. Notre exploitation commerciale est allée de pair avec l’évolution des contenus. Les journaux qui ont adopté le modèle publicitaire, ont également inventé des rubriques qui n’existaient pas pour mieux les servir : comme les faits divers, les comptes-rendus de procès, les récits de crimes… La compétition pour notre attention dégrade toujours les contenus, rappelle Tim Wu. Elle nous tourne vers "le plus tapageur, le plus sinistre, le plus choquant, nous propose toujours l’alternative la plus scandaleuse ou extravagante". Si la publicité a incontestablement contribué à développer l’économie américaine, Wu rappelle qu’elle n’a jamais cherché à présenter une information objective, mais plutôt à déformer nos mécanismes de choix, par tous les moyens possibles, même par le mensonge. L’exploitation attentionnelle est par nature une course contre l’éthique. Elle est et demeure avant tout une forme d’exploitation. Une traite, comme disait le spécialiste du sujet Yves Citton, en usant volontairement de ce vocabulaire marqué au fer.

Wu souligne que l’industrie des contenus a plus été complice de cette exploitation qu’autre chose. La presse par exemple, n’a pas tant cherché à contenir ou réguler la publicité et les revenus qu’elle générait, qu’à y répondre, qu’à évoluer avec elle, notamment en faisant évoluer ses contenus pour mieux fournir la publicité. Les fournisseurs de contenus, les publicitaires, aidés des premiers spécialistes des études comportementales, ont été les courtiers et les ingénieurs de l’économie de l’attention. Ils ont transformé l’approche intuitive et improvisée des premières publicités en machines industrielles pour capturer massivement l’attention. Wu rappelle par exemple que les dentifrices, qui n’existaient pas vraiment avant les années 20, vont prendre leur essor non pas du fait de la demande, mais bien du fait de l’offensive publicitaire, qui s’est attaquée aux angoisses inconscientes des contemporains. Plus encore que des ingénieurs de la demande, ces acteurs ont été des fabricants de comportements, de moeurs…

L’histoire de l’exploitation de notre attention souligne qu’elle est sans fin, que "les industries qui l’exploitent, contrairement aux organismes, n’ont pas de limite à leur propre croissance". Nous disposons de très peu de modalités pour limiter l’extension et la croissance de la manipulation attentionnelle. Ce n’est pas pour autant que les usagers ne se sont pas régulièrement révoltés, contre leur exploitation. "La seule dynamique récurrente qui a façonné la course des industries de l’attention a été la révolte". De l’opposition aux premiers panneaux publicitaires déposés en pleine ville au rejet de services web qui capturent trop nos données ou exploitent trop notre attention, la révolte des utilisateurs semble avoir toujours réussi à imposer des formes de régulations. Mais l’industrie de l’exploitation attentionnelle a toujours répondu à ces révoltes, s’adaptant, évoluant au gré des rejets pour proposer toujours de nouvelles formes de contenus et d’exploitation. Parmi les outils dont nous nous sommes dotés pour réguler le développement de l’économie de l’attention, Wu évoque trop rapidement le travail des associations de consommateurs (via par exemple le test de produits ou les plaintes collectives…) ou celui des régulateurs définissant des limites au discours publicitaire (à l’image de la création de la Commission fédérale du commerce américaine et notamment du bureau de la protection des consommateurs, créée pour réguler les excès des annonceurs, que ce soit en améliorant l’étiquetage des produits ou en interdisant les publicités mensongères comme celles, nombreuses, ventant des produits capables de guérir des maladies). Quant à la concentration et aux monopoles, ils ont également toujours été surveillés et régulés, que ce soit par la création de services publics ou en forçant les empires des médias à la fragmentation.

L’attention, un phénomène d’assimilation commercial et culturel L’invention du prime time à la radio puis à la télé a été à la fois une invention commerciale et culturelle, fusionnant le contenu au contenant, l’information/divertissement et la publicité en inventant un rituel d’attention collective massive. Il n’a pas servi qu’à générer une exposition publicitaire inédite, il a créé un phénomène social, une conscience et une identité partagée, tout en rendant la question de l’exposition publicitaire normale et sociale.

Dans la succession des techniques qu’ont inventés les médias de masse pour mobiliser et orienter les foules que décrit Tim Wu, on constate qu’une sorte de cycle semble se reproduire. Les nouvelles technologies et les nouveaux formats rencontrent des succès très rapides. Puis, le succès rencontre des résistances et les audiences se délitent vers de nouvelles techniques ou de nouveaux formats proposés par des concurrents. On a l’impression d’être dans une course poursuite où chaque décennie pourrait être représentée par le succès d’un support phare à l’image des 28 courts chapitres qui scandent le livre. L’essor de la télévision par exemple est fulgurant : entre 1950 et 1956 on passe de 9% à 72% des maisons équipées et à la fin des années 50, on l’a regarde déjà 5 heures par jour en moyenne. Les effets de concentration semblent très rapides… et dès que la fatigue culturelle pointe, que la nouveauté s’émousse, une nouvelle vague de propositions se développe à la fois par de nouveaux formats, de nouvelles modalités de contrôle et de nouveaux objets attentionnels qui poussent plus loin l’exploitation commerciale des publics. Patiemment, Wu rappelle la très longue histoire des nouveaux formats de contenus : la naissance des jeux, des journaux télé, des soirées spéciales, du sport, des feuilletons et séries, de la télé-réalité aux réseaux sociaux… Chacun ayant généré une nouvelle intrication avec la publicité, comme l’invention des coupures publicitaires à la radio et à la télé, qui nécessitaient de réinventer les contenus, notamment en faisant monter l’intrigue pour que les gens restent accrochés. Face aux outils de révolte, comme l’invention de la télécommande ou du magnétoscope, outils de reprise du contrôle par le consommateur, les industries vont répondre par la télévision par abonnement, sans publicité. Elles vont aussi inventer un montage plus rapide qui ne va cesser de s’accélérer avec le temps.

Pour Wu, toute rébellion attentionnelle est sans cesse assimilée. Même la révolte contre la communication de masse, d’intellectuels comme Timothy Leary ou Herbert Marcuse, sera finalement récupérée.

De l’audience au ciblage

La mesure de l’audience a toujours été un enjeu industriel des marchands d’attention. Notamment avec l’invention des premiers outils de mesure de l’audimat permettant d’agréger l’audience en volumes. Wu prend le temps d’évoquer le développement de la personnalisation publicitaire, avec la socio-géo-démographie mise au point par la firme Claritas à la fin des années 70. Claritas Prizm, premier outil de segmentation de la clientèle, va permettre d’identifier différents profils de population pour leur adresser des messages ciblés. Utilisée avec succès pour l’introduction du Diet Coke en 1982, la segmentation publicitaire a montré que la nation américaine était une mosaïque de goûts et de sensibilités qu’il fallait adresser différemment. Elle apporte à l’industrie de la publicité un nouvel horizon de consommateurs, préfigurant un ciblage de plus en plus fin, que la personnalisation de la publicité en ligne va prolonger toujours plus avant. La découverte des segments va aller de pair avec la différenciation des audiences et la naissance, dans les années 80, des chaînes câblées qui cherchent à exploiter des populations différentes (MTV pour la musique, ESPN pour le sport, les chaînes d’info en continu…). L’industrie du divertissement et de la publicité va s’engouffrer dans l’exploitation de la fragmentation de l’audience que le web tentera de pousser encore plus loin.

Wu rappelle que la technologie s’adapte à ses époques : "La technologie incarne toujours l’idéologie, et l’idéologie en question était celle de la différence, de la reconnaissance et de l’individualité". D’un coup le spectateur devait avoir plus de choix, plus de souveraineté… Le visionnage lui-même changeait, plus inattentif et dispersé. La profusion de chaînes et le développement de la télécommande se sont accompagnés d’autres modalités de choix comme les outils d’enregistrements. La publicité devenait réellement évitable. D’où le fait qu’elle ait donc changé, devenant plus engageante, cherchant à devenir quelque chose que les gens voudraient regarder. Mais dans le même temps, la télécommande était aussi un moyen d’être plus branché sur la manière dont nous n’agissons pas rationnellement, d’être plus distraitement attentif encore, à des choses toujours plus simples. "Les technologies conçues pour accroître notre contrôle sur notre attention ont parfois un effet opposé", prévient Wu. "Elles nous ouvrent à un flux de sélections instinctives et de petites récompenses"… En fait, malgré les plaintes du monde de la publicité contre la possibilité de zapper, l’état d’errance distrait des spectateurs n’était pas vraiment mauvais pour les marchands d’attention. Dans l’abondance de choix, dans un système de choix sans friction, nous avons peut-être plus perdu d’attention qu’autre chose.

L’internet a démultiplié encore, par de nouvelles pratiques et de nouveaux médiums, ces questions attentionnelles. L’e-mail et sa consultation sont rapidement devenus une nouvelle habitude, un rituel attentionnel aussi important que le prime time. Le jeu vidéo dès ses débuts a capturé toujours plus avant les esprits.

"En fin de compte, cela suggère aussi à quel point la conquête de l’attention humaine a été incomplète entre les années 1910 et les années 60, même après l’entrée de la télévision à la maison. En effet, même s’il avait enfreint la sphère privée, le domaine de l’interpersonnel demeurait inviolable. Rétrospectivement, c’était un territoire vierge pour les marchands d’attention, même si avant l’introduction de l’ordinateur domestique, on ne pouvait pas concevoir comment cette attention pourrait être commercialisée. Certes, personne n’avait jamais envisagé la possibilité de faire de la publicité par téléphone avant même de passer un appel – non pas que le téléphone ait besoin d’un modèle commercial. Ainsi, comme AOL qui a finalement opté pour la revente de l’attention de ses abonnés, le modèle commercial du marchand d’attention a été remplacé par l’un des derniers espaces considérés comme sacrés : nos relations personnelles." Le grand fournisseur d’accès des débuts de l’internet, AOL, a développé l’accès aux données de ses utilisateurs et a permis de développer des techniques de publicité dans les emails par exemple, vendant également les mails de ses utilisateurs à des entreprises et leurs téléphones à des entreprises de télémarketing. Tout en présentant cela comme des "avantages" réservés à ses abonnés ! FB n’a rien inventé ! "

La particularité de la modernité repose sur l’idée de construire une industrie basée sur la demande à ressentir une certaine communion". Les célébrités sont à leur tour devenues des marchands d’attention, revendant les audiences qu’elles attiraient, à l’image d’Oprah Winfrey… tout en transformant la consommation des produits qu’elle proposait en méthode d’auto-récompense pour les consommateurs.

L’infomercial a toujours été là, souligne Wu. La frontière entre divertissement, information et publicité a toujours été floue. La télé-réalité, la dernière grande invention de format (qui va bientôt avoir 30 ans !) promettant justement l’attention ultime : celle de devenir soi-même star.

Le constat de Wu est amer. "Le web, en 2015, a été complètement envahi par la malbouffe commerciale, dont une grande partie visait les pulsions humaines les plus fondamentales du voyeurisme et de l’excitation." L’automatisation de la publicité est le Graal : celui d’emplacements parfaitement adaptés aux besoins, comme un valet de chambre prévenant. "Tout en promettant d’être utile ou réfléchi, ce qui a été livré relevait plutôt de l’intrusif et pire encore." La télévision – la boîte stupide -, qui nous semblait si attentionnellement accablante, paraît presque aujourd’hui vertueuse par rapport aux boucles attentionnelles sans fin que produisent le web et le mobile.

Dans cette histoire, Wu montre que nous n’avons cessé de nous adapter à cette capture attentionnelle, même si elle n’a cessé de se faire à notre détriment. Les révoltes sont régulières et nécessaires. Elles permettent de limiter et réguler l’activité commerciale autour de nos capacités cognitives. Mais saurons-nous délimiter des frontières claires pour préserver ce que nous estimons comme sacré, notre autonomie cognitive ? La montée de l’internet des objets et des wearables, ces objets qui se portent, laisse supposer que cette immixtion ira toujours plus loin, que la régulation est une lutte sans fin face à des techniques toujours plus invasives. La difficulté étant que désormais nous sommes confrontés à des techniques cognitives qui reposent sur des fonctionnalités qui ne dépendent pas du temps passé, de l’espace ou de l’emplacement… À l’image des rythmes de montage ou des modalités de conception des interfaces du web. Wu conclut en souhaitant que nous récupérions "la propriété de l’expérience même de la vie". Reste à savoir comment…

Comment répondre aux monopoles attentionnels ?

Tim Wu – qui vient de publier un nouveau livre The Curse of Bigness : antitrust in the new Gilded age (La malédiction de la grandeur, non traduit) – prône, comme d’autres, un renforcement des lois antitrusts américaines. Il y invite à briser les grands monopoles que construisent les Gafam, renouvelant par là la politique américaine qui a souvent cherché à limiter l’emprise des monopoles comme dans le cas des télécommunications (AT&T), de la radio ou de la télévision par exemple ou de la production de pétrole (Standard Oil), pour favoriser une concurrence plus saine au bénéfice de l’innovation. À croire finalement que pour lutter contre les processus de capture attentionnels, il faut peut-être passer par d’autres leviers que de chercher à réguler les processus attentionnels eux-mêmes ! Limiter le temps d’écran finalement est peut-être moins important que limiter la surpuissance de quelques empires sur notre attention !

La règle actuelle pour limiter le développement de monopoles, rappelle Wu dans une longue interview pour The Verge, est qu’il faut démontrer qu’un rachat ou une fusion entraînera une augmentation des prix pour le consommateur. Outre, le fait que c’est une démonstration difficile, car spéculative, "il est pratiquement impossible d’augmenter les prix à la consommation lorsque les principaux services Internet tels que Google et Facebook sont gratuits". Pour plaider pour la fragmentation de ces entreprises, il faudrait faire preuve que leur concentration produit de nouveaux préjudices, comme des pratiques anticoncurrentielles quand des entreprises absorbent finalement leurs concurrents. Aux États-Unis, le mouvement New Brandeis (qui fait référence au juge Louis Brandeis acteur majeur de la lutte contre les trusts) propose que la régulation favorise la compétition.

Pour Wu par exemple, la concurrence dans les réseaux sociaux s’est effondrée avec le rachat par Facebook d’Instagram et de WhatsApp. Et au final, la concurrence dans le marché de l’attention a diminué. Pour Wu, il est temps de défaire les courtiers de l’attention, comme il l’explique dans un article de recherche qui tente d’esquisser des solutions concrètes. Il propose par exemple de créer une version attentionnelle du test du monopoleur hypothétique, utilisé pour mesurer les abus de position dominante, en testant l’influence de la publicité sur les pratiques. Pour Tim Wu, il est nécessaire de trouver des modalités à l’analyse réglementaire des marchés attentionnels.

Dans cet article, Wu s’intéresse également à la protection des audiences captives, à l’image des écrans publicitaires des pompes à essence qui vous délivrent des messages sans pouvoir les éviter où ceux des écrans de passagers dans les avions… Pour Wu, ces nouvelles formes de coercition attentionnelle sont plus qu’un ennui, puisqu’elles nous privent de la liberté de penser et qu’on ne peut les éviter. Pour lui, il faudrait les caractériser comme un "vol attentionnel". Certes, toutes les publicités ne peuvent pas être caractérisées comme telles, mais les régulateurs devraient réaffirmer la question du consentement souligne-t-il, notamment quand l’utilisateur est captif ou que la capture cognitive exploite nos biais attentionnels sans qu’on puisse lutter contre. Et de rappeler que les consommateurs doivent pouvoir dépenser ou allouer leur attention comme ils le souhaitent. Que les régulateurs doivent chercher à les protéger de situations non consensuelles et sans compensation, notamment dans les situations d’attention captive ainsi que contre les intrusions inévitables (celles qui sont augmentées par un volume sonore élevé, des lumières clignotantes, etc.). Ainsi, les publicités de pompe à essence ne devraient être autorisées qu’en cas de compensation pour le public (par exemple en proposant une remise sur le prix de l’essence)…

Wu indique encore que les réglementations sur le bruit qu’ont initié bien des villes peuvent être prises pour base pour construire des réglementations de protection attentionnelle, tout comme l’affichage sur les autoroutes, également très réglementé. Pour Tim Wu, tout cela peut sembler peut-être peu sérieux à certain, mais nous avons pourtant imposé par exemple l’interdiction de fumer dans les avions sans que plus personne aujourd’hui n’y trouve à redire. Il est peut-être temps de prendre le bombardement attentionnel au sérieux. En tout cas, ces défis sont devant nous, et nous devrons trouver des modalités pour y répondre, conclut-il.

Auteur: Guillaud Hubert

Info: 27 décembre 2018, http://internetactu.blog.lemonde.fr

[ culture de l'epic fail ] [ propagande ] [ captage de l'attention ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Notre cerveau à l’heure des nouvelles lectures

Maryanne Wolf, directrice du Centre de recherche sur la lecture et le langage de l’université Tufts est l’auteur de Proust et le Calmar (en référence à la façon dont ces animaux développent leurs réseaux de neurones, que nous avions déjà évoqué en 2009). Sur la scène des Entretiens du Nouveau Monde industriel au Centre Pompidou, la spécialiste dans le développement de l’enfant est venue évoquer "la modification de notre cerveau-lecteur au 21e siècle"

Comment lisons-nous ?

"Le cerveau humain n’était pas programmé pour être capable de lire. Il était fait pour sentir, parler, entendre, regarder… Mais nous n’étions pas programmés génétiquement pour apprendre à lire". Comme l’explique le neuroscientifique français Stanislas Dehaene (Wikipédia) dans son livre Les neurones de la lecture, nous avons utilisé notre cerveau pour identifier des modèles. C’est l’invention culturelle qui a transformé notre cerveau, qui a relié et connecté nos neurones entre eux, qui leur a appris à travailler en groupes de neurones spécialisés, notamment pour déchiffrer la reconnaissance de formes. La reconnaissance des formes et des modèles a permis la naissance des premiers symboles logographiques, permettant de symboliser ce qu’on voyait qui nous mènera des peintures rupestres aux premières tablettes sumériennes. Avec l’invention de l’alphabet, l’homme inventera le principe que chaque mot est un son et que chaque son peut-être signifié par un symbole. Le cerveau lecteur consiste donc à la fois à être capable de "voir", décoder des informations, des motifs et à les traiter pour pouvoir penser et avoir une réflexion.

Pour autant, le circuit de la lecture n’est pas homogène. Quand on observe à l’imagerie cérébrale un anglais qui lit de l’anglais, un chinois qui lit du chinois ou le Kanji, un Japonais qui lit le Kana japonais, on se rend compte que ces lectures activent des zones sensiblement différentes selon les formes d’écritures. Ce qui signifie qu’il y a plusieurs circuits de lecture dans notre cerveau. Le cerveau est plastique et il se réarrange de multiples façons pour lire, dépendant à la fois du système d’écriture et du médium utilisé. "Nous sommes ce que nous lisons et ce que nous lisons nous façonne" Ce qui explique aussi que chaque enfant qui apprend à lire doit développer son propre circuit de lecture.

Ce qui stimule le plus notre cerveau, selon l’imagerie médicale, c’est d’abord jouer une pièce au piano puis lire un poème très difficile, explique Maryanne Wolf. Car la lecture profonde nécessite une forme de concentration experte. Comme le souligne Proust dans Sur la lecture : "Nous sentons très bien que notre sagesse commence où celle de l’auteur finit, et nous voudrions qu’il nous donnât des réponses, quand tout ce qu’il peut faire est de nous donner des désirs. Et ces désirs, il ne peut les éveiller en nous qu’en nous faisant contempler la beauté suprême à laquelle le dernier effort de son art lui a permis d’atteindre. Mais par une loi singulière et d’ailleurs providentielle de l’optique des esprits (loi qui signifie peut-être que nous ne pouvons recevoir la vérité de personne, et que nous devons la créer nous-mêmes), ce qui est le terme de leur sagesse ne nous apparaît que comme le commencement de la nôtre, de sorte que c’est au moment où ils nous ont dit tout ce qu’ils pouvaient nous dire qu’ils font naître en nous le sentiment qu’ils ne nous ont encore rien dit."

La lenteur, la concentration et le processus cognitif encouragent le cerveau lecteur. La déduction, la pensée analogique, l’analyse critique, la délibération, la perspicacité, l’épiphanie (c’est-à-dire la compréhension soudaine de l’essence et de la signification de quelque chose) et la contemplation sont quelques-unes des merveilleuses conséquences de notre capacité à lire la pensée d’un autre.

Pourquoi la lecture numérique est-elle différente ?

Est-ce que ce que nous savons de notre cerveau lecteur éclaire ce que nous ne savons pas de la lecture à l’heure de la culture numérique ? Quelles sont les implications profondes sur la plasticité de nos circuits de lecture à mesure que nous utilisons des médiums dominés par le numérique ?

En 2008, dans une interview pour Wired, quelques mois avant d’écrire son célèbre article, "Est-ce que Google nous rend idiot ?", Nicholas Carr expliquait : "La chose la plus effrayante dans la vision de Stanley Kubrick n’était pas que les ordinateurs commencent à agir comme les gens, mais que les gens commencent à agir comme des ordinateurs. Nous commençons à traiter l’information comme si nous étions des noeuds, tout est question de vitesse de localisation et de lecture de données. Nous transférons notre intelligence dans la machine, et la machine transfère sa façon de penser en nous."

Les caractéristiques cognitives de la lecture en ligne ne sont pas les mêmes que celle de la lecture profonde, estime Maryanne Wolf. Avec le numérique, notre attention et notre concentration sont partielles, moins soutenues. Notre capacité de lecture se fixe sur l’immédiateté et la vitesse de traitement. Nous privilégions une forme de lecture qui nous permet de faire plusieurs tâches en même temps dans des larges ensembles d’information. Les supports numériques ont tendance à rendre notre lecture physique (tactile, interactions sensorielles…) tandis que le lire nous plonge plutôt dans un processus cognitif profond. Pour la spécialiste, il semble impossible de s’immerger dans l’hypertexte. Reprenant les propos de Carr, "l’écrémage est la nouvelle normalité", assène-t-elle. "Avec le numérique, on scanne, on navigue, on rebondit, on repère. Nous avons tendance à bouger, à cliquer et cela réduit notre attention profonde, notre capacité à avoir une lecture concentrée. Nous avons tendance à porter plus d’attention à l’image. Nous avons tendance à moins internaliser la connaissance et à plus dépendre de sources extérieures."

Les travaux d’imagerie cérébrale sur les effets cognitifs du multitâche montrent que même si on peut apprendre en étant distraits cela modifie notre façon d’apprendre rendant l’apprentissage moins efficace et utile estime le professeur de psychologie et neurobiologie Russ Poldrack. Les facteurs tactiles et matériels ont aussi une importance. On ne peut s’immerger dans l’hypertexte de la même façon qu’on pouvait se perdre dans un livre, estime la spécialiste de la lecture Anne Mangen du Centre sur la lecture de l’université de Stavanger. Plusieurs études ont montré que notre niveau de compréhension entre l’écran et l’imprimé se faisait toujours au détriment du numérique, rappelle Maryanne Wolf. Mais peut-être faudrait-il nuancer les propos de Maryanne Wolf et souligner, comme nous l’avions déjà rappelé lors de la publication de la charge de Nicholas Carr que les les protocoles d’expérimentation des neuroscientifiques défendent souvent des thèses. La science et l’imagerie médicale semblent convoquées pour apporter des preuves. Alors que les différences de protocoles entre une étude l’autre, la petitesse des populations étudiées, nécessiterait beaucoup de prudence dans les conclusions.

Reste que pour comprendre cette différence entre papier et électronique, estime Maryanne Wolf, il nous faut comprendre comment se forme notre capacité de lecture profonde. Est-ce que la lecture superficielle et notre attente continue d’informations externes seront les nouvelles menaces des lectures numériques ? Ces deux risques vont-ils court-circuiter notre "cerveau lecteur" ? Est-ce que la construction de l’imaginaire de l’enfance va être remplacée par celle, externe, que tous les nouveaux supports offrent ? …

"Nous ne reviendrons pas en arrière, nous ne reviendrons pas à un temps prénumérique", insiste Maryanne Wolf. "Ce n’est ni envisageable, ni enviable, ni faisable."

"Mais nous ne devrions pas accepter une embardée vers l’avant sans comprendre ce que le "répertoire cognitif" de notre espèce risque de perdre ou de gagner."
 "Ce serait une honte si la technologie la plus brillante que nous ayons développée devait finir par menacer le genre d’intelligence qui l’a produite", estime l’historien des technologies Edward Tenner. Et Maryanne Wolf de nous montrer trois enfants assis dans un canapé, avec chacun son ordinateur sur ses genoux. C’est l’image même qui inspire notre peur de demain. Celle-là même qu’évoquait l’anthropologue Stefana Broadbent à Lift 2012. Sauf que l’anthropologue, elle, nous montrait qu’on était là confronté là à une représentation sociale… une interrogation totalement absente du discours alarmiste de Maryanne Wolf, qui compare l’activité cognitive de cerveaux habitués à la lecture traditionnelle, avec celle de cerveaux qui découvrent les modalités du numérique.

Le numérique a bien un défaut majeur, celui d’introduire dans notre rapport culturel même des modalités de distraction infinies. Comme nous le confiait déjà Laurent Cohen en 2009, l’écran ou le papier ne changent rien à la capacité de lecture. Mais c’est le réseau qui pose problème et ce d’autant plus quand il apporte une distraction permanente, permettant toujours de faire autre chose que ce que l’on compte faire.

Si la lecture profonde peut se faire tout autant sur papier qu’à travers le réseau, le principal problème qu’induit le numérique, c’est la possibilité de distraction induite par l’outil lui-même, qui demande, pour y faire face, un contrôle de soi plus exigeant.

Notre avenir cognitif en sursis ?

Alors, comment résoudre ce paradoxe, se demande Maryanne Wolf. Comment pouvons-nous éviter de "court-circuiter" notre capacité à lire en profondeur, tout en acquérant les nouvelles compétences nécessaires pour le 21e siècle ?

Un premier pas peut-être fait en ayant conscience de nos limites, estime Maryanne Wolf. Rappelons-nous que notre cerveau n’a jamais été programmé génétiquement pour lire. Que chaque lecteur doit construire ses propres circuits de lecture. Que nos circuits de lecture sont plastiques et influencés par les médiums et les systèmes d’écriture que nous utilisons. Notre cerveau-lecteur est capable à la fois des plus superficielles et des plus profondes formes de lecture, de ressenti et de pensées.

Nous pouvons deviner que l’accès à l’information ne va cesser d’augmenter. Mais nous ne savons pas si l’accès immédiat à de vastes quantités d’informations va transformer la nature du processus de lecture interne, à savoir la compréhension profonde et l’internalisation de la connaissance.

Pour le dire autrement, notre cerveau est d’une plasticité totale, mais cela ne veut pas dire que nous allons perdre telle ou telle capacité d’attention, alors que celles-ci ont plus que jamais une importance sociale. Pour l’instant, pourrions-nous répondre à Maryanne Wolf, ce que le cerveau lecteur nous a le plus fait perdre, c’est certainement notre capacité à lire les détails du monde naturel que comprenait le chasseur-cueilleur.

Nous ne savons pas si l’accès immédiat à cette quantité croissante d’information externe va nous éloigner du processus de lecture profonde ou au contraire va nous inciter à explorer la signification des choses plus en profondeur, estime Wolf en reconnaissant tout de même, après bien des alertes, l’ignorance des neuroscientifiques en la matière. Bref, nous ne savons pas si les changements qui s’annoncent dans l’intériorisation des connaissances vont se traduire par une altération de nos capacités cognitives, ni dans quel sens ira cette altération.

Si nous ne savons pas tout de notre avenir cognitif, estime Wolf, peut-être pouvons-nous conserver certains objectifs en vue. Que pouvons-nous espérer ? La technologie va bouleverser l’apprentissage, estime Maryanne Wolf en évoquant l’expérimentation qu’elle mène avec le MIT sur le prêt de tablettes auprès d’enfants éthiopiens qui n’ont jamais été alphabétisés et qui montre des jeunes filles capables de retenir l’alphabet qu’elles n’avaient jamais appris. Comment peut-on créer les conditions pour que les nouveaux lecteurs développent une double capacité… savoir à la fois quand il leur faut écrémer l’information et quand il leur faut se concentrer profondément ?

En semblant à la fois croire dans l’apprentissage par les robots, comme le montre l’expérience OLPC en Ethiopie de laquelle elle participe visiblement avec un certain enthousiasme (alors que certains spécialistes de l’éducation ont montré que l’essentielle des applications d’apprentissage de la lecture ne permettaient pas de dépasser le niveau de l’apprentissage de l’alphabet, en tout cas n’étaient pas suffisantes pour apprendre à lire seul) et en n’ayant de cesse de nous mettre en garde sur les risques que le numérique fait porter à la lecture profonde, Maryanne Wolf semble avoir fait un grand écart qui ne nous a pas aidés à y voir plus clair.

Après la langue et le langage : la cognition

Pour l’ingénieur et philosophe Christian Fauré, membre de l’association Ars Industrialis. "l’organologie générale" telle que définit par Ars Industrialis et le philosophe Bernard Stiegler, organisateur de ces rencontres, vise à décrire et analyser une relation entre 3 types d' "organes" qui nous définissent en tant qu’humain : les organes physiologiques (et psychologiques), les organes techniques et les organes sociaux.

"Nos organes physiologiques n’évoluent pas indépendamment de nos organes techniques et sociaux", rappelle Christian Fauré. Dans cette configuration entre 3 organes qui se surdéterminent les uns les autres, le processus d’hominisation semble de plus en plus porté, "transporté" par l’organe technique. Car dans un contexte d’innovation permanente, le processus d’hominisation, ce qui nous transforme en hommes, est de plus en plus indexé par l’évolution de nos organes techniques. La question est de savoir comment nos organes sociaux, psychologiques et physiologiques vont suivre le rythme de cette évolution. A l’époque de l’invention des premiers trains, les gens avaient peur d’y grimper, rappelle le philosophe. On pensait que le corps humain n’était pas fait pour aller à plus de 30 km à l’heure.

L’évolution que nous connaissons se produit via des interfaces entre les différents organes et c’est celles-ci que nous devons comprendre, estime Christian Fauré. Quel est le rôle des organes techniques et quels sont leurs effets sur nos organes sociaux et physiologiques ?L’écriture a longtemps été notre principal organe technique. Parce qu’elle est mnémotechnique, elle garde et conserve la mémoire. Par son statut, par les interfaces de publication, elle rend public pour nous-mêmes et les autres et distingue le domaine privé et le domaine public. Or l’évolution actuelle des interfaces d’écriture réagence sans arrêt la frontière entre le privé et le public. Avec le numérique, les interfaces de lecture et d’écriture ne cessent de générer de la confusion entre destinataire et destinateur, entre ce qui est privé et ce qui est public, une distinction qui est pourtant le fondement même de la démocratie, via l’écriture publique de la loi. Avec le numérique, on ne sait plus précisément qui voit ce que je publie… ni pourquoi on voit les messages d’autrui.

La question qui écrit à qui est devenue abyssale, car, avec le numérique, nous sommes passés de l’écriture avec les machines à l’écriture pour les machines. L’industrie numérique est devenue une industrie de la langue, comme le soulignait Frédéric Kaplan. Et cette industrialisation se fait non plus via des interfaces homme-machine mais via de nouvelles interfaces, produites par et pour les machines, dont la principale est l’API, l’interface de programmation, qui permet aux logiciels de s’interfacer avec d’autres logiciels.

Le nombre d’API publiée entre 2005 et 2012 a connu une croissance exponentielle, comme l’explique ProgrammableWeb qui en tient le décompte. Désormais, plus de 8000 entreprises ont un modèle d’affaire qui passe par les API. "Le web des machines émerge du web des humains. On passe d’un internet des humains opéré par les machines à un internet pour les machines opéré par les machines. L’API est la nouvelle membrane de nos organes techniques qui permet d’opérer automatiquement et industriellement sur les réseaux."

Ecrire directement avec le cerveau

Le monde industriel va déjà plus loin que le langage, rappelle Christian Fauré sur la scène des Entretiens du Nouveau Monde industriel. "Nous n’écrivons plus. Nous écrivons sans écrire, comme le montre Facebook qui informe nos profils et nos réseaux sociaux sans que nous n’ayons plus à écrire sur nos murs. Nos organes numériques nous permettent d’écrire automatiquement, sans nécessiter plus aucune compétence particulière. Et c’est encore plus vrai à l’heure de la captation de données comportementales et corporelles. Nos profils sont renseignés par des cookies que nos appareils techniques écrivent à notre place. Nous nous appareillons de capteurs et d’API "qui font parler nos organes". Les interfaces digitales auxquelles nous nous connectons ne sont plus des claviers ou des écrans tactiles… mais des capteurs et des données." Les appareillages du Quantified Self sont désormais disponibles pour le grand public. La captation des éléments physiologique s’adresse à nos cerveaux, comme l’explique Martin Lindstrom dans Buy.Ology. "Nous n’avons même plus besoin de renseigner quoi que ce soit. Les capteurs le font à notre place. Pire, le neuromarketing semble se désespérer du langage. On nous demande de nous taire. On ne veut pas écouter ce que l’on peut dire ou penser, les données que produisent nos capteurs et nos profils suffisent." A l’image des séries américaines comme Lie to Me ou the Mentalist où les enquêteurs ne s’intéressent plus à ce que vous dites. Ils ne font qu’observer les gens, ils lisent le corps, le cerveau. "L’écriture de soi n’est plus celle de Foucault, les échanges entre lettrés. On peut désormais s’écrire sans savoir écrire. Nous entrons dans une époque d’écriture automatique, qui ne nécessite aucune compétence. Nous n’avons même plus besoin du langage. L’appareillage suffit à réactualiser le connais-toi toi-même  !"

Google et Intel notamment investissent le champ des API neuronales et cherchent à créer un interfaçage direct entre le cerveau et le serveur. Le document n’est plus l’interface. Nous sommes l’interface !

"Que deviennent la démocratie et la Res Publica quand les données s’écrivent automatiquement, sans passer par le langage ? Quand la distinction entre le public et le privé disparaît ? Alors que jusqu’à présent, la compétence technique de la lecture et de l’écriture était la condition de la citoyenneté", interroge Christian Fauré.

Les capteurs et les interfaces de programmation ne font pas que nous quantifier, ils nous permettent également d’agir sur notre monde, comme le proposent les premiers jouets basés sur un casque électroencéphalographique (comme Mindflex et Star Wars Science The Force Trainer), casques qui utilisent l’activité électrique du cerveau du joueur pour jouer. Ces jouets sont-ils en train de court-circuiter notre organe physiologique ?

Mais, comme l’a exprimé et écrit Marianne Wolf, nous n’étions pas destinés à écrire. Cela ne nous a pas empêchés de l’apprendre. Nous sommes encore moins nés pour agir sur le réel sans utiliser nos organes et nos membres comme nous le proposent les casques neuronaux.

Quand on regarde les cartographies du cortex somatosensoriel on nous présente généralement une représentation de nous-mêmes selon l’organisation neuronale. Celle-ci déforme notre anatomie pour mettre en évidence les parties de celle-ci les plus sensibles, les plus connectés à notre cerveau. Cette représentation de nous est la même que celle que propose la logique des capteurs. Or, elle nous ressemble bien peu.

(Image extraite de la présentation de Christian Fauré : ressemblons à notre cortex somatosensoriel ?)

Que se passera-t-il demain si nous agissons dans le réel via des casques neuronaux ? La Science Fiction a bien sûr anticipé cela. Dans Planète interdite, le sous-sol de la planète est un vaste data center interfacé avec le cerveau des habitants de la planète qui ne donne sa pleine puissance que pendant le sommeil des habitants. "Ce que nous rappelle toujours la SF c’est que nos pires cauchemars se réalisent quand on interface l’inconscient à la machine, sans passer par la médiation de l’écriture ou du langage. Si la puissance du digital est interfacée et connectée directement aux organes physiologiques sans la médiation de l’écriture et du langage, on imagine alors à quel point les questions technologiques ne sont rien d’autre que des questions éthiques", conclut le philosophe.

Si on ne peut qu’être d’accord avec cette crainte de la modification du cerveau et de la façon même dont on pense via le numérique comme c’était le cas dans nombre d’interventions à cette édition des Entretiens du Nouveau Monde industriel, peut-être est-il plus difficile d’en rester à une dénonciation, comme l’a montré l’ambiguïté du discours de Maryanne Wolf. Si nous avons de tout temps utilisé des organes techniques, c’est dans l’espoir qu’ils nous libèrent, qu’ils nous transforment, qu’ils nous distinguent des autres individus de notre espèce et des autres espèces. Pour répondre à Christian Fauré, on peut remarquer que la SF est riche d’oeuvres qui montrent ou démontrent que l’augmentation de nos capacités par la technique était aussi un moyen pour faire autre chose, pour devenir autre chose, pour avoir plus de puissance sur le monde et sur soi. Il me semble pour ma part qu’il est important de regarder ce que les interfaces neuronales et les capteurs libèrent, permettent. Dans the Mentalist, pour reprendre la référence de Christian Fauré, ce sont les capacités médiumniques extraordinaires de l’enquêteur qui transforme son rapport au monde et aux autres. Si l’interfaçage direct des organes physiologique via des capteurs et des données produit de nouvelles formes de pouvoir, alors il est certain que nous nous en emparerons, pour le meilleur ou pour le pire. On peut légitimement le redouter ou s’en inquiéter, mais ça ne suffira pas à nous en détourner.

Qu’allons-nous apprendre en jouant de l’activité électrique de nos cerveaux ? On peut légitimement se demander ce que cela va détruire… Mais si on ne regarde pas ce que cela peut libérer, on en restera à une dénonciation sans effets.



 

Auteur: Guillaud Hubert

Info: https://www.lemonde.fr/blog/internetactu/2013/01/11/notre-cerveau-a-lheure-des-nouvelles-lectures/

[ communication ] [ réflexivité ] [ métalangage ] [ secondéités intégrées ] [ prospective ] [ niveaux de lecture ] [ citation s'appliquant à ce logiciel ] [ inversion ] [ triade ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel