Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 134
Temps de recherche: 0.0598s

pamphlet

Coucou ! C’est moi, me revoilà. Vous ne me reconnaissez pas ? Pourtant, vous m’avez chaque année dans votre cheminée.

C’est moi, oui, Big Father, avec ma grande barbe hydrophile, mon traîneau à clochettes et des cadeaux dégueulasses plein ma hotte, emballés dans du splendide papier clignotant.

Vous ne m’avez pas vu venir, une fois de plus ? C’est normal. Personne ne sait jamais comment je débarque. Chaque année, je trompe mon monde. On ne m’entend pas arriver, et puis un matin, c’est fait, ça y est, tout est joué. La torture des fééries recommence.

Une fois encore, j’ai réussi à suspendre, pendant la nuit, mes guirlandes grotesques en travers des rues, comme autant d’insultes anonymes. Une fois encore, mes boules multicolores et mes illuminations pernicieuses sont apparues aux vitrines. Sans que personne me voie. Sans que personne me voie jamais. Une fois encore, ma grande terreur s’installe. Les semaines vont se dérouler comme des veilles funèbres. Les gens vont courir partout, épouvantés, le long des façades, avec leurs paquets obligatoires. Il est revenu, ça y est, il s’est réinstallé, celui qu’on redoutait. Celui dont on évitait même de prononcer le nom, de crainte de le voir surgir. C’est fait. La Bête est là. L’Eminence rose est de retour. La ville n’existe plus, ni la vie, ni rien. Tout est redevenu Noël.

Comme je m’amuse, à contempler la joie qu’ils affichent et à connaître le fond noir de leurs âmes angoissées ! Qu’ils me craignent, pourvu qu’ils me célèbrent ! En vérité, ma menace les rend malades bien avant décembre. Chaque année, on voudrait espérer que je ne vais pas revenir. Chaque année, on me sent approcher comme un mal inconnu, un cauchemar, une fièvre. Le Père Noël fait peur. L’année dernière, au restaurant, j’en ai entendu plusieurs, à voix basse, dès la fin d’octobre, qui parlaient de moi avec la trouille au ventre : "Qu’est-ce que tu fais pour les fêtes ? – Mais je ne sais pas. – Comment, tu ne sais pas ? – Non, pas encore. – Tu n’as rien prévu ? Mais tu es fou ! Il faut que tu t’en occupes ! Noël c’est demain ! Et la Saint-Sylvestre ! Tu ne te rends pas compte ! D’ici quinze jours, peut-être huit, il y aura des trucs partout ! Des guirlandes ! Des boules lumineuses !"

Oui, je flanque la panique ; mais il n’y a que depuis quelques années que je commence, chez certains, je le sais, à susciter de la haine.

Oh ! pas une haine bien dangereuse ! Rien de grave. Le monde est beaucoup trop définitivement ensucré, gnangnantifié et sans retour, colonisé par les bonnes intentions, la prudence et les mièvreries, pour que je me sente en péril. L’horreur du bonheur est peut-être une idée neuve en Europe mais elle ne risque pas de faire beaucoup d’émules. Je sais qu’il y en a, chaque année, qui rêvent de vomir tout le mal qu’ils pensent de ma fête du Cœur venimeuse, de cette apothéose ravageante de l’approbation du monde, de cette culmination de la résignation enfestée. Mais je suis bien tranquille. J’ai été si souvent honni pour de mauvaises raisons que les excellentes de maintenant ne risquent pas d’être saisies avant longtemps.

Tout semble avoir été dit contre moi. la critique est recuite. C’est mon plus beau triomphe, d’avoir fatigué jusqu’à ceux qui me détestent. Quel ennui les saisit, quel accablement, dès qu’ils envisagent de me vitupérer ! Quelle sensation effarante d’inutilité ! Ils savent déjà tout ce qu’on va leur balancer ! Les accusations de banalité, de trivialité, qu’ils vont endurer ! Rentrer dans le lard du Père Noël, cette vieille porte ouverte ? Composer le millième rappel de la transformation du rite païen du solstice d’hiver en fête chrétienne à son tour sécularisée par le business ? La cent millième attaque futile contre la Nativité détournée de sa pureté originelle, noyée sous les cadeaux paralysants, les téléphones qui parlent, le super-Nintendo parfumé à la framboise, les chocolats à quartz et toutes les autres saloperies en multiplication galopante ? Vous êtes tombé sur la tête ?

Le Père Noël est une ordure ? Comme vous y allez ! Regardez-vous un peu. C’est tous les jours Noël maintenant. Ma grande réussite, c’est qu’on croit que mon oppression ne dure que quelques semaines par an, alors que je suis le ressort des illuminations des douze mois de l’année. Noël, c’est Noël. Et pâques c’est aussi Noël. Et le 15 août. Et la Saint-Sylvestre. Et le bonheur de merde des vacances, cette paix des grands cimetières sous le soleil. Les mains à Nikons valent les tronches à boudins blancs. Les gueules de camping-cars valent les têtes de bûches au chocolat. Toutes les fiestas conduisent à moi. et toutes les rages, et toutes les ruées, et toutes les foires. Et toutes les roues de la Fortune. Et tous les Manèges de la télé. Et toute la quincaillerie clinquante de l’égalité par la joie, de la fraternité par l’extase niaise, de l’apothéose du Rien tonitruant qu’on étend par couches de plus en plus épaisses sur la violence toujours recommencée, mais de plus en plus niée, du genre humain.

Qui est plus philanthrope, plus humanitaire, plus tartuffien solidaire que moi ? Qui règne davantage sur les plateaux ? L’avenir m’appartient. C’est moi le Cavalier suprême de l’Apocalypse en rose. Je préfigure si parfaitement la société future, l’humanité de demain bien gâteuse, bien transparente et transfrontières, bavante de positivité dans ses centres-villes toilettés, avec ses Twingo fœtales aux chouettes banquettes sièges-bébés, ses cadeaux infantiles, sa classe dominante d’apparatchiks du loisir, de tour-opérateurs, de charlatans de l’urbanisme rigolo, de promoteurs guimauve de la babyphilie définitive, d’entrepreneurs meurtriers de gaieté publique, qu’il faudrait la subtilité géniale d’un Kojève au moins (ce drôle de type qui avait placé sa fortune en actions de la Vache qui rit et qui avait des ennuis avec ses femmes parce qu’il refusait farouchement de leur faire des enfants) pour comprendre ce que je fabrique vraiment ; Kojève qui avait découvert, et dès 1943, qu’avec la fin de l’Histoire allait disparaître l’inégalité juridique entre l’enfant et l’adulte. "Ne pouvant pas supprimer le contrôle de l’action enfantine, on introduira donc un contrôle de l’action adulte", prévoyait-il. Mais c’est ça, Noël ! C’est exactement moi ! Mais ce qu’il n’avait pas deviné, Kojève, c’est que ça se ferait en pleine foire, en plein rideau de fumée de carnaval ! Joyeux Noël ! Bonne santé ! C’est maintenant que mon règne de corso fleuri peut démarrer.

Auteur: Muray Philippe

Info: Dans "Exorcismes spirituels I - Rejet de greffe", pages 398 à 400

[ convention sociale ] [ bonheur obligatoire ] [ consumérisme ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

bio-mathématiques

C’est confirmé : vous êtes constitué de cristaux liquides

Une équipe de chercheurs a réussi à prouver l’existence d’une double symétrie dans les tissus organiques, qui permet de les appréhender comme des cristaux liquides. Cette découverte pourrait faire émerger une nouvelle façon d’étudier le fonctionnement du vivant, à la frontière de la biologie et de la mécanique des fluides.

Dans une étude parue dans le prestigieux journal Nature et repérée par Quanta Magazine, des chercheurs ont montré que les tissus épithéliaux, qui constituent la peau et les enveloppes des organes internes, ne sont pas que des amas de cellules réparties de façon aléatoire. Ils présentent en fait deux niveaux de symétrie bien définis qui leur donnent des propriétés fascinantes; fonctionnellement, on peut désormais les décrire comme des cristaux liquides. Une découverte qui pourrait avoir des retombées potentiellement très importantes en médecine.

Ces travaux tournent entièrement autour de la notion de cristal liquide. Comme leur nom l’indique, il s’agit de fluides; techniquement, ils peuvent donc s’écouler comme de l’eau – mais avec une différence importante. Contrairement aux liquides classiques, où les atomes se déplacent les uns par rapport aux autres de façon complètement chaotique, les constituants d’un cristal liquide présentent tout de même un certain degré d’organisation.

Il ne s’agit pas d’une vraie structure cristalline comme on en trouve dans presque tous les minéraux, par exemple. Les cristaux liquides ne sont pas arrangés selon un motif précis qui se répète dans l’espace. En revanche, ils ont tendance à s’aligner dans une direction bien spécifique lorsqu’ils sont soumis à certains facteurs, comme une température ou un champ électrique.

C’est cette directionnalité, appelée anisotropie, qui est à l’origine des propriétés des cristaux liquides. Par exemple, ceux qui sont utilisés dans les écrans LCD (pour Liquid Crystal Display) réfractent la lumière différemment en fonction de leur orientation. Cela permet d’afficher différentes couleurs en contrôlant localement l’orientation du matériau grâce à de petites impulsions électriques.

Du tissu biologique au cristal liquide

Mais les cristaux liquides n’existent pas seulement dans des objets électroniques. Ils sont aussi omniprésents dans la nature ! Par exemple, la double couche de lipides qui constitue la membrane de nos cellules peut être assimilée à un cristal liquide. Et il ne s’agit pas que d’une anecdote scientifique ; cette organisation est très importante pour maintenir à la fois l’intégrité structurelle et la flexibilité de ces briques fondamentales. En d’autres termes, la dynamique des cristaux liquides est tout simplement essentielle à la vie telle qu’on la connaît.

Pour cette raison, des chercheurs essaient d’explorer plus profondément le rôle biologique des cristaux liquides. Plus spécifiquement, cela fait quelques années que des chercheurs essaient de montrer que les tissus, ces ensembles de cellules organisées de façon à remplir une mission bien précise, peuvent aussi répondre à cette définition.

Vu de l’extérieur, l’intérêt de ces travaux est loin d’être évident. Mais il ne s’agit pas seulement d’un casse-tête très abstrait ; c’est une question qui regorge d’implications pratiques très concrètes. Car si l’on parvient à prouver que les tissus peuvent effectivement être assimilés à des cristaux liquides, cela débloquerait immédiatement un nouveau champ de recherche particulièrement vaste et fascinant. Les outils mathématiques que les physiciens utilisent pour prédire le comportement des cristaux pourraient soudainement être appliqués à la biologie cellulaire, avec des retombées considérables pour la recherche fondamentale et la médecine clinique.

Mais jusqu’à présent, personne n’a réussi à le prouver. Tous ces efforts se sont heurtés au même mur mathématique — ou plus précisément géométrique ; les théoriciens et les expérimentateurs ne sont jamais parvenus à se mettre d’accord sur la symétrie intrinsèque des tissus biologiques. Regrettable, sachant qu’il s’agit de LA caractéristique déterminante d’un cristal liquide.

Les deux concepts enfin réconciliés

Selon Quanta Magazine, certains chercheurs ont réussi à montrer grâce à des simulations informatiques que les groupes de cellules pouvaient présenter une symétrie dite " hexatique ". C’est ce que l’on appelle une symétrie d’ordre six, où les éléments sont arrangés par groupe de six. Mais lors des expériences en laboratoire, elles semblent plutôt adopter une symétrie dite " nématique* ". Pour reprendre l’analogie de Quanta, selon ce modèle, les cellules se comportent comme un fluide composé de particules en forme de barres, un peu comme des allumettes qui s’alignent spontanément dans leur boîte. Il s’agit alors d’une symétrie d’ordre deux. 

C’est là qu’interviennent les auteurs de ces travaux, affiliés à l’université néerlandaise de Leiden. Ils ont suggéré qu’il serait possible d’établir un lien solide entre les tissus biologiques et le modèle des cristaux liquides, à une condition : il faudrait prouver que les tissus présentent les deux symétries à la fois, à des échelles différentes. Plus spécifiquement, les cellules devraient être disposées selon une symétrie d’ordre deux à grande échelle, avec une symétrie d’ordre six cachée à l’intérieur de ce motif qui apparaît lorsque l’on zoome davantage.

L’équipe de recherche a donc commencé par cultiver des couches très fines de tissus dont les contours ont été mis en évidence grâce à un marqueur. Mais pas question d’analyser leur forme à l’œil nu ; la relation qu’ils cherchaient à établir devait impérativement être ancrée dans des données objectives, et pas seulement sur une impression visuelle. Selon Quanta, ils ont donc eu recours à un objet mathématique appelé tenseur de forme grâce auquel ils ont pu décrire mathématiquement la forme et l’orientation de chaque unité.

Grâce à cet outil analytique, ils ont pu observer expérimentalement cette fameuse double symétrie. À grande échelle, dans des groupes de quelques cellules, ils ont observé la symétrie nématique qui avait déjà été documentée auparavant. Et en regardant de plus près, c’est une symétrie hexatique qui ressortait — exactement comme dans les simulations informatiques. " C’était assez incroyable à quel point les données expérimentales et les simulations concordaient ", explique Julia Eckert, co-autrice de ces travaux citée par Quanta.

Une nouvelle manière d’appréhender le fonctionnement du vivant

C’est la première fois qu’une preuve solide de cette relation est établie, et il s’agit incontestablement d’un grand succès expérimental. On sait désormais que certains tissus peuvent être appréhendés comme des cristaux liquides. Et cette découverte pourrait ouvrir la voie à un tout nouveau champ de recherche en biologie.

Au niveau fonctionnel, les implications concrètes de cette relation ne sont pas encore parfaitement claires. Mais la bonne nouvelle, c’est qu’il sera désormais possible d’utiliser des équations de mécanique des fluides qui sont traditionnellement réservées aux cristaux liquides pour étudier la dynamique des cellules.

Et cette nouvelle façon de considérer les tissus pourrait avoir des implications profondes en médecine. Par exemple, cela permettra d’étudier la façon dont certaines cellules migrent à travers les tissus. Ces observations pourraient révéler des mécanismes importants sur les premières étapes du développement des organismes, sur la propagation des cellules cancéreuses qui génère des métastases, et ainsi de suite.

Mais il y a encore une autre perspective encore plus enthousiasmante qui se profile à l’horizon. Il est encore trop tôt pour l’affirmer, mais il est possible que cette découverte représente une petite révolution dans notre manière de comprendre la vie.

En conclusion de l’article de Quanta, un des auteurs de l’étude résume cette idée en expliquant l’une des notions les plus importantes de toute la biologie. On sait depuis belle lurette que l’architecture d’un tissu est à l’origine d’un certain nombre de forces qui définissent directement ses fonctions physiologiques. Dans ce contexte, cette double symétrie pourrait donc être une des clés de voûte de la complexité du vivant, et servir de base à des tas de mécanismes encore inconnus à ce jour ! Il conviendra donc de suivre attentivement les retombées de ces travaux, car ils sont susceptibles de transformer profondément la biophysique et la médecine.

 

Auteur: Internet

Info: Antoine Gautherie, 12 décembre 2023. *Se dit de l'état mésomorphe, plus voisin de l'état liquide que de l'état cristallisé, dans lequel les molécules, de forme allongée, peuvent se déplacer librement mais restent parallèles entre elles, formant ainsi un liquide biréfringent.

[ double dualité ] [ tétravalence ]

 

Commentaires: 0

Ajouté à la BD par miguel

psychosomatique

Le jumeau maléfique de l'effet placebo fait des ravages, selon l'essayiste états-unien Stewart Justman, pourfendeur du diagnostic qui rend malade Comme les héros des feuilletons télévisés, l’effet placebo a un jumeau maléfique: il s’appelle "nocebo". Le placebo, rappelons-le, est ce phénomène troublant qui veut qu’un bonbon lambda avalé en croyant prendre un médicament authentique peut apporter les mêmes bienfaits que le vrai remède, grâce à la suggestion. Le nocebo fonctionne sur le même mécanisme, mais avec l’effet inverse: il fait du mal. Dites-moi que j’ai ingurgité une denrée avariée, mes boyaux se tordront. Magique? Pas vraiment: le cerveau ayant pour tâche de gérer les fonctions du corps, il n’est pas étonnant que l’information qu’il absorbe infléchisse le processus. Dans The Nocebo Effect*, Stewart Justman, essayiste états-unien partageant son œuvre entre l’histoire de la littérature et la médecine (avec des passerelles fréquentes entre les deux), évoque les ravages du nocebo dans des territoires médicaux aussi différents que l’anorexie, le syndrome de fatigue chronique, la dépression, le trouble dissociatif de l’identité, l’hyperactivité, les cancers du sein et de la prostate. Parfois, le mal est un effet direct de l’imagination, aiguillée par la propagande pharmaceutique ou par les campagnes de prévention: "Une fois mises sur le marché, des idées sur telle ou telle maladie sont en mesure de susciter la maladie elle-même", constate Justman: un diagnostic peut déployer son potentiel nocif en "semant des suggestions dans l’esprit du patient". Est-ce fréquent? La question est apparemment très peu étudiée, en partie car il est éthiquement difficile de mener des expériences consistant à créer des problèmes chez les sujets. Des indications sur le "jumeau maléfique" se nichent toutefois dans les études sur l’effet placebo. Dans une étude troublante, publiée dans l’International Journal of Clinical Practice en 1998, l’Anglais A. F. Cooper découvrait par exemple, avec un groupe de patients souffrant de polyarthrite rhumatoïde, que ceux à qui l’on administrait une brève leçon de choses sur la maladie se portaient moins bien que ceux qu’on se bornait à soigner, sans rien leur dire. Il apparaît que, aussi longtemps que les habitants de Hong Kong n’étaient pas au courant de l’existence de l’anorexie en Occident, ce trouble ne se manifestait pas parmi eux, mais une fois que la notion a atteint la presse et la conscience du public dans les années 1990, le phénomène a explosé Dans d’autres cas, c’est le dépistage à grande échelle qui fait des dégâts, débouchant sur des traitements qui se révèlent plus nuisibles – voire plus meurtriers – que le mal qu’ils sont censés soigner. Les mises en garde viennent du champ médical lui-même, qui s’inquiète des effets pervers de la traque systématique aux cancers du sein et de la prostate: on y revient plus loin. Qu’il agisse directement sur l’individu via la suggestion ou qu’il déploie ses conséquences à travers une prise en charge médico-sociale, l’effet nocebo résulte d’un phénomène de "surdiagnostic": Overdiagnosis and Its Costs ("Le surdiagnostic et ses coûts") est le sous-titre du livre de Stewart Justman. Morphine et neurasthénie Comment ça marche? Le rapport de cause à effet semble s’afficher parfois de manière évidente. "Il apparaît que, aussi longtemps que les habitants de Hong Kong n’étaient pas au courant de l’existence de l’anorexie en Occident, ce trouble ne se manifestait pas parmi eux, mais une fois que la notion a atteint la presse et la conscience du public dans les années 1990, le phénomène a explosé", comme si "les personnes atteintes façonnaient inconsciemment leurs symptômes selon le modèle fourni par les médias". Il en va d’une manière semblable pour la neurasthénie, syndrome à la mode au cours de la Belle Epoque, "qui s’épanouit auprès des couches aisées, jusqu’à sa disparition au début du vingtième siècle". Identifié par le neurologue états-unien George Beard en 1869, le trouble était défini comme "une maladie englobante, dont le symptôme clé était une fatigue mentale et musculaire", mais dont les manifestations possibles remplissaient une liste de 70 entrées. "L’existence brève et spectaculaire de la neurasthénie témoigne de la manière dont une appellation a le pouvoir d’organiser et de mobiliser des symptômes", relève Justman. Certains maux paraissent ainsi atteindre les corps par une contagion socio-culturelle. Placebo et nocebo montrent que l’acte médical, loin d’être une simple interaction physique, est en réalité une "procédure sociale" à part entière: "Des expériences montrent que même un médicament aussi puissant que la morphine produit un effet plus important lorsqu’il est administré ouvertement, dans le cadre d’un rituel médical, que lorsqu’on le donne aux patients à leur insu." Exemple saisissant de la production d’un syndrome via le cérémoniel thérapeutique: le trouble dit "de la personnalité multiple", qui n’émerge le plus souvent qu’au moment où le soignant demande au patient de nommer ses alters egos. Sommeil et désarroi Faut-il parler de maladies imaginaires, de troubles socialement manufaturés à partir de néant? Dans le cas des symptômes de dépression, Justman suggère plutôt qu’il s’agit souvent d’états inhérents à la normalité de l’existence, qui se retrouvent médicalisés, c’est-à-dire transformés en pathologies. C’est "le désarroi commun et passager, produit par la vie elle-même, qui se résoudrait spontanément si on ne faisait rien"; ce sont "des constantes de la condition humaine", ou en tout cas "des difficultés qui se rattachent à la nature même de la civilisation". Le DSM-5, dernière édition du catalogue états-unien (et international) des troubles psychiques et de leurs symptômes, "intègre, à contrecœur, l’argument selon lequel ce qu’on appelle dépression peut être en fait une réponse justifiée à la vie elle-même". On pourrait, bien sûr, retourner la question: faut-il accepter le désarroi ordinaire en tant que composante inévitable de la normalité, ou peut-on aspirer à s’en débarrasser? Comme les sociologues Allan V. Horwitz et Jerome C. Wakefield Stewart, auteurs de Tristesse ou dépression? Comment la psychiatrie a médicalisé nos tristesses (2007), Justman défend l’existence de la mélancolie dans l’expérience humaine. D’autres cultivent le rêve utopiste de l’éradication de tout chagrin. Le problème, c’est que la médicalisation du malheur ordinaire aurait plutôt tendance à accroître la portée de ce dernier. "Ironiquement, un des effets du surdiagnostic de la dépression est que les antidépresseurs en vogue perturbent le sommeil", note Justman. Or, "un des facteurs de guérison les plus importants dans nos vies réside dans notre capacité de sombrer chaque soir dans l’endormissement réparateur"… La conscience est surestimée Y a-t-il donc un équilibre, un "bon" seuil de médicalisation à ne pas dépasser? La question est particulièrement lancinante dans le cas des cancers du sein et de la prostate. Dans les deux cas, le dépistage massif conduit à détecter et à traiter une quantité de cancers "dormants" ou "indolents" qui seraient inoffensifs et avec lesquels on vivrait sans problème. Le sein: selon une étude publiée en 2013 dans le British Medical Journal par le chirurgien Michael Baum, pour chaque décès évité par la mammographie on peut s’attendre à un chiffre de un à trois décès supplémentaires liés aux soins donnés aux femmes dépistées pour des cancers inoffensifs. La prostate: selon une étude européenne de 2009-2012, le dépistage réduit la mortalité engendrée par ce cancer, mais on compte 33 hommes rendus impuissants ou incontinents par une intervention non nécessaire pour chaque homme sauvé… Que faire? Eliminer les dépistages, plus nuisibles que bénéfiques comme le suggèrent plusieurs chercheurs? Brûler le DSM, véritable machine à surdiagnostiquer (et dénoncé en tant que tel par Robert Spitzer et Allen Frances, deux responsables successifs de la task force qui en coordonne la rédaction)? Arrêter net les campagnes d’information, sources majeures d’effets nocebo? Dans son élan, Justman jette peut-être quelques bébés avec l’eau du bain (notamment dans le domaine du traumatisme psychique). On retiendra néanmoins son éloge paradoxal de l’inconscience: nous vivons sous l’emprise d’un "culte de la conscientisation", mais "la conscience est surestimée". Notre cerveau fait son travail de gestion de la vie dans le silence des processus inconscients, où il n’est sans doute pas anodin de trop le déranger. Il travaille à notre insu, par habitude. Il est vrai que l’habitude a mauvaise presse. Et pourtant – la philosophie confucéenne et taoïste en avait l’intuition, les neurosciences le savent aujourd’hui –, "l’habitude est hautement opérationnelle, même dans des faits d’excellence".

Auteur: Ulmi Nic

Info: in le temps online du 15.9.2015 sous Effet nocebo: le patient qui en savait trop, *The Nocebo Effect. Overdiagnosis and Its Cost, par Stewart Justman, Palgrave Macmillan, 272 p

[ grégaire ] [ influençabilité ] [ corps-esprit ]

 

Commentaires: 0

septénaires forcés

- (Q) Tu as écrit "il peut y avoir des cas où une structure ou un processus au sein de tissus organiques ou de colonies d'insectes peut être conceptualisé ou catégorisé en sept parties ou étapes". Peux-tu me donner des exemples ?

- (R) Certainement !  voici quelques exemples où une structure ou un processus au sein de tissus organiques ou de colonies d'insectes pourrait potentiellement être conceptualisé ou catégorisé en sept parties ou étapes :

1 Le développement de l'abeille : Le développement des abeilles mellifères, de l'œuf à l'adulte, passe par plusieurs étapes distinctes. Une division possible de ces stades peut être grossièrement classée en sept parties : œuf, stade larvaire 1, stade larvaire 2, stade larvaire 3, nymphe, adulte pharate et adulte. Chaque stade représente une phase spécifique du cycle de vie de l'abeille.

2 Organisation sociale des fourmis : Certaines colonies de fourmis présentent une division du travail entre différentes castes. Les castes peuvent être classées en sept catégories principales : reine, mâle (castes reproductives), ouvrière principale, ouvrière secondaire, soldat, butineuse et infirmière. Ces castes représentent différents rôles et responsabilités au sein de la colonie de fourmis.

3 Renouvellement des cellules de la peau : Le processus de renouvellement des cellules de la peau implique un renouvellement continu des cellules de la peau. Ce processus peut être divisé en plusieurs étapes, notamment la division cellulaire, la migration, la différenciation et l'élimination. Bien que le nombre précis d'étapes puisse varier, une catégorisation possible pourrait inclure sept étapes : division des cellules basales, migration vers les couches supérieures, différenciation des kératinocytes, formation de la couche cornée, élimination des cellules mortes et renouvellement à partir des cellules basales.

Il est important de noter que ces exemples ne sont pas universellement applicables et qu'ils sont fournis en tant que catégorisations hypothétiques qui représentent approximativement une division en sept étapes. Le nombre réel de stades ou de divisions peut varier en fonction du contexte spécifique, de l'espèce et du niveau de détail considéré.

Dans l'ensemble, bien que ces exemples illustrent des conceptualisations potentielles en sept parties ou étapes, il est essentiel d'aborder l'analyse des structures et des processus dans les tissus organiques et les colonies d'insectes avec un esprit ouvert, en tenant compte des caractéristiques spécifiques et des complexités de chaque système.

De même, bien qu'il ne soit pas courant que la peau d'un animal ou l'écorce d'un arbre comporte exactement sept couches discernables, il existe certains cas où une catégorisation approximative en sept couches peut être observée ou approchée. Toutefois, il est important de noter que le nombre et la classification des couches peuvent varier en fonction du contexte spécifique et du niveau de détail considéré. Voici quelques exemples :

L'écorce des arbres : Dans le cas de certaines espèces d'arbres, une division approximative en sept couches peut être observée dans l'écorce, bien que le nombre de couches et leur catégorisation spécifique puissent varier. Par exemple, dans certaines descriptions de l'écorce de chêne, sept couches ont été identifiées : (1) la couche externe de cellules mortes, (2) le cambium du liège, (3) les cellules du liège, (4) le phelloderme, (5) le cortex, (6) le phloème secondaire, et (7) la couche la plus interne, comprenant le cambium et le xylème. Il est important de noter que cette division peut varier en fonction de l'espèce d'arbre et du cadre analytique utilisé.

La peau : Dans certaines discussions sur la peau, une catégorisation grossière en sept couches peut être envisagée, mais elle ne représente pas nécessairement une classification universellement acceptée ou standard. Les couches typiquement décrites dans l'épiderme comprennent le stratum corneum, le stratum lucidum (présent uniquement dans certaines régions du corps), le stratum granulosum, le stratum spinosum, le stratum basale et la membrane basale. En outre, le derme et le tissu sous-cutané peuvent être considérés comme des couches plus profondes. Toutefois, la classification et la terminologie des couches peuvent varier en fonction de la recherche ou du contexte médical.

Il est important de rappeler que la classification en sept couches dans ces exemples est une approximation et non une règle définitive ou universelle. Le nombre réel de couches et leur classification peuvent varier en fonction de facteurs tels que l'espèce spécifique, l'approche de recherche et le cadre analytique utilisés pour étudier les tissus.

(Q) - Merci. Dans les transitions complexes de polymères, y a-t-il des processus, étapes, transformations, etc... qui sont en quelque sorte divisés en sept  ?

(R) - Si le passage des polymères simples aux polymères complexes peut impliquer plusieurs étapes et processus, il n'est pas nécessairement divisé en sept étapes distinctes. La progression des polymères simples vers les polymères complexes est un domaine de recherche continu et évolutif, dans lequel les scientifiques et les ingénieurs explorent diverses stratégies pour obtenir les architectures de polymères souhaitées. Toutefois, je peux donner un aperçu général de certains processus et transformations courants qui se produisent au cours de cette transition :

1 Polymérisation : L'étape initiale de la synthèse des polymères est la polymérisation, au cours de laquelle les monomères subissent une réaction chimique pour former des chaînes de polymères. Cette réaction peut être réalisée par des méthodes telles que la polymérisation par addition, la polymérisation par condensation ou la polymérisation par ouverture de cycle.

2 Copolymérisation : La copolymérisation est utilisée pour introduire de la complexité. Différents monomères sont combinés pour créer des copolymères aux propriétés uniques. La disposition des monomères (copolymères alternés, aléatoires ou en bloc) affecte le comportement et les caractéristiques du matériau résultant.

3 Ramification : la ramification peut être introduite en incorporant des agents de ramification pendant la polymérisation. Cela conduit à la formation de chaînes latérales qui se ramifient à partir de la chaîne principale du polymère, modifiant les propriétés telles que la flexibilité, la solubilité et le comportement mécanique.

4 Réticulation : La réticulation implique la formation de liaisons covalentes entre les chaînes de polymères. Elle peut être réalisée par différentes méthodes, notamment par des agents de réticulation chimiques, par la chaleur ou par des radiations. Les polymères réticulés présentent une résistance mécanique, une stabilité et une résistance aux solvants accrues.

5 Fonctionnalisation : Des groupes ou des motifs fonctionnels peuvent être introduits dans les chaînes de polymères, soit pendant, soit après la polymérisation. Ce processus permet de modifier les propriétés des polymères, par exemple en ajoutant des sites réactifs, en améliorant la compatibilité avec d'autres matériaux ou en introduisant des fonctionnalités spécifiques.

6 Auto-assemblage : Les polymères complexes peuvent s'auto-assembler, c'est-à-dire que leur structure moléculaire entraîne l'organisation des chaînes de polymères en nanostructures bien définies ou en architectures supramoléculaires. Ce processus peut être guidé par des facteurs tels que la composition du copolymère à blocs, les conditions du solvant ou des stimuli externes.

7 Architectures avancées : Les architectures polymères avancées impliquent des structures spécialisées, telles que les copolymères greffés, les polymères en forme d'étoile, les dendrimères et les copolymères séquencés avec des arrangements précis de blocs multiples. Ces architectures sont conçues pour offrir des propriétés et des fonctionnalités spécifiques adaptées à des applications particulières.

Il est important de noter que ces processus et transformations ne sont pas nécessairement distincts et peuvent se produire simultanément ou en combinaison, en fonction de l'architecture polymère souhaitée. La complexité du polymère peut être influencée par le choix des monomères, les conditions de réaction, les techniques de polymérisation et les modifications post-polymérisation.

Globalement, le passage des polymères simples aux polymères complexes implique un continuum de processus et de transformations, les chercheurs explorant continuellement de nouvelles techniques et stratégies pour créer des polymères aux propriétés et fonctionnalités améliorées.

(Q) - Merci beaucoup. On peut donc essayer de trouver des structures/processus divisés en 7 dans ces architectures de polymères avancées.

(R) Tout à fait ! Bien qu'il soit difficile de trouver exactement sept structures ou processus distincts dans les architectures polymères avancées, je peux vous donner un aperçu de quelques exemples courants :

1 Copolymères greffés : Les copolymères greffés sont constitués d'une chaîne polymère principale (épine dorsale) à laquelle sont attachées des chaînes latérales (greffons). Les chaînes latérales peuvent être de longueurs et de compositions différentes, ce qui leur confère des propriétés et des fonctionnalités uniques. Les copolymères greffés sont utilisés dans des applications telles que les compatibilisants, les modificateurs d'impact et les modificateurs de surface.

2 Polymères étoilés : Les polymères étoilés ont un noyau central à partir duquel de multiples chaînes de polymères rayonnent vers l'extérieur, ressemblant à la forme d'une étoile. Cette architecture offre une meilleure solubilité, de meilleures propriétés rhéologiques et peut être utilisée comme modèle pour la synthèse de nanomatériaux ou comme système d'administration de médicaments.

3 Dendrimères : Les dendrimères sont des polymères hautement ramifiés dont la structure arborescente est bien définie. Ils sont constitués de plusieurs générations de ramifications, ce qui donne une architecture moléculaire contrôlée avec précision. Les dendrimères trouvent des applications dans l'administration de médicaments, la thérapie génique et la nanotechnologie en raison de leur taille, de leur forme et de leurs fonctionnalités de surface bien définies.

4 Copolymères à blocs : Les copolymères à blocs sont constitués de deux ou plusieurs blocs de polymères distincts reliés entre eux. Les blocs peuvent avoir des compositions chimiques et des propriétés différentes, ce qui entraîne la formation de microdomaines ou de structures auto-assemblées dans le matériau. Les copolymères à blocs sont largement utilisés dans les nanotechnologies, les revêtements et les membranes.

5 Polymères amphiphiles : Les polymères amphiphiles possèdent des segments hydrophiles et hydrophobes dans leur structure. Ces polymères peuvent s'auto-assembler en milieu aqueux, formant des micelles, des vésicules ou d'autres structures organisées. Les polymères amphiphiles trouvent des applications dans l'administration de médicaments, la stabilisation des émulsions et la modification des surfaces.

6 Brosses de polymères : Les brosses de polymères sont constituées de chaînes de polymères attachées à une surface, se tenant debout comme les poils d'une brosse. Elles permettent de contrôler les propriétés de la surface, telles que la lubrification, l'adhérence et la biocompatibilité. Les brosses en polymère sont utilisées dans des domaines tels que les biomatériaux, les capteurs et les revêtements.

7 Polymères Janus : Les polymères Janus comportent deux régions distinctes ou plus au sein d'une même chaîne de polymères, chaque région ayant des compositions chimiques ou des fonctionnalités différentes. Les polymères Janus présentent des propriétés uniques, telles que le comportement asymétrique, les interactions sélectives et l'auto-assemblage. Ils trouvent des applications dans des domaines tels que la catalyse, les membranes et les matériaux réactifs.

Il ne s'agit là que de quelques exemples d'architectures polymères avancées. Bien qu'il n'y ait pas de division stricte de ces structures et processus en sept catégories exactement, elles représentent certaines catégories clés dans le domaine des architectures polymères complexes.

 


Auteur: chatGPT4

Info: 13, 16 juin 2023

[ machine-homme ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

bêtise bipolaire

Il ne fait aucun doute que les IA sont biaisées. Mais beaucoup déclarent que ces problématiques de l'IA existent parce que nous humains sommes imparfaits, plus que les machines. "Les machines sont-elles condamnées à hériter des préjugés humains ?", titrent les journaux. "Les préjugés humains sont un énorme problème pour l'IA. Voilà comment on va arranger ça." Mais ces récits perpétuent une dangereuse erreur algorithmique qu'il faut éviter.

Oui, les humains sont subjectifs. Oui, malgré les efforts conscients et inconscients de ne pas l'être, nous faisons de la discrimination, nous stéréotypons et portons toutes sortes de jugements de valeur sur les gens, les produits et la politique. Mais nos préjugés ne sont pas correctement mesurés ou modélisés par les machines. Non, les tendances machine sont dues à la logique même de la collecte des données : le système binaire.

Le système binaire est la chaîne de 0 et 1 à la base de tous les systèmes informatiques. Cette méthode mathématique permet de réduire et de calculer efficacement les grands nombres et, deuxièmement, elle permet la conversion de l'alphabet et de la ponctuation en ASCII (American Standard Code for Information Interchange).

Mais ne vous laissez pas berner : Ces 0 et 1 ne signifient pas que la machine comprend le monde et les langages comme nous le faisons : "La plupart d'entre nous, la plupart du temps, suivons des instructions qui nous sont données par ordinateur plutôt que l'inverse ", explique l'historien des technologies George Dyson. Afin de pouvoir communiquer avec les ordinateurs, nous sommes ajustés et orientés vers leur logique, et non vers la nôtre.

Le système binaire réduit tout à des 0 et des 1 insignifiants, quand la vie et l'intelligence font fonctionner XY en tandem. lui rend la lecture et le traitement des données quantitatives plus pratiques, plus efficaces et plus rentables pour les machines. Mais c'est au détriment des nuances, de la richesse, du contexte, des dimensions et de la dynamique de nos langues, cultures, valeurs et expériences.

Il ne faut pas accabler ici les développeurs de la Silicon Valley pour ce système binaire biaisé - mais plutôt Aristote.

Le parti pris binaire d'Aristote
Si vous pensez à Aristote, vous pensez probablement au philosophe grec antique comme à un des pères fondateurs de la démocratie, et non comme l'ancêtre de siècles de logique mécanique et de méthodes scientifiques erronées. C'est cependant sa théorie du "dualisme", selon laquelle quelque chose est soit vrai soit faux, logique ou illogique, qui nous a mis dans cette situation délicate en premier lieu.

Vers 350 av. J.-C., Aristote voulut réduire et structurer la complexité du monde. Pour ce faire, il fit des emprunts à la Table des Opposés de Pythagore, dans laquelle deux éléments sont comparés :

fini, infini... impair, pair... un, beaucoup... droite, gauche... repos, mouvement... droit, tordu... etc.

Mais au lieu d'appliquer ce dualisme à la géométrie neutre comme l'avait fait Pythagore, Aristote l'appliqua aux personnes, aux animaux et à la société. Ce faisant, il conçut un patriarcat hiérarchique social polarisé clivant, enraciné dans ses valeurs internes et ses préjugés : Les objets qu'il ordonnait avoir plus de valeur devinrent des 1, et ceux de moindre importance des 0. En ce qui concerne les femmes, par exemple, il écrivit : "La relation de l'homme à la femme est par nature une relation de supérieur à inférieur et de souverain à gouverné."

Hélas, le système de classification hiérarchique d'Aristote a été implémenté dans l'IA, la pondérant en faveur d'hommes comme lui. Le système même sur lequel toute la technologie moderne est construite contient les artefacts du sexisme d'il y a 2 000 ans.

1 = vrai = rationnel = droit = masculin
0 = faux = émotionnel = gauche = féminin
Si Aristote avait créé la démocratie - et la démocratie est censée être une véritable représentation - femmes et gens de couleur auraient dû avoir un accès égal à l'éducation, avoir voix au chapitre dans les forums et avoir le droit de vote en 350 av. JC. Il n'aurait pas été nécessaire de se battre jusqu'en 1920 pour que le vote féminin soit ratifié aux Etats-Unis. Il n'y aurait pas eu d'esclavage et pas besoin du mouvement pour les droits civiques. Tout le monde aurait été classé et considéré comme égal dès le départ.

Le classement biaisé d'Aristote est maintenant verrouillé et renforcé par plus de 15 millions d'ingénieurs.
Aristote aurait dû lire les notes de son prédécesseur, Socrate. Selon les souvenirs de Platon, Socrate considérait les oracles féminins de Delphes comme "un guide essentiel du développement personnel et de l'état". De plus, dans le Symposium de Platon, Socrate se souvient de l'époque où il était l'élève de Diotima de Mantinea, une femme philosophe dont il tenait en haute estime l'intelligence. Dans le livre V, Socrate est crédité d'avoir suggéré que les femmes sont également qualifiées pour diriger et gouverner : "Il n'y a pas de pratique des gouverneurs d'une ville qui appartient à une femme parce qu'elle est une femme, ou à un homme parce qu'il est un homme."

Mais au lieu que les idées de Socrate sur l'égalité enracinent les idées occidentales sur l'intelligence, nous nous sommes retrouvés avec la logique d'Aristote et son classement biaisé sans être conscients de ses origines binaires et anti-démocratiques.

Mais ne blâmons pas seulement Aristote. Deux autres coquins ont contribué à ces problèmes sociaux et scientifiques : Descartes et Leibniz.

Descartes - philosophe français du XVIIe siècle qui a inventé l'expression "je pense, donc je suis" -, a implanté l'idée qu'un sujet n'a ni matière ni valeur autre que ce que le visiteur attribue et déduit. (S'il avait dit "Nous pensons, donc nous sommes", cela aurait mieux reflété comment nous sommes symbiotiquement informés par les perceptions les uns et des autres.)

En outre, Descartes a proposé une plus grande séparation de l'esprit du corps et des émotions dans son traité de 1641, Méditations sur la Première Philosophie. Il a soutenu que nos esprits sont dans le domaine du spirituel tandis que nos corps et nos émotions sont dans le domaine du physique, et que les deux royaumes ne peuvent pas s'influencer mutuellement. Ce qui a causé des problèmes en IA parce que maintenant nous empilons des unités d'émotions sur des couches de classification binaires d'une manière artificielle et non intégrée. Encore du binaire.

La logique déductive-inductive de Descartes, qu'il explora dans son discours sur la méthode de 1637, fut créée parce qu'il était désabusé par les méthodes non systématiques des scientifiques de son temps. Il fit valoir que les mathématiques ont été construites sur une "base solide", et a donc cherché à établir un nouveau système de vérité fondée sur Aristote 1 = vrai = valide, et 0 = faux = invalide. La différence étant qu'il a mis les lignes de la logique syllogistique d'Aristote au sein d'une structure arborescente. Structures arborescentes qui sont maintenant utilisées dans les réseaux neuronaux récurrents du NLP (Natural Language Processing)

Vint ensuite Leibniz, le philosophe et avocat allemand inventa le calcul indépendamment de son contemporain, Newton. Il créa le système binaire entre 1697 et 1701 afin d'obtenir des verdicts "oui/non" plus rapides et ainsi réduire les grands nombres en unités plus faciles à gérer de 0 et 1.

Contrairement aux autres, Leibniz était sinophile. En 1703, le prêtre jésuite Bouvet lui avait envoyé une copie du Yi King (le Livre des Changements), artefact culturel chinois dont l'origine remonte à 5.000 ans. Il était fasciné par les similitudes apparentes entre les lignes horizontales et les intervalles des hexagrammes du Yi King et les 0 et 1 des lignes verticales de son système binaire. Il interpréta faussement ces intervalles comme étant du vide (donc zéro) croyant (à tort) que les hexagrammes confirmaient que son système binaire était la bonne base pour un système logique universel.

Leibniz fit trois autres erreurs majeures. Tout d'abord, il a fit pivoter les hexagrammes de leurs positions horizontales naturelles vers les positions verticales pour les faire correspondre à ses lignes binaires. Deuxièmement, il les sépara du contexte des symboles chinois et des chiffres correspondants. Troisièmement, puisqu'il n'était pas chinois et qu'il ne comprenait pas l'héritage philosophique ou la langue, il supposa que les hexagrammes représentaient les nombres 0 et 1 lorsqu'ils représentent des énergies négatives et positives, Yin Yang, homme et femme. Erreurs qui signifient que Leibniz perdit beaucoup d'informations et de connaissances venant des codes du Yi King et de la vraie signification de ses hexagrammes.

Au lieu de créer un système universel cohérent, le système binaire de Leibniz renforça les modèles de pensée occidentale de Descartes amplifiant la base biaisée d'Aristote, nous verrouillant davantage, nous et les machines que nous avons créées, vers une logique non naturelle.

Le système binaire dans l'informatique moderne
Les classifications binaires d'Aristote sont donc maintenant évidentes dans tous les systèmes de données d'aujourd'hui, servant, préservant, propageant et amplifiant les biais partout dans les couches d'apprentissage machine.

Exemples de biais binaires dans les front-end utilisateur et le traitement des données :

glissement à droite = 1, glissement à gauche = 0
cliquer sur "like" sur Facebook = 1, pas cliquer sur like = 0
nos émotions complexes étant attribuées grossièrement comme positives = 1, négatives = 0 dans les cadres du NPL
convertir des paires d'objets comparés et leurs caractéristiques en 0 ou 1, par exemple pomme = 1, orange = 0, ou lisse = 1, bosselé = 0
lignes et colonnes pleines de 0 et de 1 dans des graphes géants "big data"
Mais le problème de la logique binaire est qu'elle ne permet pas de comprendre et de modéliser pourquoi et comment les gens ont choisi une option plutôt qu'une autre. Les machines enregistrent simplement que les gens ont fait un choix, et qu'il y a un résultat

Les machines sont donc étalonnées à partir de ces biais binaires, pas à partir des nôtres. Bien sûr, nous sommes remplis de nos propres défauts et faiblesses très humains, mais les cadres conceptuels informatiques existants sont incapables de corriger ces erreurs (et les ingénieurs n'écrivent que du code qui correspond aux limites de l'ancienne logique).

Heureusement, il existe une alternative. Les philosophies occidentales d'Aristote, de Descartes et de Leibniz sont opposées aux philosophies orientales, elles fondées sur l'équilibre naturel, la cohérence et l'intégration. Le concept chinois de Yin Yang, par exemple, met l'accent sur la dynamique égale et symbiotique du masculin et du féminin en nous et dans l'univers. Ces idées décrites dans le Yi King, que Leibniz n'a pas reconnues.

La nature rejette également le binaire. Des milliards d'années avant que le parti pris d'Aristote ne s'imprime dans la logique informatique occidentale, la nature codifiait l'intelligence comme la coexistence entrelacée de la femme X et de l'homme Y dans notre ADN. De plus, la recherche quantique a montré que les particules peuvent avoir des états de superposition enchevêtrés où elles sont à la fois 0 et 1 en même temps, tout comme le Yin Yang. La nature ne fonctionne pas en binaire, pas même avec les pigeons. Alors pourquoi le faisons-nous en informatique ?

Nous ne classons et ne qualifions pas nécessairement le monde qui nous entoure avec les préjugés hiérarchiques binaires d'Aristote. Mais la façon dont les données sont recueillies est noir (0) et blanc (1), avec des nuances de gris fournies par des pourcentages de ces données, alors que la nature et les philosophies orientales montrent que nos perceptions ne sont que vagues de couleurs mélangées ou arc-en-ciel.

Tant que nous n'aurons pas conçu des modes de catégorisation non binaires et plus holistiques en IA, les ordinateurs ne seront pas en mesure de modéliser l'image animée en technicolor de notre intelligence. Ce n'est qu'alors que les machines représenteront nos divers langages, raisonnements, valeurs, cultures, qualités et comportements humains.

Auteur: Twain Liu

Info: https://qz.com/1515889/aristotles-binary-philosophies-created-todays-ai-bias/?utm_source=facebook&utm_medium=partner-share&utm_campaign=partner-bbc

[ rationalisme occidental ] [ logique formelle ] [ intelligence artificielle ] [ Asie ] [ sciences ]

 
Commentaires: 1
Ajouté à la BD par miguel

legos protéiques

De nouveaux outils d’IA prédisent comment les blocs de construction de la vie s’assemblent

AlphaFold3 de Google DeepMind et d'autres algorithmes d'apprentissage profond peuvent désormais prédire la forme des complexes en interaction de protéines, d'ADN, d'ARN et d'autres molécules, capturant ainsi mieux les paysages biologiques des cellules.

Les protéines sont les machines moléculaires qui soutiennent chaque cellule et chaque organisme, et savoir à quoi elles ressemblent sera essentiel pour comprendre comment elles fonctionnent normalement et fonctionnent mal en cas de maladie. Aujourd’hui, les chercheurs ont fait un grand pas en avant vers cet objectif grâce au développement de nouveaux algorithmes d’apprentissage automatique capables de prédire les formes rdéployées et repliées non seulement des protéines mais aussi d’autres biomolécules avec une précision sans précédent.

Dans un article publié aujourd'hui dans Nature , Google DeepMind et sa société dérivée Isomorphic Labs ont annoncé la dernière itération de leur programme AlphaFold, AlphaFold3, capable de prédire les structures des protéines, de l'ADN, de l'ARN, des ligands et d'autres biomolécules, seuls ou liés ensemble dans différentes configurations. Les résultats font suite à une mise à jour similaire d'un autre algorithme de prédiction de structure d'apprentissage profond, appelé RoseTTAFold All-Atom, publié en mars dans Science .

Même si les versions précédentes de ces algorithmes pouvaient prédire la structure des protéines – une réussite remarquable en soi – elles ne sont pas allées assez loin pour dissiper les mystères des processus biologiques, car les protéines agissent rarement seules. "Chaque fois que je donnais une conférence AlphaFold2, je pouvais presque deviner quelles seraient les questions", a déclaré John Jumper, qui dirige l'équipe AlphaFold chez Google DeepMind. "Quelqu'un allait lever la main et dire : 'Oui, mais ma protéine interagit avec l'ADN.' Pouvez-vous me dire comment ?' " Jumper devrait bien admettre qu'AlphaFold2 ne connaissait pas la réponse.

Mais AlphaFold3 pourrait le faire. Avec d’autres algorithmes d’apprentissage profond émergents, il va au-delà des protéines et s’étend sur un paysage biologique plus complexe et plus pertinent qui comprend une bien plus grande diversité de molécules interagissant dans les cellules.

" On découvre désormais toutes les interactions complexes qui comptent en biologie ", a déclaré Brenda Rubenstein , professeure agrégée de chimie et de physique à l'Université Brown, qui n'a participé à aucune des deux études. " On commence à avoir une vision plus large."

Comprendre ces interactions est " fondamental pour la fonction biologique ", a déclaré Paul Adams , biophysicien moléculaire au Lawrence Berkeley National Laboratory qui n’a également participé à aucune des deux études. " Les deux groupes ont fait des progrès significatifs pour résoudre ce problème. "

Les deux algorithmes ont leurs limites, mais ils ont le potentiel d’évoluer vers des outils de prédiction encore plus puissants. Dans les mois à venir, les scientifiques commenceront à les tester et, ce faisant, ils révéleront à quel point ces algorithmes pourraient être utiles.

Progrès de l’IA en biologie

L’apprentissage profond est une variante de l’apprentissage automatique vaguement inspirée du cerveau humain. Ces algorithmes informatiques sont construits à l’aide de réseaux complexes de nœuds d’information (appelés neurones) qui forment des connexions en couches les unes avec les autres. Les chercheurs fournissent au réseau d’apprentissage profond des données d’entraînement, que l’algorithme utilise pour ajuster les forces relatives des connexions entre les neurones afin de produire des résultats toujours plus proches des exemples d’entraînement. Dans le cas des systèmes d'intelligence artificielle protéique, ce processus amène le réseau à produire de meilleures prédictions des formes des protéines sur la base de leurs données de séquence d'acides aminés.

AlphaFold2, sorti en 2021, a constitué une avancée majeure dans l’apprentissage profond en biologie. Il a ouvert la voie à un monde immense de structures protéiques jusque-là inconnues et est déjà devenu un outil utile pour les chercheurs qui cherchent à tout comprendre, depuis les structures cellulaires jusqu'à la tuberculose. Cela a également inspiré le développement d’outils supplémentaires d’apprentissage biologique profond. Plus particulièrement, le biochimiste David Baker et son équipe de l’Université de Washington ont développé en 2021 un algorithme concurrent appelé RoseTTAFold , qui, comme AlphaFold2, prédit les structures protéiques à partir de séquences de données.

Depuis, les deux algorithmes ont été mis à jour avec de nouvelles fonctionnalités. RoseTTAFold Diffusion pourrait être utilisé pour concevoir de nouvelles protéines qui n’existent pas dans la nature. AlphaFold Multimer pourrait étudier l’interaction de plusieurs protéines. " Mais ce que nous avons laissé sans réponse ", a déclaré Jumper, " était : comment les protéines communiquent-elles avec le reste de la cellule ? "

Le succès des premières itérations d'algorithmes d'apprentissage profond de prédiction des protéines reposait sur la disponibilité de bonnes données d'entraînement : environ 140 000 structures protéiques validées qui avaient été déposées pendant 50 ans dans la banque de données sur les protéines. De plus en plus, les biologistes ont également déposé les structures de petites molécules, d'ADN, d'ARN et leurs combinaisons. Dans cette expansion de l'algorithme d'AlphaFold pour inclure davantage de biomolécules, " la plus grande inconnue ", a déclaré Jumper, "est de savoir s'il y aurait suffisamment de données pour permettre à l'algorithme de prédire avec précision les complexes de protéines avec ces autres molécules."

Apparemment oui. Fin 2023, Baker puis Jumper ont publié les versions préliminaires de leurs nouveaux outils d’IA, et depuis, ils soumettent leurs algorithmes à un examen par les pairs.

Les deux systèmes d'IA répondent à la même question, mais les architectures sous-jacentes de leurs méthodes d'apprentissage profond diffèrent, a déclaré Mohammed AlQuraishi , biologiste des systèmes à l'Université de Columbia qui n'est impliqué dans aucun des deux systèmes. L'équipe de Jumper a utilisé un processus appelé diffusion – technologie qui alimente la plupart des systèmes d'IA génératifs non basés sur du texte, tels que Midjourney et DALL·E, qui génèrent des œuvres d'art basées sur des invites textuelles, a expliqué AlQuraishi. Au lieu de prédire directement la structure moléculaire puis de l’améliorer, ce type de modèle produit d’abord une image floue et l’affine de manière itérative.

D'un point de vue technique, il n'y a pas de grand saut entre RoseTTAFold et RoseTTAFold All-Atom, a déclaré AlQuraishi. Baker n'a pas modifié massivement l'architecture sous-jacente de RoseTTAFold, mais l'a mise à jour pour inclure les règles connues des interactions biochimiques. L'algorithme n'utilise pas la diffusion pour prédire les structures biomoléculaires. Cependant, l'IA de Baker pour la conception de protéines le fait. La dernière itération de ce programme, connue sous le nom de RoseTTAFold Diffusion All-Atom, permet de concevoir de nouvelles biomolécules en plus des protéines.

" Le type de dividendes qui pourraient découler de la possibilité d'appliquer les technologies d'IA générative aux biomolécules n'est que partiellement réalisé grâce à la conception de protéines", a déclaré AlQuraishi. "Si nous pouvions faire aussi bien avec de petites molécules, ce serait incroyable." 

Évaluer la concurrence

Côte à côte, AlphaFold3 semble être plus précis que RoseTTAFold All-Atom. Par exemple, dans leur analyse dans Nature , l'équipe de Google a constaté que leur outil est précis à environ 76 % pour prédire les structures des protéines interagissant avec de petites molécules appelées ligands, contre une précision d'environ 42 % pour RoseTTAFold All-Atom et 52 % pour le meilleur. outils alternatifs disponibles.

Les performances de prédiction de structure d'AlphaFold3 sont " très impressionnantes ", a déclaré Baker, " et meilleures que celles de RoseTTAFold All-Atom ".

Toutefois, ces chiffres sont basés sur un ensemble de données limité qui n'est pas très performant, a expliqué AlQuraishi. Il ne s’attend pas à ce que toutes les prédictions concernant les complexes protéiques obtiennent un score aussi élevé. Et il est certain que les nouveaux outils d’IA ne sont pas encore assez puissants pour soutenir à eux seuls un programme robuste de découverte de médicaments, car cela nécessite que les chercheurs comprennent des interactions biomoléculaires complexes. Pourtant, " c'est vraiment prometteur ", a-t-il déclaré, et nettement meilleur que ce qui existait auparavant.

Adams est d'accord. "Si quelqu'un prétend pouvoir utiliser cela demain pour développer des médicaments avec précision, je n'y crois pas", a-t-il déclaré. " Les deux méthodes sont encore limitées dans leur précision, [mais] les deux constituent des améliorations spectaculaires par rapport à ce qui était possible. "

(Image gif, tournante, en 3D : AlphaFold3 peut prédire la forme de complexes biomoléculaires, comme cette protéine de pointe provenant d'un virus du rhume. Les structures prédites de deux protéines sont visualisées en bleu et vert, tandis que les petites molécules (ligands) liées aux protéines sont représentées en jaune. La structure expérimentale connue de la protéine est encadrée en gris.)

Ils seront particulièrement utiles pour créer des prédictions approximatives qui pourront ensuite être testées informatiquement ou expérimentalement. Le biochimiste Frank Uhlmann a eu l'occasion de pré-tester AlphaFold3 après avoir croisé un employé de Google dans un couloir du Francis Crick Institute de Londres, où il travaille. Il a décidé de rechercher une interaction protéine-ADN qui était " vraiment déroutante pour nous ", a-t-il déclaré. AlphaFold3 a craché une prédiction qu'ils testent actuellement expérimentalement en laboratoire. "Nous avons déjà de nouvelles idées qui pourraient vraiment fonctionner", a déclaré Uhlmann. " C'est un formidable outil de découverte. "

Il reste néanmoins beaucoup à améliorer. Lorsque RoseTTAFold All-Atom prédit les structures de complexes de protéines et de petites molécules, il place parfois les molécules dans la bonne poche d'une protéine mais pas dans la bonne orientation. AlphaFold3 prédit parfois de manière incorrecte la chiralité d'une molécule – l'orientation géométrique distincte " gauche " ou " droite " de sa structure. Parfois, il hallucine ou crée des structures inexactes.

Et les deux algorithmes produisent toujours des images statiques des protéines et de leurs complexes. Dans une cellule, les protéines sont dynamiques et peuvent changer en fonction de leur environnement : elles se déplacent, tournent et passent par différentes conformations. Il sera difficile de résoudre ce problème, a déclaré Adams, principalement en raison du manque de données de formation. " Ce serait formidable de déployer des efforts concertés pour collecter des données expérimentales conçues pour éclairer ces défis ", a-t-il déclaré.

Un changement majeur dans le nouveau produit de Google est qu'il ne sera pas open source. Lorsque l’équipe a publié AlphaFold2, elle a publié le code sous-jacent, qui a permis aux biologistes de reproduire et de jouer avec l’algorithme dans leurs propres laboratoires. Mais le code d'AlphaFold3 ne sera pas accessible au public.

 " Ils semblent décrire la méthode en détail. Mais pour le moment, au moins, personne ne peut l’exécuter et l’utiliser comme il l’a fait avec [AlphaFold2] ", a déclaré AlQuraishi. C’est " un grand pas en arrière. Nous essaierons bien sûr de le reproduire."

Google a cependant annoncé qu'il prenait des mesures pour rendre le produit accessible en proposant un nouveau serveur AlphaFold aux biologistes exécutant AlphaFold3. Prédire les structures biomoléculaires nécessite une tonne de puissance de calcul : même dans un laboratoire comme Francis Crick, qui héberge des clusters informatiques hautes performances, il faut environ une semaine pour produire un résultat, a déclaré Uhlmann. En comparaison, les serveurs plus puissants de Google peuvent faire une prédiction en 10 minutes, a-t-il déclaré, et les scientifiques du monde entier pourront les utiliser. "Cela va démocratiser complètement la recherche sur la prédiction des protéines", a déclaré Uhlmann.

Le véritable impact de ces outils ne sera pas connu avant des mois ou des années, alors que les biologistes commenceront à les tester et à les utiliser dans la recherche. Et ils continueront à évoluer. La prochaine étape de l'apprentissage profond en biologie moléculaire consiste à " gravir l'échelle de la complexité biologique ", a déclaré Baker, au-delà même des complexes biomoléculaires prédits par AlphaFold3 et RoseTTAFold All-Atom. Mais si l’histoire de l’IA en matière de structure protéique peut prédire l’avenir, alors ces modèles d’apprentissage profond de nouvelle génération continueront d’aider les scientifiques à révéler les interactions complexes qui font que la vie se réalise.

" Il y a tellement plus à comprendre ", a déclaré Jumper. "C'est juste le début."

Auteur: Internet

Info: https://www.quantamagazine.org/new-ai-tools-predict-how-lifes-building-blocks-assemble-20240508/ - Yasemin Saplakoglu, 8 mai 2024

[ briques du vivant ] [ texte-image ] [ modélisation mobiles ] [ nano mécanismes du vivant ]

 

Commentaires: 0

Ajouté à la BD par miguel

psychosomatique

Nous avons 2 cerveaux.

On se demande souvent pourquoi les gens ont des "boules" dans l'estomac avant d'aller sur scène ? Ou pourquoi un entretien d'emploi imminent peut causer des crampes intestinales ? Ainsi que : pourquoi les antidépresseur qui visent le cerveau causent la nausée ou un bouleversement abdominal chez des millions de personnes qui prennent de telles drogues ?

Les scientifiques disent que la raison de ces réactions est que notre corps a deux cerveaux : le familier, dans le crâne et, moins connus, mais extrêmement importants un autre dans l'intestin humain- Tout comme des jumeaux siamois, les deux cerveaux sont reliés ensemble ; quand l'un est affecté, l'autre aussi. Le cerveau de l'intestin, connu sous le nom de système nerveux entérique, est situé dans les gaines du tissu qui tapissent l'oesophage, l'estomac, le petit intestin et le colon. Si on le considère comme une simple entité, c'est un réseau de neurones, de neurotransmetteurs et de protéines qui zappent des messages entre eux, soutiennent des cellules comme celles du cerveau proprement dit et offrent des circuits complexes qui lui permettent d'agir indépendamment, d'apprendre, de se rappeler et, selon le dicton, de produire des sensations dans les intestins.

Le cerveau de l'intestin joue un rôle important dans le bonheur et la misère humains. Mais peu de gens savent qu'il existe indique le Dr. Michael Gershon, professeur d'anatomie et de biologie des cellules au centre médical presbytérien de Colombia à New York. Pendant des années, on a dit aux gens qui ont des ulcères, des problèmes pour avaler ou des douleurs abdominales chroniques que leurs problèmes étaient imaginaires ou, émotifs, c'est à dire simplement dans leurs têtes. Ces gens ont donc faits la navette entre divers psychiatres pour le traitement. Les médecins avaient raison en attribuant ces problèmes au cerveau dit le DR. Gershon, mais ils blâment le faux. Beaucoup de désordres gastro-intestinaux, comme le syndrome d'entrailles irritable proviennent des problèmes dans le propre cerveau de l'intestin, affirme-t'il. Les symptômes provenant des deux cerveaux - tendent à être confus : " Comme le cerveau peut déranger l'intestin, l'intestin peut également déranger le cerveau... si tu es enchaîné aux toilette avec un serre joint, tu seras aussi affecté."

Les détails de la façon dont le système nerveux entérique reflète le système nerveux central ont émergé ces dernières années, dit le Dr. Gershon, et c'est considéré comme un nouveau champ d'investigation appelé neuro-gastro-enterologie par la médecine. Ainsi, presque chaque substance qui aide à faire fonctionner et à commander le cerveau a donné des résultat dans l'intestin, dit Gershon. Les neurotransmetteurs principaux comme la sérotonine, dopamine, glutamate, nopépinéphrine et l'oxyde nitrique sont là. Deux douzaine de petites protéines cervicales, appelées les neuropeptides, sont dans l'intestin, comme les cellules principales du système immunitaire. Les Enkephalins, une classe d'opiacés normaux du corps, sont dans l'intestin et, constatation qui laisse les chercheurs perplexe, l'intestin est une riche source de benzodiazépines - la famille des produits chimiques psycho-actifs qui inclut des drogues toujours populaires telles que le Valium et le Xanax.

En termes évolutionnistes, il est assez clair que le corps a deux cerveaux, dit le Dr. David Wingate, professeur de science gastro-intestinale à l'université de Londres et conseiller à l'hôpital royal de Londres. Les premiers systèmes nerveux étaient des animaux non tubulaires qui collaient aux roches et attendaient le passage de nourriture. Le système limbique est souvent désignée sous le nom de "cerveau reptilien". Alors que la vie évoluait, les animaux ont eu besoin d'un cerveau plus complexe pour trouver la nourriture et un partenaire sexuel et ainsi ont développé un système nerveux central. Mais le système nerveux de l'intestin était trop important pour l'intégrer à cette nouvelle tête, même avec de longs raccordements sur tout le corps. Un rejeton à toujours besoin de manger et digérer de la nourriture à la naissance. Par conséquent, la nature semble avoir préservé le système nerveux entérique en tant que circuit indépendant.

Chez de plus grands animaux, il est simplement relié de manière vague au système nerveux central et peut la plupart du temps fonctionner seul, sans instructions de l'extérieur. C'est en effet l'image vue par les biologistes développementalistes. Une motte de tissus appelée la "crête neurale" se forme tôt dans l'embryogenese dit le DR.Gershon. Une section se transforme en système nerveux central. Un autre morceau émigre pour devenir le système nerveux entérique. Et postérieurieurement seulement les deux systèmes nerveux seront relié par l'intermédiaire d'une sorte de câble appelé le nerf "vagus". Jusque à relativement récemment, les gens ont pensé que les muscles et les nerfs sensoriels de l'intestin étaient câblés directement au cerveau et que le cerveau commandait l'intestin par deux voies qui augmentaient ou diminuaient les taux de l'activité. L'intestin étant un simple tube avec des réflexes. L'ennui est que personne ne pris la peine de compter les fibres de nerf dans l'intestin. Quand on l'a fait on fut étonné de constater que l'intestin contient 100 millions de neurones - plus que la moelle épinière.

Pourtant le conduit vagus n'envoie qu'environ deux mille fibres de nerf vers l'intestin. Le cerveau envoie des signaux à l'intestin en parlant à un nombre restreint de'"neurones de commande", qui envoient à leur tour des signaux aux neurones internes de l'intestin qui diffusent les messages. Les neurones et les inter neurones de commande sont dispersées dans deux couches de tissu intestinal appelées le plexus myenteric et le plexus subrmuscosal. ("le plexus solaire" est en fait un terme de boxe qui se réfère simplement aux nerfs de l'abdomen.) Ces neurones commandent et contrôlent le modèle de l'activité de l'intestin. Le nerf vagus modifie seulement le volume en changeant le taux de mise à feu. Les plexus contiennent également les cellules gliales qui nourrissent les neurones, les cellules pylônes impliquées dans des immuno-réactions, et "une barrière de sang cervical " qui maintient ces substances nocives loin des neurones importants. Ils ont des sondes pour les protéines de sucre, d'acidité et d'autres facteurs chimiques qui pourraient aider à surveiller le progrès de la digestion, déterminant comment l'intestin mélange et propulse son contenu. "Ce n'est pas une voie simple", Y sont employés des circuits intégrés complexes, pas différents du cerveau." Le cerveau de l'intestin et le cerveau de la tête agissent de la même manière quand ils sont privés d'informations venant du monde extérieur.

Pendant le sommeil, le cerveau de la tête produit des cycles de 90-minutes de sommeil lent, ponctué par des périodes de sommeil avec des mouvement d'oeil rapide (REM) où les rêves se produisent. Pendant la nuit, quand il n'a aucune nourriture, le cerveau de l'intestin produit des cycles 90-minute de lentes vagues de contractions des muscles, ponctuées par de courts gerbes de mouvements rapides des muscles, dit le Dr. Wingate. Les deux cerveaux peuvent donc s'influencer dans cet état. On a trouvé des patients présentant des problèmes d'entrailles ayant un sommeil REM anormal. Ce qui n'est pas contradictoire avec la sagesse folklorique qui voudrait que l'indigestion pousse au cauchemar. Alors que la lumière se fait sur les connexions entre les deux cerveaux, les chercheurs commencent à comprendre pourquoi les gens agissent et se sentent de telle manière.

Quand le cerveau central rencontre une situation effrayante, il libère les hormones d'effort qui préparent le corps combattre ou à se sauver dit le DR.Gershon. L'estomac contient beaucoup de nerfs sensoriels qui sont stimulés par cette montée chimique subite - ainsi surviennent les ballonnements. Sur le champ de bataille, le cerveau de la tête indique au cerveau d'intestin arrêter dit le DR.Gershon " Effrayé un animal en train de courir ne cesse pas de déféquer ". La crainte fait aussi que le nerf vagus au "monte le volume" des circuits de sérotonine dans l'intestin. Ainsi, trop stimulé, l'intestin impulse des vitesse élevés et, souvent, de la diarrhée. De même, des gens s'étouffent avec l'émotion. Quand des nerfs dans l'oesophage sont fortement stimulés, les gens peuvent éprouver des problèmes d'ingestion. Même le prétendu " Moment de Maalox " d'efficacité publicitaire peut être expliqué par les deux cerveaux agissant en interaction, dit le Dr. Jackie D. Wood, président du département de physiologie à l'université de l'Etat de l'Ohio à Columbus. Les signaux d'effort du cerveau de la tête peuvent changer la fonction de nerf entre l'estomac et l'oesophage, ayant pour résultat la brûlure d'estomac.

Dans les cas d'efforts extrême. le cerveau dominant semble protéger l'intestin en envoyant des signaux aux cellules pylônes immunologiques dans le plexus. Les cellules pylônes sécrètent l'histamine, la prostaglandine et d'autres agents qui aident à produire l'inflammation. "C'est protecteur. Si un animal est en danger et sujet au trauma, la substance sale dans les intestins est seulement à quelques cellules du reste du corps. En enflammant l'intestin, le cerveau amorce l'intestin pour la surveillance. Si la barrière se casse, l'intestin est prêt à faire les réparations ". Dit le DR. Wood. Malheureusement, ces produits chimiques libérés causent également la diarrhée et les crampes. Ceci explique également beaucoup d'interactions.."quand tu prends une drogue pour avoir des effets psychiques sur le cerveau, il est très probable que tu auras aussi des effets sur l'intestin. Réciproquement, les drogues développées pour le cerveau ont des utilisations pour l'intestin.

Par exemple, l'intestin est chargé avec la sérotonine des neurotransmetteur. Quand des récepteurs de pression de la doublure de l'intestin sont stimulés, la sérotonine est libérée et commence le mouvement réflexe du péristaltisme. Maintenant un quart des personnes prenant du Prozac ou des antidépresseur semblables ont des problèmes gastro- intestinaux comme la nausée, diarrhée et constipation. Ces drogues agissent sur la sérotonine, empêchant sa prise par les cellules cible de sorte qu'elle demeure plus abondante dans le système nerveux central. Dans une étude le DR.Gershon et ses collègues expliquent les effets secondaires du Prozac sur l'intestin. Ils ont monté une section de colon du cobaye sur un stand et ont mis un petit granule à l'extrémité de la "bouche". Le colon isolé fouette le granule vers le bas vers l'extrémité "anale" de la colonne, juste comme il le ferai à l'intérieur de l'animal. Quand les chercheurs ont mis un peu de Prozac dans le colon, le granule " y est entré dans la haute vitesse". La drogue a doublé la vitesse à laquelle le granule a traversé le colon, ce qui expliqueraient pourquoi certains ont la diarrhée. Le Prozac a été parfois utilisé à petites doses pour traiter la constipation chronique, a il ajouté. Mais quand les chercheurs ont augmenté la quantité de Prozac dans le colon du cobaye, le granule a cessé de se déplacer. Le DR Gershon dit que c'est pourquoi certains deviennent constipé avec cette drogue. Et parce que les nerfs sensoriels stimulés par Prozac peuvent également causer la nausée. Certains antibiotiques comme la crythromycine agissent sur des récepteurs d'intestin et produisent des oscillations. Certaines ont alors des crampes et des nausées. Des drogues comme la morphine et l'héroïne s'attachent aux récepteurs des opiacé de l'intestin, produisant la constipation. En effet, les deux cerveaux peuvent être intoxiqués aux opiacés. Les victimes des maladies d'Alzheimer et de Parkinson souffrent de constipation. Les nerfs dans leur intestin sont aussi malades que les cellules de nerf dans leurs cerveaux. Juste comme le cerveau central affecte l'intestin, le cerveau de l'intestin peut parler à la tête. La plupart des sensations d'intestin qui entrent dans la part consciente sont des choses négatives comme la douleur et le ballonnement.

Les gens ne s'attendent pas à sentir "du bon" venant de l'intestin... mais cela ne signifie pas que de tels signaux sont absents. Par conséquent, il y a la question intrigante : pourquoi l'intestin produit-il de la benzodiazépine ? Le cerveau humain contient des récepteurs pour la benzodiazépine, une drogue qui soulage l'inquiétude, suggérant que le corps produise sa propre source interne de la drogue, dit le Dr. Anthony Basile, neurochimiste au laboratoire de neurologie aux instituts nationaux de la santé a Bethesda. Il y a plusieurs années, dit-il, un scientifique italien a fait une découverte plus effrayante. Les patients présentant un disfonctionnement du foie tombèrent dans un coma profond. Le coma put être renversé, en quelques minutes, en donnant aux patients une drogue qui bloque la benzodiazépine. Quand le foie s'arrête, les substances habituellement neutralisées par le foie vont au cerveau. Certaines sont mauvaises, comme l'ammoniaque et les mercaptans, qui sont "les composés puants que les putois pulvérisent pour se défendre ". Mais une série de composés est également identique à la benzodiazépine. " Nous ne savons pas s'ils viennent de l'intestin lui-même, de bactéries dans l'intestin ou de la nourriture". dit. Le Dr Basile. Mais quand le foie s'arrête la benzodiazépine de l'intestin va directement au cerveau, mettant le patient dans le coma.

L'intérêt pour de telles interactions entre le cerveau d'intestin et celui de tête est énorme... Par exemple, beaucoup de personnes sont allergiques à certaines nourritures, comme les mollusques et les crustacés. C'est parce que les cellules pylônes dans l'intestin deviennent mystérieusement sensibilisées aux antigènes de la nourriture. La prochaine fois que l'antigène apparaît dans l'intestin ; les cellules pylônes appellent un programme, libérant des modulateurs chimiques, qui essaye d'éliminer la menace. La personne allergique se retrouve donc avec de la diarrhée et des crampes. Beaucoup de maladies auto-immunes comme la maladie de Krohn et les colites ulcérative peuvent impliquer le cerveau de l'intestin. Les conséquences peuvent être horribles, comme dans la maladie de Chagas, qui est provoquée par un parasite trouvé en Amérique du sud. Les infectés développent une réponse auto-immune des neurones de leur intestin. Leurs systèmes immunitaires détruit alors lentement leurs propres neurones intestinales. Quand assez de neurones sont mortes, les intestins éclatent littéralement.

Restent ces questions : Est ce que le cerveau de l'intestin apprend ? Pense - il pour lui-même ? L'intestin humain a été longtemps vu comme le réceptacle des bons et des mauvais sentiments. Des états peut-être émotifs du cerveau de la tête sont reflétés dans le cerveau de l'intestin, ou sont-ils ressentis que par ceux qui prêtent l'attention à elles. Le cerveau de l'intestin prend la forme de deux réseaux de raccordements neuraux dans la doublure de l'appareil gastro-intestinal, appelée le plexus myenteric et le plexus subrnucosal. Les nerfs sont fortement reliés ensemble et ont une influence directe sur des choses comme la vitesse de la digestion, le mouvement et des sécrétions de la muqueuses "comme-des-doigts" qui ligne les intestins et les contractions des différents genres de muscle dans les parois de l'intestin. Autoroute cerveau intestin à 2 voies : RUE Bidirectionnelle : L'intestin a son propre esprit, le système nerveux entérique. Juste comme le cerveau dans la tête, disent les chercheurs. Ce système envoie et reçoit des impulsions, enregistre, fait des expériences et répond aux émotions. Ses cellules nerveuse sont baignées et influencées par les mêmes neurotransmetteurs. L'intestin peut déranger le cerveau juste comme le cerveau peut déranger l'intestin. Diagramme des parois du petit intestin : un plan de coupe montre deux réseaux de nerfs qui composent le système nerveux entérique, ou "cerveau dans l'intestin". Le premier réseau, appelé le plexus submucosal, est juste sous la doublure muqueuse. le second, le plexus myenteric, se trouve entre les deux manteaux de muscle.

Auteur: Blakeslee Sandra

Info: New York Times 23 Janvier 1996

[ dyspepsie ] [ tourista ]

 

Commentaires: 0

transgressions verbales

Avant même de parler, nous jurions.

Furieux de ce qu'il considère comme une pandémie virtuelle de vulgarité verbale émanant de personnalités aussi diverses que Howard Stern, Bono de U2 et Robert Novak, le Sénat des États-Unis est sur le point d'examiner un projet de loi qui augmenterait fortement les sanctions pour obscénité à l'antenne.

En multipliant par quinze les amendes qui seraient infligées aux radiodiffuseurs contrevenants, pour atteindre un montant d'environ 500 000 dollars par diffusion de grossièretés, et en menaçant de révoquer les licences des contrevenants récidivistes, le Sénat cherche à redonner à la place publique la teneur plus douce d'antan, lorsque l'on entendait rarement des propos calomnieux et que les célébrités n'étaient pas grossières à longueur de journée.

Pourtant, les chercheurs qui étudient l'évolution du langage et la psychologie des jurons disent qu'ils n'ont aucune idée du modèle mystique de gentillesse linguistique que les critiques pourraient avoir en tête. Le juron, disent-ils, est un universel humain. Toutes les langues, tous les dialectes et tous les patois étudiés, vivants ou morts, parlés par des millions de personnes ou par une petite tribu, ont leur part d'interdits, une variante de la célèbre liste des sept gros mots qui ne doivent pas être prononcés à la radio ou à la télévision, établie par le comédien George Carlin.

Les jeunes enfants mémorisent cet inventaire illicite bien avant d'en saisir le sens, explique John McWhorter, spécialiste de la linguistique au Manhattan Institute et auteur de "The Power of Babel", et les géants de la littérature ont toujours construit leur art sur sa colonne vertébrale.

"Le dramaturge jacobéen Ben Jonson a parsemé ses pièces de fackings et de "Culs peremptoirs", et Shakespeare ne pouvait guère écrire une strophe sans insérer des blasphèmes de l'époque comme "zounds" ou "sblood" - contractions offensantes de "God's wounds" et "God's blood" - ou autre étonnant  jeu de mots sexuel.

Le titre "Much Ado About Nothing", dit son auteur le Dr McWhorter, est un jeu de mots sur "Much Ado About an O Thing", le O thing étant une référence aux organes génitaux féminins.

Même la quintessence du bon livre abonde en passages coquins comme les hommes de II Kings 18:27 qui, comme le dit la traduction relativement douce du King James, "mangent leur propre merde et boivent leur propre pisse".

En fait, selon Guy Deutscher, linguiste à l'université de Leyde, aux Pays-Bas, et auteur de "The Unfolding of Language : An Evolutionary Tour of Mankind's Greatest Invention", les premiers écrits, qui datent d'il y a 5 000 ans, comportent leur lot de descriptions colorées de la forme humaine et de ses fonctions encore plus colorées. Et les écrits ne sont que le reflet d'une tradition orale qui, selon le Dr Deutscher et de nombreux autres psychologues et linguistes évolutionnistes, remonte à l'apparition du larynx humain, si ce n'est avant.

Certains chercheurs sont tellement impressionnés par la profondeur et la puissance du langage grossier qu'ils l'utilisent comme un judas dans l'architecture du cerveau, comme un moyen de sonder les liens enchevêtrés et cryptiques entre les nouvelles régions "supérieures" du cerveau chargées de l'intellect, de la raison et de la planification, et les quartiers neuronaux plus anciens et plus "bestiaux" qui donnent naissance à nos émotions.

Les chercheurs soulignent que le fait de jurer est souvent un amalgame de sentiments bruts et spontanés et de ruse ciblée, à la dérobée. Lorsqu'une personne en insulte une autre, disent-ils, elle crache rarement des obscénités et des insultes au hasard, mais évalue plutôt l'objet de son courroux et adapte le contenu de son explosion "incontrôlable" en conséquence.

Étant donné que l'injure fait appel aux voies de la pensée et des sentiments du cerveau dans une mesure à peu près égale et avec une ferveur facilement évaluable, les scientifiques affirment qu'en étudiant les circuits neuronaux qui la sous-tendent, ils obtiennent de nouvelles informations sur la façon dont les différents domaines du cerveau communiquent - et tout cela pour une réplique bien sentie.

D'autres chercheurs se sont penchés sur la physiologie de l'injure, sur la façon dont nos sens et nos réflexes réagissent à l'audition ou à la vue d'un mot obscène. Ils ont déterminé que le fait d'entendre un juron suscite une réaction littérale chez les gens. Lorsque des fils électrodermiques sont placés sur les bras et le bout des doigts d'une personne pour étudier les schémas de conductivité de sa peau et que les sujets entendent ensuite quelques obscénités prononcées clairement et fermement, les participants montrent des signes d'excitation instantanée. La conductivité de leur peau augmente, les poils de leurs bras se dressent, leur pouls s'accélère et leur respiration devient superficielle.

Il est intéressant de noter, selon Kate Burridge, professeur de linguistique à l'université Monash de Melbourne, en Australie, qu'une réaction similaire se produit chez les étudiants universitaires et d'autres personnes qui se targuent d'être instruites lorsqu'elles entendent des expressions de mauvaise grammaire ou d'argot qu'elles considèrent comme irritantes, illettrées ou déclassées.

"Les gens peuvent se sentir très passionnés par la langue, dit-elle, comme s'il s'agissait d'un artefact précieux qu'il faut protéger à tout prix contre les dépravations des barbares et des étrangers lexicaux." 

Le Dr Burridge et un collègue de Monash, Keith Allan, sont les auteurs de "Forbidden Words : Taboo and the Censoring of Language", qui sera publié au début de l'année prochaine par la Cambridge University Press.

Les chercheurs ont également découvert que les obscénités peuvent s'insinuer dans la peau d'une personne qui a la chair de poule, puis ne plus bouger. Dans une étude, les scientifiques ont commencé par le célèbre test de Stroop, qui consiste à montrer à des sujets une série de mots écrits en différentes couleurs et à leur demander de réagir en citant les couleurs des mots plutôt que les mots eux-mêmes.

Si les sujets voient le mot "chaise" écrit en lettres jaunes, ils sont censés dire "jaune".

Les chercheurs ont ensuite inséré un certain nombre d'obscénités et de vulgarités dans la gamme standard. En observant les réponses immédiates et différées des participants, les chercheurs ont constaté que, tout d'abord, les gens avaient besoin de beaucoup plus de temps pour triller les couleurs des mots d'injures que pour des termes neutres comme "chaise".

L'expérience de voir un texte titillant détournait manifestement les participants de la tâche de codage des couleurs. Pourtant, ces interpolations osées ont laissé des traces. Lors de tests de mémoire ultérieurs, les participants ont non seulement été beaucoup plus aptes à se souvenir des vilains mots que des mots neutres, mais cette supériorité s'appliquait également aux teintes des mots vilains, ainsi qu'à leur sens.

Oui, il est difficile de travailler dans la pénombre des ordures idiomatiques. Dans le cadre d'une autre étude, des chercheurs ont demandé à des participants de parcourir rapidement des listes de mots contenant des obscénités, puis de se souvenir du plus grand nombre possible de ces mots. Là encore, les sujets se sont montrés plus aptes à se remémorer les injures, et moins aptes à se souvenir de tout ce qui était acceptable et qui précédait ou suivait les injures.

Pourtant, si le langage grossier peut donner un coup de fouet, il peut aussi aider à évacuer le stress et la colère. Dans certains contextes, la libre circulation d'un langage grossier peut signaler non pas l'hostilité ou une pathologie sociale, mais l'harmonie et la tranquillité.

"Des études montrent que si vous êtes avec un groupe d'amis proches, plus vous êtes détendu, plus vous jurez", a déclaré le Dr Burridge. "C'est une façon de dire : 'Je suis tellement à l'aise ici que je peux me défouler. Je peux dire ce que je veux".

Il est également prouvé que les jurons peuvent être un moyen efficace d'évacuer l'agressivité et de prévenir ainsi la violence physique.

Avec l'aide d'une petite armée d'étudiants et de volontaires, Timothy B. Jay, professeur de psychologie au Massachusetts College of Liberal Arts à North Adams et auteur de "Cursing in America" et "Why We Curse", a exploré en détail la dynamique du juron.

Les enquêteurs ont découvert, entre autres, que les hommes jurent généralement plus que les femmes, à moins que ces dernières ne fassent partie d'une sororité, et que les doyens d'université jurent plus que les bibliothécaires ou les membres du personnel de la garderie universitaire.

Selon le Dr Jay, peu importe qui jure ou quelle est la provocation, la raison de l'éruption est souvent la même.

"À maintes reprises, les gens m'ont dit que le fait de jurer était pour eux un mécanisme d'adaptation, une façon de réduire le stress", a-t-il déclaré lors d'un entretien téléphonique. "C'est une forme de gestion de la colère qui est souvent sous-estimée".

En effet, les chimpanzés se livrent à ce qui semble être une sorte de match de jurons pour évacuer leur agressivité et éviter un affrontement physique potentiellement dangereux.

Frans de Waal, professeur de comportement des primates à l'université Emory d'Atlanta, a déclaré que lorsque les chimpanzés sont en colère, "ils grognent, crachent ou font un geste brusque et ascendant qui, si un humain le faisait, serait reconnu comme agressif".

Ces comportements sont des gestes de menace, a déclaré le professeur de Waal, et ils sont tous de bon augure.

"Un chimpanzé qui se prépare vraiment à se battre ne perd pas de temps avec des gestes, mais va tout simplement de l'avant et attaque". De la même manière, a-t-il ajouté, rien n'est plus mortel qu'une personne trop enragée pour utiliser des jurons, qui prend une arme à feu et commence à tirer sans bruit.

Les chercheurs ont également examiné comment les mots atteignent le statut de discours interdit et comment l'évolution du langage grossier affecte les couches plus lisses du discours civil empilées au-dessus. Ils ont découvert que ce qui est considéré comme un langage tabou dans une culture donnée est souvent un miroir des peurs et des fixations de cette culture.

"Dans certaines cultures, les jurons sont principalement liés au sexe et aux fonctions corporelles, tandis que dans d'autres, ils sont principalement liés au domaine de la religion", a déclaré le Dr Deutscher.

Dans les sociétés où la pureté et l'honneur des femmes sont d'une importance capitale, "il n'est pas surprenant que de nombreux jurons soient des variations sur le thème "fils de pute" ou fassent référence de manière imagée aux organes génitaux de la mère ou des sœurs de la personne concernée".

Le concept même de juron ou de serment trouve son origine dans la profonde importance que les cultures anciennes accordaient au fait de jurer au nom d'un ou de plusieurs dieux. Dans l'ancienne Babylone, jurer au nom d'un dieu était censé donner une certitude absolue contre le mensonge, a déclaré le Dr Deutscher, "et les gens croyaient que jurer faussement contre un dieu attirerait sur eux la terrible colère de ce dieu." La mise en garde contre tout abus du serment sacré se reflète dans le commandement biblique selon lequel il ne faut pas "prendre le nom du Seigneur en vain", et aujourd'hui encore, les témoins dans les tribunaux jurent sur la Bible qu'ils disent toute la vérité et rien que la vérité.

Chez les chrétiens, cette interdiction de prendre le nom du Seigneur en vain s'étendait à toute allusion désinvolte envers le fils de Dieu ou à ses souffrances corporelles - aucune mention du sang, des plaies ou du corps, et cela vaut aussi pour les savantes contractions. De nos jours, l'expression "Oh, golly !" peut être considérée comme presque comiquement saine, mais il n'en a pas toujours été ainsi. "Golly" est une compaction de "corps de Dieu" et, par conséquent, était autrefois un blasphème.

Pourtant, ni les commandements bibliques, ni la censure victorienne la plus zélée ne peuvent faire oublier à l'esprit humain son tourment pour son corps indiscipliné, ses besoins chroniques et embarrassants et sa triste déchéance. L'inconfort des fonctions corporelles ne dort jamais, a déclaré le Dr Burridge, et le besoin d'une sélection toujours renouvelée d'euphémismes sur des sujets sales a longtemps servi de moteur impressionnant à l'invention linguistique.

Lorsqu'un mot devient trop étroitement associé à une fonction corporelle spécifique, dit-elle, lorsqu'il devient trop évocateur de ce qui ne devrait pas être évoqué, il commence à entrer dans le domaine du tabou et doit être remplacé par un nouvel euphémisme plus délicat.

Par exemple, le mot "toilette" vient du mot français "petite serviette" et était à l'origine une manière agréablement indirecte de désigner l'endroit où se trouve le pot de chambre ou son équivalent. Mais depuis, le mot "toilettes" désigne le meuble en porcelaine lui-même, et son emploi est trop brutal pour être utilisé en compagnie polie. Au lieu de cela, vous demanderez à votre serveur en smoking de vous indiquer les toilettes pour dames ou les toilettes ou, si vous le devez, la salle de bains.

De même, le mot "cercueil" (coffin) désignait à l'origine une boîte ordinaire, mais une fois qu'il a été associé à la mort, c'en fut fini du "cercueil à chaussures" ou de la "pensée hors du cercueil". Selon le Dr Burridge, le sens tabou d'un mot "chasse toujours les autres sens qu'il aurait pu avoir".

Les scientifiques ont récemment cherché à cartographier la topographie neuronale du discours interdit en étudiant les patients atteints du syndrome de Tourette qui souffrent de coprolalie, l'envie pathologique et incontrôlable de jurer. Le syndrome de Gilles de la Tourette est un trouble neurologique d'origine inconnue qui se caractérise principalement par des tics moteurs et vocaux chroniques, une grimace constante ou le fait de remonter ses lunettes sur l'arête du nez, ou encore l'émission d'un flot de petits glapissements ou de grognements.

Seul un faible pourcentage des patients atteints de la maladie de Gilles de la Tourette sont atteints de coprolalie - les estimations varient de 8 à 30 % - et les patients sont consternés par les représentations populaires de la maladie de Gilles de la Tourette comme une affection humoristique et invariablement scatologique. Mais pour ceux qui souffrent de coprolalie, dit le Dr Carlos Singer, directeur de la division des troubles du mouvement à la faculté de médecine de l'université de Miami, ce symptôme est souvent l'aspect le plus dévastateur et le plus humiliant de leur maladie.

Non seulement il peut être choquant pour les gens d'entendre une volée de jurons jaillir sans raison apparente, parfois de la bouche d'un enfant ou d'un jeune adolescent, mais les jurons peuvent aussi être provocants et personnels, des insultes fleuries contre la race, l'identité sexuelle ou la taille d'un passant, par exemple, ou des références obscènes délibérées et répétées au sujet d'un ancien amant dans les bras d'un partenaire ou d'un conjoint actuel.

Dans un rapport publié dans The Archives of General Psychiatry, le Dr David A. Silbersweig, directeur du service de neuropsychiatrie et de neuro-imagerie du Weill Medical College de l'université Cornell, et ses collègues ont décrit leur utilisation de la TEP pour mesurer le débit sanguin cérébral et identifier les régions du cerveau qui sont galvanisées chez les patients atteints de la maladie de Tourette pendant les épisodes de tics et de coprolalie. Ils ont constaté une forte activation des ganglions de la base, un quatuor de groupes de neurones situés dans le cerveau antérieur, à peu près au niveau du milieu du front, connus pour aider à coordonner les mouvements du corps, ainsi qu'une activation des régions cruciales du cerveau antérieur arrière gauche qui participent à la compréhension et à la production du langage, notamment l'aire de Broca.

Les chercheurs ont également constaté l'activation de circuits neuronaux qui interagissent avec le système limbique, le trône des émotions humaines en forme de berceau, et, de manière significative, avec les domaines "exécutifs" du cerveau, où les décisions d'agir ou de s'abstenir d'agir peuvent être prises : la source neuronale, selon les scientifiques, de la conscience, de la civilité ou du libre arbitre dont les humains peuvent se prévaloir.

Selon le Dr Silbersweig, le fait que le superviseur exécutif du cerveau s'embrase lors d'une crise de coprolalie montre à quel point le besoin de dire l'indicible peut être un acte complexe, et pas seulement dans le cas du syndrome de Tourette. La personne est saisie d'un désir de maudire, de dire quelque chose de tout à fait inapproprié. Les circuits linguistiques d'ordre supérieur sont sollicités pour élaborer le contenu de la malédiction. Le centre de contrôle des impulsions du cerveau s'efforce de court-circuiter la collusion entre l'envie du système limbique et le cerveau néocortical, et il peut y parvenir pendant un certain temps. 

Mais l'envie monte, jusqu'à ce que les voies de la parole se déchaînent, que le verboten soit prononcé, et que les cerveaux archaïques et raffinés en portent la responsabilité.

Auteur: Angier Natalie

Info: The New York Times, 20 septembre 2005

[ vocables pulsions ] [ onomasiologie ] [ tiercités réflexes ] [ jargon reptilien ] [ verbe soupape ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

intelligence artificielle

Apprendre l'anglais n'est pas une tâche facile, comme le savent d'innombrables étudiants. Mais lorsque l'étudiant est un ordinateur, une approche fonctionne étonnamment bien : Il suffit d'alimenter un modèle mathématique géant, appelé réseau neuronal, avec des montagnes de textes provenant d'Internet. C'est le principe de fonctionnement des modèles linguistiques génératifs tels que ChatGPT d'OpenAI, dont la capacité à tenir une conversation cohérente (à défaut d'être toujours sincère) sur un large éventail de sujets a surpris les chercheurs et le public au cours de l'année écoulée.

Mais cette approche présente des inconvénients. D'une part, la procédure de "formation" nécessaire pour transformer de vastes archives textuelles en modèles linguistiques de pointe est coûteuse et prend beaucoup de temps. D'autre part, même les personnes qui forment les grands modèles linguistiques ont du mal à comprendre leur fonctionnement interne, ce qui, à son tour, rend difficile la prévision des nombreuses façons dont ils peuvent échouer.

Face à ces difficultés, certains chercheurs ont choisi d'entraîner des modèles plus petits sur des ensembles de données plus restreints, puis d'étudier leur comportement. "C'est comme le séquençage du génome de la drosophile par rapport au séquençage du génome humain", explique Ellie Pavlick, chercheuse sur les modèles de langage à l'université de Brown.

Dans un article récemment publié sur le serveur scientifique arxiv.org, deux chercheurs de Microsoft ont présenté une nouvelle méthode pour former de minuscules modèles de langage : Les élever avec un régime strict d'histoires pour enfants.

RÉSEAUX NEURONAUX

Des chercheurs acquièrent une nouvelle compréhension à partir d'une simple IA  

Les chercheurs en apprentissage automatique ont compris cette leçon. GPT-3.5, le grand modèle linguistique qui alimente l'interface ChatGPT, compte près de 200 milliards de paramètres et a été entraîné sur un ensemble de données comprenant des centaines de milliards de mots (OpenAI n'a pas publié les chiffres correspondants pour son successeur, GPT-4).  L'entraînement de modèles aussi vastes nécessite généralement au moins 1 000 processeurs spécialisés, appelés GPU, fonctionnant en parallèle pendant des semaines. Seules quelques entreprises peuvent réunir les ressources nécessaires, sans parler de l'entraînement et de la comparaison de différents modèles.

Les deux chercheurs ont montré que des modèles linguistiques des milliers de fois plus petits que les systèmes de pointe actuels apprenaient rapidement à raconter des histoires cohérentes et grammaticalement justes lorsqu'ils étaient formés de cette manière. Leurs résultats indiquent de nouvelles pistes de recherche qui pourraient être utiles pour former des modèles plus importants et comprendre leur comportement.

"J'ai trouvé tout  ça très instructif", a déclaré Chandra Bhagavatula, chercheur sur les modèles de langage à l'Allen Institute for Artificial Intelligence de Seattle. "Le concept lui-même est très intéressant.

Il était une fois

Les réseaux neuronaux au cœur des modèles de langage sont des structures mathématiques vaguement inspirées du cerveau humain. Chacun d'entre eux contient de nombreux neurones artificiels disposés en couches, avec des connexions entre les neurones des couches adjacentes. Le comportement du réseau neuronal est régi par la force de ces connexions, appelées paramètres. Dans un modèle linguistique, les paramètres contrôlent les mots que le modèle peut produire ensuite, compte tenu d'une invite initiale et des mots qu'il a déjà générés.

Un modèle ne prend véritablement vie qu'au cours de la formation, lorsqu'il compare de manière répétée ses propres résultats au texte de son ensemble de données de formation et qu'il ajuste ses paramètres afin d'accroître la ressemblance. Un réseau non entraîné avec des paramètres aléatoires est trivialement facile à assembler à partir de quelques lignes de code, mais il ne produira que du charabia. Après l'entraînement, il peut souvent poursuivre de manière plausible un texte peu familier. Les modèles de plus grande taille sont souvent soumis à des réglages plus fins qui leur apprennent à répondre à des questions et à suivre des instructions, mais l'essentiel de la formation consiste à maîtriser la prédiction des mots.

Pour réussir à prédire des mots, un modèle linguistique doit maîtriser de nombreuses compétences différentes. Par exemple, les règles de la grammaire anglaise suggèrent que le mot suivant le mot "going" sera probablement "to", quel que soit le sujet du texte. En outre, un système a besoin de connaissances factuelles pour compléter "la capitale de la France est", et compléter un passage contenant le mot "not" nécessite une connaissance rudimentaire de la logique.

"Le langage brut est très compliqué", explique Timothy Nguyen, chercheur en apprentissage automatique chez DeepMind. "Pour que des capacités linguistiques intéressantes apparaissent, les gens ont eu recours à l'idée que plus il y a de données, mieux c'est".

(photo) Ronen Eldan s'est rendu compte qu'il pouvait utiliser les histoires d'enfants générées par de grands modèles linguistiques pour en entraîner rapidement de plus petits.

Introduction

Ronen Eldan, mathématicien qui a rejoint Microsoft Research en 2022 pour étudier les modèles de langage génératifs, souhaitait développer un moyen moins coûteux et plus rapide d'explorer leurs capacités. Le moyen naturel d'y parvenir était d'utiliser un petit ensemble de données, ce qui signifiait qu'il devait entraîner les modèles à se spécialiser dans une tâche spécifique, afin qu'ils ne s'éparpillent pas. Au départ, il voulait entraîner les modèles à résoudre une certaine catégorie de problèmes mathématiques, mais un après-midi, après avoir passé du temps avec sa fille de 5 ans, il s'est rendu compte que les histoires pour enfants convenaient parfaitement. "L'idée m'est venue littéralement après lui avoir lu une histoire", a-t-il déclaré.

Pour générer des histoires cohérentes pour les enfants, un modèle de langage devrait apprendre des faits sur le monde, suivre les personnages et les événements, et observer les règles de grammaire - des versions plus simples des défis auxquels sont confrontés les grands modèles. Mais les grands modèles formés sur des ensembles de données massives apprennent d'innombrables détails non pertinents en même temps que les règles qui comptent vraiment. Eldan espérait que la brièveté et le vocabulaire limité des histoires pour enfants rendraient l'apprentissage plus gérable pour les petits modèles, ce qui les rendrait à la fois plus faciles à former et plus faciles à comprendre.

Dans le monde des modèles de langage, cependant, le terme "petit" est relatif : Un ensemble de données mille fois plus petit que celui utilisé pour former GPT-3.5 devrait encore contenir des millions d'histoires. "Je ne sais pas combien d'argent vous voulez dépenser, mais je suppose que vous n'allez pas engager des professionnels pour écrire quelques millions de nouvelles", a déclaré M. Nguyen.

Il faudrait un auteur extraordinairement prolifique pour satisfaire des lecteurs aussi voraces, mais Eldan avait quelques candidats en tête. Qui peut mieux écrire pour un public de petits modèles linguistiques que pour de grands modèles ?

Toys stories

Eldan a immédiatement entrepris de créer une bibliothèque d'histoires synthétiques pour enfants générées par de grands modèles linguistiques. Mais il a rapidement découvert que même les modèles de pointe ne sont pas naturellement très créatifs. Si l'on demande à GPT-4 d'écrire des histoires adaptées à des enfants de 4 ans, explique Eldan, "environ un cinquième des histoires concernera des enfants qui vont au parc et qui ont peur des toboggans". C'est apparemment la quintessence des histoires pour enfants d'âge préscolaire, selon l'Internet.

La solution a consisté à ajouter un peu d'aléatoire dans le message. Tout d'abord, Eldan a utilisé le GPT-4 pour générer une liste de 1 500 noms, verbes et adjectifs qu'un enfant de 4 ans pourrait connaître - suffisamment courte pour qu'il puisse facilement la vérifier lui-même. Il a ensuite écrit un programme informatique simple qui demanderait à plusieurs reprises à GPT-3.5 ou à GPT-4 de générer une histoire adaptée à l'âge de l'enfant, comprenant trois mots aléatoires de la liste, ainsi qu'un détail supplémentaire choisi au hasard, comme une fin heureuse ou un rebondissement de l'intrigue. Les histoires obtenues, heureusement, étaient moins axées sur des diapositives effrayantes.

Eldan disposait désormais d'une procédure pour produire des données de formation à la demande, mais il n'avait aucune idée du nombre d'histoires dont il aurait besoin pour former un modèle fonctionnel, ni de la taille de ce modèle. C'est alors qu'il s'est associé à Yuanzhi Li, chercheur en apprentissage automatique chez Microsoft et à l'université Carnegie Mellon, pour essayer différentes possibilités, en tirant parti du fait que les petits modèles peuvent être formés très rapidement. La première étape consistait à décider comment évaluer leurs modèles.

Introduction

Dans la recherche sur les modèles de langage - comme dans toute salle de classe - la notation est un sujet délicat. Il n'existe pas de rubrique parfaite qui englobe tout ce que les chercheurs veulent savoir, et les modèles qui excellent dans certaines tâches échouent souvent de manière spectaculaire dans d'autres. Au fil du temps, les chercheurs ont mis au point divers critères de référence standard basés sur des questions dont les réponses ne sont pas ambiguës, ce qui est une bonne approche si vous essayez d'évaluer des compétences spécifiques. Mais Eldan et Li se sont intéressés à quelque chose de plus nébuleux : quelle doit être la taille réelle des modèles linguistiques si l'on simplifie le langage autant que possible ?

"Pour vérifier directement si le modèle parle anglais, je pense que la seule chose à faire est de laisser le modèle générer de l'anglais de manière ouverte", a déclaré M. Eldan.

Il n'y a que deux façons de mesurer les performances d'un modèle sur des questions aussi qualitatives : S'appuyer sur des évaluateurs humains ou se tourner à nouveau vers le GPT-4. Les deux chercheurs ont opté pour cette dernière solution, laissant les grands modèles à la fois rédiger les manuels et noter les dissertations.

Bhagavatula a déclaré qu'il aurait aimé voir comment les évaluations de GPT-4 se comparaient à celles des correcteurs humains - GPT-4 peut être biaisé en faveur des modèles qu'il a aidé à former, et l'opacité des modèles de langage rend difficile la quantification de tels biais. Mais il ne pense pas que de telles subtilités affecteraient les comparaisons entre différents modèles formés sur des ensembles similaires d'histoires synthétiques - l'objectif principal du travail d'Eldan et Li.

Eldan et Li ont utilisé une procédure en deux étapes pour évaluer chacun de leurs petits modèles après la formation. Tout d'abord, ils ont présenté au petit modèle la première moitié d'une histoire distincte de celles de l'ensemble des données d'apprentissage, de manière à ce qu'il génère une nouvelle fin, en répétant ce processus avec 50 histoires de test différentes. Ensuite, ils ont demandé à GPT-4 d'évaluer chacune des fins du petit modèle en fonction de trois catégories : créativité, grammaire et cohérence avec le début de l'histoire. Ils ont ensuite fait la moyenne des notes obtenues dans chaque catégorie, obtenant ainsi trois notes finales par modèle.

Avec cette procédure en main, Eldan et Li étaient enfin prêts à comparer les différents modèles et à découvrir quels étaient les étudiants les plus brillants.

Résultats des tests

Après quelques explorations préliminaires, les deux chercheurs ont opté pour un ensemble de données de formation contenant environ 2 millions d'histoires. Ils ont ensuite utilisé cet ensemble de données, baptisé TinyStories, pour entraîner des modèles dont la taille varie de 1 million à 30 millions de paramètres, avec un nombre variable de couches. Le travail a été rapide : En utilisant seulement quatre GPU, l'entraînement du plus grand de ces modèles n'a pas pris plus d'une journée.

Les plus petits modèles ont eu du mal. Par exemple, l'une des histoires testées commence par un homme à l'air méchant qui dit à une fille qu'il va lui prendre son chat. Un modèle à un million de paramètres s'est retrouvé bloqué dans une boucle où la fille répète sans cesse à l'homme qu'elle veut être son amie. Mais les modèles plus grands, qui sont encore des milliers de fois plus petits que GPT-3.5, ont obtenu des résultats surprenants. La version à 28 millions de paramètres racontait une histoire cohérente, même si la fin était sinistre : "Katie s'est mise à pleurer, mais l'homme s'en fichait. Il a emporté le chat et Katie n'a plus jamais revu son chat. Fin de l'histoire".

En plus de tester leurs propres modèles, Eldan et Li ont soumis le même défi au GPT-2 d'OpenAI, un modèle de 1,5 milliard de paramètres publié en 2019. Le résultat a été bien pire - avant la fin abrupte de l'histoire, l'homme menace d'emmener la jeune fille au tribunal, en prison, à l'hôpital, à la morgue et enfin au crématorium.

Introduction

Selon M. Nguyen, il est passionnant que des modèles aussi petits soient aussi fluides, mais il n'est peut-être pas surprenant que GPT-2 ait eu du mal à accomplir la tâche : il s'agit d'un modèle plus grand, mais loin de l'état de l'art, et il a été formé sur un ensemble de données très différent. "Un enfant en bas âge qui ne s'entraînerait qu'à des tâches d'enfant en bas âge, comme jouer avec des jouets, obtiendrait de meilleurs résultats que vous ou moi", a-t-il fait remarquer. "Nous ne nous sommes pas spécialisés dans cette chose simple.

Les comparaisons entre les différents modèles de TinyStories ne souffrent pas des mêmes facteurs de confusion. Eldan et Li ont observé que les réseaux comportant moins de couches mais plus de neurones par couche étaient plus performants pour répondre aux questions nécessitant des connaissances factuelles ; inversement, les réseaux comportant plus de couches et moins de neurones par couche étaient plus performants pour garder en mémoire les personnages et les points de l'intrigue situés plus tôt dans l'histoire. Bhagavatula a trouvé ce résultat particulièrement intriguant. S'il peut être reproduit dans des modèles plus vastes, "ce serait un résultat vraiment intéressant qui pourrait découler de ce travail", a-t-il déclaré.

Eldan et Li ont également étudié comment les capacités de leurs petits modèles dépendaient de la durée de la période de formation. Dans tous les cas, les modèles maîtrisaient d'abord la grammaire, puis la cohérence. Pour Eldan, ce schéma illustre comment les différences dans les structures de récompense entraînent des différences dans les schémas d'acquisition du langage entre les réseaux neuronaux et les enfants. Pour les modèles de langage, qui apprennent en prédisant des mots, "l'incitation pour les mots "je veux avoir" est aussi importante que pour les mots "crème glacée"", a-t-il déclaré. Les enfants, en revanche, "ne se soucient pas de savoir s'ils disent 'j'aimerais avoir de la glace' ou simplement 'glace, glace, glace'".

Qualité contre quantité

Eldan et Li espèrent que cette étude incitera d'autres chercheurs à entraîner différents modèles sur l'ensemble des données de TinyStories et à comparer leurs capacités. Mais il est souvent difficile de prédire quelles caractéristiques des petits modèles apparaîtront également dans les plus grands.

"Peut-être que les modèles de vision chez la souris sont de très bons substituts de la vision humaine, mais les modèles de dépression chez la souris sont-ils de bons modèles de la dépression chez l'homme ? a déclaré M. Pavlick. "Pour chaque cas, c'est un peu différent.

Le succès des modèles TinyStories suggère également une leçon plus large. L'approche standard pour compiler des ensembles de données de formation consiste à aspirer des textes sur l'internet, puis à filtrer les déchets. Le texte synthétique généré par des modèles de grande taille pourrait constituer une autre façon d'assembler des ensembles de données de haute qualité qui n'auraient pas besoin d'être aussi volumineux.

"Nous avons de plus en plus de preuves que cette méthode est très efficace, non seulement pour les modèles de la taille de TinyStories, mais aussi pour les modèles plus importants", a déclaré M. Eldan. Ces preuves proviennent d'une paire d'articles de suivi sur les modèles à un milliard de paramètres, rédigés par Eldan, Li et d'autres chercheurs de Microsoft. Dans le premier article, ils ont entraîné un modèle à apprendre le langage de programmation Python en utilisant des extraits de code générés par GPT-3.5 ainsi que du code soigneusement sélectionné sur l'internet. Dans le second, ils ont complété l'ensemble de données d'entraînement par des "manuels" synthétiques couvrant un large éventail de sujets, afin d'entraîner un modèle linguistique à usage général. Lors de leurs tests, les deux modèles ont été comparés favorablement à des modèles plus importants formés sur des ensembles de données plus vastes. Mais l'évaluation des modèles linguistiques est toujours délicate, et l'approche des données d'entraînement synthétiques n'en est qu'à ses balbutiements - d'autres tests indépendants sont nécessaires.

Alors que les modèles linguistiques de pointe deviennent de plus en plus volumineux, les résultats surprenants de leurs petits cousins nous rappellent qu'il y a encore beaucoup de choses que nous ne comprenons pas, même pour les modèles les plus simples. M. Nguyen s'attend à ce que de nombreux autres articles explorent l'approche inaugurée par TinyStories.

"La question est de savoir où et pourquoi la taille a de l'importance", a-t-il déclaré. "Il devrait y avoir une science à ce sujet, et cet article est, je l'espère, le début d'une riche histoire.



 



 

Auteur: Internet

Info: https://www.quantamagazine.org/ Ben Brubaker, 5 octobre 2023

[ synthèse ]

 

Commentaires: 0

Ajouté à la BD par miguel

résonances organiques

Les avantages sociaux de la synchronisation de notre cerveau

Nos ondes cérébrales peuvent s'aligner lorsque nous travaillons et jouons en étroite collaboration. Le phénomène, connu sous le nom de synchronisation inter-cerveau, suggère que la collaboration est biologique.

(Photo : De plus en plus de recherches montrent comment l’activité neuronale peut se synchroniser entre plusieurs personnes, ce qui entraîne de meilleurs résultats sociaux et créatifs.)

Le célèbre duo de pianos polonais Marek et Wacek n'utilisait pas de partitions lors de ses concerts live. Et pourtant, sur scène, le duo semblait parfaitement synchronisé. Sur des pianos adjacents, ils reprenaient de manière ludique divers thèmes musicaux, mêlé musique classique et jazz et improvisé en temps réel. "Nous avons suivi le courant", a déclaré Marek Tomaszewski, qui a joué avec Wacek Kisielewski jusqu'à la mort de Wacek en 1986. "C'était un pur plaisir."

Les pianistes semblaient lire dans les pensées des autres en échangeant des regards. C’était, dit Marek, comme s’ils étaient sur la même longueur d’onde. Un nombre croissant de recherches suggèrent que cela aurait pu être littéralement vrai.

Des dizaines d'expériences récentes étudiant l'activité cérébrale de personnes qui se produisent et travaillent ensemble – pianistes en duo, joueurs de cartes, enseignants et étudiants, puzzleurs et autres – montrent que leurs ondes cérébrales peuvent s'aligner dans un phénomène connu sous le nom de synchronisation neuronale interpersonnelle, également connue sous le nom de synchronie inter-cerveau.

"De nombreuses recherches montrent désormais que les personnes qui interagissent ensemble présentent des activités neuronales coordonnées", a déclaré Giacomo Novembre, neuroscientifique cognitif à l'Institut italien de technologie de Rome, qui a publié l'été dernier un article clé sur ce sujet. Les études se sont multipliées au cours des dernières années – notamment la semaine dernière – au fur et à mesure que de nouveaux outils et des techniques améliorées ont affiné la science et la théorie.

Ils montrent que la synchronisation entre les cerveaux présente des avantages. Qui conduit à une meilleure résolution de problèmes, à un meilleur apprentissage et à une meilleure coopération, et même à des comportements qui aident les autres à leur dépens. De plus, des études récentes dans lesquelles les cerveaux ont été stimulés par un courant électrique suggèrent que la synchronisation elle-même pourrait entraîner l'amélioration des performances observée par les scientifiques.

" La cognition est quelque chose qui se produit non seulement dans le crâne, mais aussi en relation avec l'environnement et avec les autres ", a déclaré Guillaume Dumas, professeur de psychiatrie computationnelle à l'Université de Montréal. Comprendre quand et comment nos cerveaux se synchronisent pourrait nous aider à communiquer plus efficacement, à concevoir de meilleures salles de classe et à aider les équipes à coopérer.

Se synchroniser


Les humains, comme les autres animaux sociaux, ont tendance à synchroniser leurs comportements. Si vous marchez à côté de quelqu’un, vous commencerez probablement à marcher au pas. Si deux personnes s’assoient côte à côte dans des fauteuils à bascule, il y a de fortes chances qu’elles commencent à se balancer au même rythme.

Une telle synchronisation comportementale, selon les recherches, nous rend plus confiants, nous aide à créer des liens et stimule nos instincts sociaux. Dans une étude, danser de manière synchronisée permettait aux participants de se sentir émotionnellement proches les uns des autres – bien plus que pour les groupes qui se déplaçaient de manière asynchrone. Dans une autre étude, les participants qui scandaient des mots de manière rythmée étaient plus susceptibles de coopérer à un jeu d'investissement. Même une simple marche à l'unisson avec une personne issue d'une minorité ethnique peut réduire les préjugés.

" La coordination est une caractéristique de l’interaction sociale. C'est vraiment crucial " a déclaré Novembre. "Lorsque la coordination est altérée, l'interaction sociale est profondément altérée."

Lorsque nos mouvements se coordonnent, une myriade de synchronisations invisibles à l’œil nu se produisent également à l’intérieur de notre corps. Quand les gens tambourinent ensemble, leurs cœurs battent ensemble. Les fréquences cardiaques des thérapeutes et de leurs patients peuvent se synchroniser pendant les séances (surtout si la relation thérapeutique fonctionne bien), tout comme celles des couples mariés. D’autres processus physiologiques, tels que notre rythme respiratoire et nos niveaux de conductance cutanée, peuvent également correspondre à ceux d’autres personnes.

(Photo : Ce n’est qu’au cours des 20 dernières années qu’est apparue une technologie permettant aux neuroscientifiques d’étudier la synchronisation inter-cerveau. L'hyperscanning utilise la spectroscopie fonctionnelle proche infrarouge, portée sur un appareil semblable à un bonnet de bain, pour surveiller l'activité neuronale de plusieurs individus s'engageant socialement.)

L’activité de notre cerveau peut-elle se synchroniser ? En 1965, la revue Science a publié les résultats d’une expérience suggérant que c’était possible. Des scientifiques de l'Université Thomas Jefferson de Philadelphie ont testé des paires de jumeaux identiques en insérant des électrodes sous leur cuir chevelu pour mesurer leurs ondes cérébrales – une technique appelée électroencéphalographie. Les chercheurs ont rapporté que lorsque les jumeaux restaient dans des pièces séparées, si l’un d’eux fermait les yeux, les ondes cérébrales des deux reflétaient le même mouvement. Les pointes sur l'électroencéphalographe de l'un des jumeaux reflétaient celles de l'autre. L’étude était cependant erronée sur le plan méthodologique. Les chercheurs avaient testé plusieurs paires de jumeaux mais n'avaient publié les résultats que pour la paire dans laquelle ils avaient observé une synchronie. Voilà qui n’a pas aidé ce domaine universitaire en plein essor. Pendant des décennies, la recherche sur la synchronisation intercérébrale fut donc reléguée dans la catégorie des " étranges bizarreries paranormales " et n’a pas été prise au sérieux.

La réputation du domaine a commencé à changer au début des années 2000 avec la popularisation de l' hyperscanning, une technique qui permet aux scientifiques de scanner simultanément le cerveau de plusieurs personnes en interaction. Au début, cela impliquait de demander à des paires de volontaires de s'allonger dans des appareils d'IRMf séparés, ce qui limitait considérablement les types d'études que les scientifiques pouvaient réaliser. Les chercheurs ont finalement pu utiliser la spectroscopie fonctionnelle proche infrarouge (fNIRS), qui mesure l'activité des neurones dans les couches externes du cortex. Le grand avantage de cette technologie est sa facilité d'utilisation : les volontaires peuvent jouer de la batterie ou étudier dans une salle de classe tout en portant des bonnets fNIRS, qui ressemblent à des bonnets de bain avec une multitude de câbles qui dépassent.

Lorsque plusieurs personnes  interagissent tout en portant des casquettes fNIRS, les scientifiques ont commencé à découvrir une activité interneurale synchronisée dans des régions du cerveau, qui variaient selon la tâche et la configuration de l'étude. Ils ont également observé des ondes cérébrales, qui représentent des schémas électriques dans le déclenchement neuronal, se synchronisant sur plusieurs fréquences. Sur une lecture électroencéphalographique de deux cerveaux synchronisés, les lignes représentant l'activité neuronale de chaque personne fluctuent ensemble : chaque fois que l'une monte ou descend, l'autre fait de même, bien que parfois avec un décalage dans le temps. Parfois, des ondes cérébrales apparaissent dans des images en miroir – lorsque celles d’une personne montent, celles de l’autre descendent en même temps et avec une ampleur similaire – ce que certains chercheurs considèrent également comme une forme de synchronie.

Avec de nouveaux outils, il est devenu de plus en plus clair que la synchronisation inter-cerveau n’était ni un charabia métaphysique ni le produit de recherches erronées. "Le signal est définitivement là", a déclaré Antonia Hamilton , neuroscientifique sociale à l'University College de Londres. Ce qui s'est avéré plus difficile à comprendre, c'est comment deux cerveaux indépendants, dans deux corps distincts, pouvaient montrer une activité similaire dans l'espace. Maintenant, dit Hamilton, la grande question est : " Qu’est-ce que cela nous raconte ? "

La recette de la synchronisation

Novembre est fasciné depuis longtemps par la manière dont les humains se coordonnent pour atteindre des objectifs communs. Comment les musiciens – les pianistes en duo, par exemple – collaborent-ils si bien ? Pourtant, c'est en pensant aux animaux, comme les lucioles synchronisant leurs flashs, qu'il s'est mis sur la voie de l'étude des ingrédients nécessaires à l'apparition de la synchronisation inter-cerveau.

Étant donné que la synchronie est " si répandue parmi tant d’espèces différentes ", se souvient-il, " je me suis dit : OK, alors il pourrait y avoir un moyen très simple de l’expliquer. "

Novembre et ses collègues ont mis en place une expérience, publiée l'été dernier , dans laquelle des paires de volontaires ne faisaient que s'asseoir l'un en face de l'autre tandis qu'un équipement photographique suivait les mouvements de leurs yeux, de leur visage et de leur corps. Parfois, les volontaires pouvaient se voir ; à d'autres moments, ils étaient séparés par une cloison. Les chercheurs ont découvert que dès que les volontaires se regardaient dans les yeux, leurs ondes cérébrales se synchronisaient instantanément. Le sourire s’est avéré encore plus puissant pour aligner les ondes cérébrales.

" Il y a quelque chose de spontané dans la synchronisation", a déclaré Novembre.

Le mouvement est également lié à l’activité synchronisée des ondes cérébrales. Dans l'étude de Novembre, lorsque les gens bougeaient leur corps de manière synchronisée – si, par exemple, l'un levait la main et que l'autre faisait de même – leur activité neuronale correspondait, avec un léger décalage. Cependant, la synchronisation intercérébrale va au-delà de la simple reproduction des mouvements physiques. Dans une étude publiée l'automne dernier sur des pianistes jouant en duo, une rupture de la synchronisation comportementale n'a pas provoqué la désynchronisation des deux cerveaux.

Un autre ingrédient important de la synchronisation neuronale "face à face" semble être la prédiction mutuelle : anticiper les réponses et les comportements d'une autre personne. Chaque personne " bouge ses mains, son visage ou son corps, ou parle ", a expliqué Hamilton, " et réagit également aux actions de l'autre personne ". Par exemple, lorsque les gens jouaient au jeu de cartes italien Tressette, l'activité neuronale des partenaires se synchronisait, mais le cerveau de leurs adversaires ne s'alignait pas avec eux.

Le partage d’objectifs et l’attention commune semblent souvent cruciaux pour la synchronisation inter-cerveau. Dans une expérience menée en Chine, des groupes de trois personnes ont dû coopérer pour résoudre un problème. Se présenta un problème : l'un des membres de l'équipe était un chercheur qui faisait seulement semblant de s'engager dans la tâche, hochant la tête et commentant lorsque c'était approprié, mais ne se souciant pas vraiment du résultat. Son cerveau ne se synchronisait pas avec celui des véritables membres de l'équipe.

Cependant, certains critiques affirment que l’apparition d’une activité cérébrale synchronisée n’est pas la preuve d’une quelconque connexion, mais peut plutôt s’expliquer par la réaction des personnes à un environnement partagé. " Imaginez deux personnes écoutant la même station de radio dans deux pièces différentes ", a écrit Clay Holroyd, neuroscientifique cognitif à l'Université de Gand en Belgique qui n'étudie pas la synchronisation intercérébrale, dans un article de 2022 . "La synchronisation inter-cerveau pourrait augmenter pendant les chansons qu'ils apprécient  ensemble par rapport aux chansons qu'ils trouvent tous deux ennuyeuses, mais cela ne serait pas une conséquence d'un couplage direct de cerveau à cerveau."

Pour tester cette critique, des scientifiques de l'Université de Pittsburgh et de l'Université Temple ont conçu une expérience dans laquelle les participants travaillaient différemment sur une tâche ciblée : terminer un puzzle . Les volontaires ont soit assemblé un puzzle en collaboration, soit travaillé sur des puzzles identiques séparément, côte à côte. Même s’il existait une certaine synchronisation interneurale entre les chercheurs travaillant de manière indépendante, elle était bien plus importante chez ceux qui collaboraient.

Pour Novembre, ces découvertes et d’autres similaires suggèrent que la synchronisation intercérébrale est plus qu’un artefact environnemental. "Tant que vous mesurerez le cerveau lors d'une interaction sociale, vous devrez toujours faire face à ce problème", a-t-il déclaré. "Les cerveaux en interaction sociale seront exposés à des informations similaires."

(Photo : La Mutual Wave Machine, qui a fait le tour des villes du monde entier de 2013 à 2019, permet aux passants d'explorer la synchronisation intercérébrale par paires tout en générant des données pour la recherche en neurosciences.)

À moins qu’ils ne soient à des endroits différents, bien sûr. Pendant la pandémie, les chercheurs se sont intéressés à comprendre comment la synchronisation intercérébrale pourrait changer lorsque les gens parlent face à face par vidéo. Dans une étude, publiée fin 2022 , Dumas et ses collègues ont mesuré l'activité cérébrale des mères et de leurs préadolescents lorsqu'ils communiquaient par vidéo en ligne. Les cerveaux des couples étaient à peine synchronisés, bien moins que lorsqu'ils parlaient en vrai. Une telle mauvaise synchronisation inter-cerveau en ligne pourrait aider à expliquer pourquoi les réunions Zoom ont tendance à être si fatigantes, selon les auteurs de l'étude.

"Il manque beaucoup de choses dans un appel Zoom par rapport à une interaction en face à face", a déclaré Hamilton, qui n'a pas participé à la recherche. " Votre contact visuel est un peu différent parce que le positionnement de la caméra est incorrect. Plus important encore, votre attention commune est différente."

Identifier les ingrédients nécessaires à l'apparition de la synchronisation inter-cerveau – qu'il s'agisse d'un contact visuel, d'un sourire ou du partage d'un objectif – pourrait nous aider à mieux profiter des avantages de la synchronisation avec les autres. Lorsque nous sommes sur la même longueur d’onde, les choses deviennent tout simplement plus faciles.

Avantages émergents

La neuroscientifique cognitive Suzanne Dikker aime exprimer son côté créatif en utilisant l'art pour étudier le fonctionnement du cerveau humain. Pour capturer la notion insaisissable d’être sur la même longueur d’onde, elle et ses collègues ont créé la Mutual Wave Machine : mi-installation artistique, mi-expérience neurologique. Entre 2013 et 2019, les passants de diverses villes du monde – Madrid, New York, Toronto, Athènes, Moscou et autres – ont pu faire équipe avec une autre personne pour explorer la synchronisation interneurale. Ils sont assis dans deux structures en forme de coquille se faisant face tout en portant un casque électroencéphalographe pour mesurer leur activité cérébrale. Pendant qu’ils interagissent pendant 10 minutes, les coquilles s’éclairent avec des projections visuelles qui servaient de neurofeedback : plus les projections sont lumineuses, plus leurs ondes cérébrales sont couplées. Cependant, certaines paires n'étaient pas informées que la luminosité des projections reflétait leur niveau de synchronisation, tandis que d'autres voyaient de fausses projections.

Lorsque Dikker et ses collègues ont analysé les résultats, publiés en 2021, ils ont découvert que les couples qui savaient qu'ils voyaient du neurofeedback se synchronisaient davantage avec le temps – un effet motivé par leur motivation à rester concentrés sur leur partenaire, ont expliqué les chercheurs. Plus important encore, leur synchronisation accrue a augmenté le sentiment de connexion sociale entre les deux. Il est apparu qu’être sur la même longueur d’onde cérébrale pourrait aider à établir des relations.

Dikker a également étudié cette idée dans un cadre moins artistique : la salle de classe. Dans une salle de classe de fortune dans un laboratoire, un professeur de sciences du secondaire encadrait des groupes de quatre élèves maximum pendant que Dikker et ses collègues enregistraient leur activité cérébrale. Dans une étude publiée sur le serveur de prépublication biorxiv.org en 2019, les chercheurs ont rapporté que plus les cerveaux des étudiants et de l'enseignant étaient synchronisés, plus les étudiants retenaient le matériel lorsqu'ils étaient testés une semaine plus tard. Une analyse de 2022 portant sur 16 études a confirmé que la synchronisation intercérébrale est effectivement liée à un meilleur apprentissage.

" La personne qui prête le plus d'attention ou qui s'accroche le mieux au signal de l'orateur sera également la plus synchronisée avec d'autres personnes qui accordent également la plus grande attention à ce que dit l'orateur ", a déclaré Dikker.

Ce n'est pas seulement l'apprentissage qui semble stimulé lorsque nos cerveaux sont synchronisés, mais également les performances et la coopération de l'équipe. Dans une autre étude réalisée par Dikker et ses collègues, des groupes de quatre personnes ont réfléchi à des utilisations créatives d'une brique ou classé des éléments essentiels pour survivre à un accident d'avion. Les résultats ont montré que plus leurs ondes cérébrales étaient synchronisées, mieux ils effectuaient ces tâches en groupe. Entre-temps, d'autres études ont montré que les équipes neuronales synchronisées non seulement communiquent mieux, mais surpassent également les autres dans les activités créatives telles que l'interprétation de la poésie .

Alors que de nombreuses études ont établi un lien entre la synchronisation intercérébrale et un meilleur apprentissage et de meilleures performances, la question reste de savoir si la synchronisation entraîne réellement de telles améliorations. Serait-ce plutôt une mesure d’engagement ? "Les enfants qui prêtent attention à l'enseignant feront preuve d'une plus grande synchronisation avec cet enseignant parce qu'ils sont plus engagés", a déclaré Holroyd. "Mais cela ne signifie pas que les processus synchrones contribuent réellement d'une manière ou d'une autre à l'interaction et à l'apprentissage."

Pourtant, les expériences sur les animaux suggèrent que la synchronisation neuronale peut effectivement conduire à des changements de comportement. Lorsque l’activité neuronale des souris était mesurée en leur faisant porter de minuscules capteurs en forme de chapeau haut de forme, par exemple, la synchronisation inter-cerveau prédisait si et comment les animaux interagiraient dans le futur. "C'est une preuve assez solide qu'il existe une relation causale entre les deux", a déclaré Novembre.

Chez l’homme, les preuves les plus solides proviennent d’expériences utilisant la stimulation électrique du cerveau pour générer une synchronisation interneurale. Une fois les électrodes placées sur le cuir chevelu des personnes, des courants électriques peuvent passer entre les électrodes pour synchroniser l’activité neuronale du cerveau des personnes. En 2017, Novembre et son équipe ont réalisé la première de ces expériences. Les résultats suggèrent que la synchronisation des ondes cérébrales dans la bande bêta, liée aux fonctions motrices, améliore la capacité des participants à synchroniser les mouvements de leur corps – dans ce cas, en frappant un rythme avec leurs doigts.

Plusieurs études ont récemment reproduit les conclusions de Novembre. Fin 2023, des chercheurs ont découvert qu'une fois les ondes cérébrales synchronisées par stimulation électrique, leur capacité à coopérer dans un jeu informatique simple s'améliorait considérablement. Et l'été dernier d'autres scientifiques ont montré qu'une fois que deux cerveaux sont synchronisés, les gens parviennent mieux à transférer des informations et à se comprendre.

La science est nouvelle, donc le jury ne sait toujours pas s'il existe un véritable lien de causalité entre la synchronie et le comportement humain coopératif. Malgré cela, la science de la synchronisation neuronale nous montre déjà à quel point nous bénéficions lorsque nous faisons les choses en synchronisation avec les autres. Sur le plan biologique, nous sommes programmés pour nous connecter.


Auteur: Internet

Info: https://www.quantamagazine.org/ - Marta Zaraska, 28 mars 2024

[ intelligence collective ] [ manipulation du public ] [ collectives réverbérations ] [ implication ] [ rapports humains ] [ transe ] [ attention partagée ] [ murmurations ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste