Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 451
Temps de recherche: 0.0596s

citation s'appliquant à ce logiciel

Toute émergence "qui réfléchit" ne peut être que consensuelle. 

Le moi, je, ego incarné, de même que la race (espèce) auquel il appartient, doivent nécessairement développer un univers "accepté" dans ses grandes lignes. Pour l'espèce ça semble aller de soi ; sans cela pas de signes entre les sexes pour la reproduction. Et, pour les races-communautés plus complexes (évoluées?) comme la nôtre : pas de langages communs, musique, mathématiques, beaux-arts, codes informatique, sciences... 

Pour l'individu, l'idée semble moins aisée à comprendre. Parce qu'intuitivement la "singularité" qu'il représente apparait via certains détails (variantes) qui semblent - et ne sont - pas décisifs pour la survie de l'espèce. Ainsi des graines des arbres. Mais il y a bien un consensus individuel, intime, destiné à la survie personnelle et à la reproduction, qui est recherche d'un équilibre, autant interne qu'avec les autres. 

Ces moyens termes, collectifs et singuliers (qui tendent vers la complexité) semblent indiquer quelques pistes, si on veut bien user du recul de notre mémoire collective. 

Primo, rien de temporellement fixe (terme à la mode : durable) à quoi s'accrocher. Sauf si un "équilibre solide" est installé entre biotope et individus-espèce (pensons aux requins, entre autres exemples). 

Secundo, existent une adaptabilité et une curiosité incessantes chez l'homme, qui avec le temps semblent occuper toujours plus les activités cérébrales de l'individu, lui-même infime et singulière émergence - initiatico-spirituelle souvent -, qui "ouvre" le monde tout en le perpétuant. 

Tertio. De ce continu phénomène d'évolutions/adaptations, on pourra constater, et probablement modéliser, toutes sortes de décalages évidents, nécessaires, à plein d'échelles et de niveaux. Dissonnances fines qui peuvent aller jusqu'à des ruptures de compréhension-communication entre : générations, époques, genres/sexes, habitudes, manières de voir, etc. De là beaucoup de malentendus et conflits, et donc une grande nécessité de tolérance et d'amour. 

Alors, pour faire marcher ensemble les consensualités intriquées du grand univers objectif avec les singularités subjectives, autrement dit concilier nos indéniables solipsismes avec le plus de niveaux possible que présente le cosmos matrice insondable, on entrevoit un principe orgonomique de l'ordre de l'adaptation pragmatique. Stephen Wolfram va jusqu'à affirmer que quelques règles simples (un code source) pourraient sous-tendre tout ceci. Pourquoi pas.

En termes linguistiques on pourra tenter d'affiner la définition de ce principe orgonomique par l'ajouts de vocables comme effort, collaboration solidaire, amour, chance/hasard, curiosité, survie, etc. 

Et puis, en tout dernier, se pointe le mot "esprit". On ne peut entrevoir ce concept qu'en fin de chaine. En effet l'esprit - ou réflexion un peu continue -, s'articule lui-même sur le maniement de mots/concepts (quasi-esprits de Peirce), eux-mêmes péniblement émergés d'une évolution lexicologique somme toute très récente et souvent retraçable. Analyses, pensées, élaborations abstraites... souvent aussi appuyées sur d'autres idiomes comme les mathématiques.  

Au-delà des listes et autres inventaires, l'écriture et les signes permettent donc - finalement - de raisonner et réfléchir... et  "commencer à" s'extraire, à s'élever un tout petit peu pour tenter de mieux voir. 

On se demande dès lors comment et pourquoi certains penseurs, gourous et autres religieux, qui "moulinent à la parole", décrétent que l'Esprit est à la source de tout, alors qu'il ressemble plus à une conquête pour ce qui nous concerne. Infinitésimale.

En rappelant par honnêteté qu'il y a belle lurette que les grecs anciens ont établi que le langage (logos) était l'instrument de la raison. Et puis : issue de l'invraisemblable fatras du kabbalisme et des traditions sumériennes, vient la théologie chrétienne où, d'un coup d'un seul le "Logos" est employé pour désigner la deuxième personne de la Trinité chrétienne. En bref Jésus, le Christ, prend le même sens que "verbe, parole". L'origine de cette désignation étant formalisée bien a postériori ainsi dans la Bible : "Au commencement était la Parole, et la Parole (logos) était avec Dieu, et la Parole était Dieu. Toutes choses ont été faites par elle, etc". (Évangile selon Jean, chapitre 1). Cet Évangile de Jean affirme donc que Dieu parle, sa parole est son hypostase, sa Parole créatrice est aussi puissante que Lui-même : Il est Sa Parole, etc... Ce concept de la parole de Dieu comme hypostase de Dieu même est commun à plusieurs religions, mais pour l'auteur de l'évangile, ce qui est original et unique à la chrétienté est que cette parole, hypostase, qui est Dieu même, est devenue homme et a habité parmi les hommes : "Et la parole a été faite chair, et elle a habité parmi nous, pleine de grâce et de vérité ; et nous avons contemplé sa gloire, une gloire comme la gloire du Fils unique venu du Père." (Évangile selon Jean, chapitre 1, 14)

Arrêtons là et contentons-nous de prendre ce paragraphe comme une extraordinaire démonstration de langage performatif. Très très très performatif, au vu de la puissance et de la place prise par le judéo-christianisme en début de 3e millénaire. 

Mais assez : revenons à notre idée de départ, celle de l'invraisemblable mélange de consensus/échelles/êtres/univers/etc. que nous pouvons constater et de sa préhension par notre entendement. Entendement développé via nos signes/écrits, mémorisés et intégrés dans notre mémoire collective. Ce qui amène beaucoup de gens à vouloir croire que l'humain est "au-dessus", élu... Supérieur... Il bénéficierait d'un esprit d'ordre surnaturel, divin, astralement dessiné. Essence orgonomique que d'autres imaginent comme quelque chose de l'ordre du fluide vital, énergie subtile issue d'un autre espace (dimension), dotée pour le coup de capacités/pouvoirs au-delà de nos possibilités de modélisation, etc.

Avançons-nous un peu pour affirmer que ce fameux Esprit, à la lumière de nos faibles connaissances, ressemble beaucoup plus à la version "manipulation de signes" par des cerveaux tardivement accouché de l'évolution, qu'à une émergence extraordinaire, divine et miraculeuse. Surtout si on s'amuse à comparer ces manipulations aux merveilleuses complexités et aux presqu'insondables développements de la vie biologique.

Ici FLP pointe le bout de son nez et, avec l'aide de C.S. Peirce - unique penseur ayant développé une approche solide et cohérente en ce domaine -, propose un outil, souple, puissant et collectif qui permet (en français, humblement et à sa manière) d'explorer-rechercher-bidouiller langage et sémantique, ces dispositifs de signes aptes à traiter tout et son contraire, aptes à passer du mirage absolu au plus cru des réalisme - en mélangeant les deux. Mais aussi inaptes, de par leur nature immobile (un fois une pensée écrite, et donc arrêtée - et si on veut bien nous excuser cette énorme lapalissade) à véritablement traiter notre support réel, la vie, ce mouvant embrouillamini qui se permet de mélanger sans discontinuer les échelles, vitesses, sentiments, etc. 

Pour revenir sur terre on dirait bien que les résultats de ce magnifique entendement humain nous amènent plutôt, en ces années de pandémie Co-vid,  vers un abrutissement drastique de forces de vie humaines de moins en moins sollicitées à cause des "progrès" techniques et médicaux. Sans parler du genre de biocratie sanitaire qui en découle. Pensez : tout récemment encore l'occident se battait contre l'acharnement thérapeuthique, affolé par la poussée démographique et le vieillissement des populations. Aujourd'hui on dirait qu'il s'auto-asphyxie pour sauver les personnes âgées. 

Mais soyons positifs et rassurons-nous. Ce ralentissement aura permis à la planète de respirer, et aussi de s'unifier - contre le covid. Unification qui pourrait mettre en parallèle biologie et communications humaines à l'échelle de la planète et ainsi procéder à un développement-consolidation de signes communautaires, càd de mêmes terrestres.

Contemplons la suite et restont bien zens goguenards. 

Vigilants.

Auteur: Mg

Info: 10 janv. 2021

[ sémiotique ] [ pré-mémétique ] [ systèmes intelligents ]

 
Mis dans la chaine
Commentaires: 5
Ajouté à la BD par miguel

bio-mathématiques

C’est confirmé : vous êtes constitué de cristaux liquides

Une équipe de chercheurs a réussi à prouver l’existence d’une double symétrie dans les tissus organiques, qui permet de les appréhender comme des cristaux liquides. Cette découverte pourrait faire émerger une nouvelle façon d’étudier le fonctionnement du vivant, à la frontière de la biologie et de la mécanique des fluides.

Dans une étude parue dans le prestigieux journal Nature et repérée par Quanta Magazine, des chercheurs ont montré que les tissus épithéliaux, qui constituent la peau et les enveloppes des organes internes, ne sont pas que des amas de cellules réparties de façon aléatoire. Ils présentent en fait deux niveaux de symétrie bien définis qui leur donnent des propriétés fascinantes; fonctionnellement, on peut désormais les décrire comme des cristaux liquides. Une découverte qui pourrait avoir des retombées potentiellement très importantes en médecine.

Ces travaux tournent entièrement autour de la notion de cristal liquide. Comme leur nom l’indique, il s’agit de fluides; techniquement, ils peuvent donc s’écouler comme de l’eau – mais avec une différence importante. Contrairement aux liquides classiques, où les atomes se déplacent les uns par rapport aux autres de façon complètement chaotique, les constituants d’un cristal liquide présentent tout de même un certain degré d’organisation.

Il ne s’agit pas d’une vraie structure cristalline comme on en trouve dans presque tous les minéraux, par exemple. Les cristaux liquides ne sont pas arrangés selon un motif précis qui se répète dans l’espace. En revanche, ils ont tendance à s’aligner dans une direction bien spécifique lorsqu’ils sont soumis à certains facteurs, comme une température ou un champ électrique.

C’est cette directionnalité, appelée anisotropie, qui est à l’origine des propriétés des cristaux liquides. Par exemple, ceux qui sont utilisés dans les écrans LCD (pour Liquid Crystal Display) réfractent la lumière différemment en fonction de leur orientation. Cela permet d’afficher différentes couleurs en contrôlant localement l’orientation du matériau grâce à de petites impulsions électriques.

Du tissu biologique au cristal liquide

Mais les cristaux liquides n’existent pas seulement dans des objets électroniques. Ils sont aussi omniprésents dans la nature ! Par exemple, la double couche de lipides qui constitue la membrane de nos cellules peut être assimilée à un cristal liquide. Et il ne s’agit pas que d’une anecdote scientifique ; cette organisation est très importante pour maintenir à la fois l’intégrité structurelle et la flexibilité de ces briques fondamentales. En d’autres termes, la dynamique des cristaux liquides est tout simplement essentielle à la vie telle qu’on la connaît.

Pour cette raison, des chercheurs essaient d’explorer plus profondément le rôle biologique des cristaux liquides. Plus spécifiquement, cela fait quelques années que des chercheurs essaient de montrer que les tissus, ces ensembles de cellules organisées de façon à remplir une mission bien précise, peuvent aussi répondre à cette définition.

Vu de l’extérieur, l’intérêt de ces travaux est loin d’être évident. Mais il ne s’agit pas seulement d’un casse-tête très abstrait ; c’est une question qui regorge d’implications pratiques très concrètes. Car si l’on parvient à prouver que les tissus peuvent effectivement être assimilés à des cristaux liquides, cela débloquerait immédiatement un nouveau champ de recherche particulièrement vaste et fascinant. Les outils mathématiques que les physiciens utilisent pour prédire le comportement des cristaux pourraient soudainement être appliqués à la biologie cellulaire, avec des retombées considérables pour la recherche fondamentale et la médecine clinique.

Mais jusqu’à présent, personne n’a réussi à le prouver. Tous ces efforts se sont heurtés au même mur mathématique — ou plus précisément géométrique ; les théoriciens et les expérimentateurs ne sont jamais parvenus à se mettre d’accord sur la symétrie intrinsèque des tissus biologiques. Regrettable, sachant qu’il s’agit de LA caractéristique déterminante d’un cristal liquide.

Les deux concepts enfin réconciliés

Selon Quanta Magazine, certains chercheurs ont réussi à montrer grâce à des simulations informatiques que les groupes de cellules pouvaient présenter une symétrie dite " hexatique ". C’est ce que l’on appelle une symétrie d’ordre six, où les éléments sont arrangés par groupe de six. Mais lors des expériences en laboratoire, elles semblent plutôt adopter une symétrie dite " nématique* ". Pour reprendre l’analogie de Quanta, selon ce modèle, les cellules se comportent comme un fluide composé de particules en forme de barres, un peu comme des allumettes qui s’alignent spontanément dans leur boîte. Il s’agit alors d’une symétrie d’ordre deux. 

C’est là qu’interviennent les auteurs de ces travaux, affiliés à l’université néerlandaise de Leiden. Ils ont suggéré qu’il serait possible d’établir un lien solide entre les tissus biologiques et le modèle des cristaux liquides, à une condition : il faudrait prouver que les tissus présentent les deux symétries à la fois, à des échelles différentes. Plus spécifiquement, les cellules devraient être disposées selon une symétrie d’ordre deux à grande échelle, avec une symétrie d’ordre six cachée à l’intérieur de ce motif qui apparaît lorsque l’on zoome davantage.

L’équipe de recherche a donc commencé par cultiver des couches très fines de tissus dont les contours ont été mis en évidence grâce à un marqueur. Mais pas question d’analyser leur forme à l’œil nu ; la relation qu’ils cherchaient à établir devait impérativement être ancrée dans des données objectives, et pas seulement sur une impression visuelle. Selon Quanta, ils ont donc eu recours à un objet mathématique appelé tenseur de forme grâce auquel ils ont pu décrire mathématiquement la forme et l’orientation de chaque unité.

Grâce à cet outil analytique, ils ont pu observer expérimentalement cette fameuse double symétrie. À grande échelle, dans des groupes de quelques cellules, ils ont observé la symétrie nématique qui avait déjà été documentée auparavant. Et en regardant de plus près, c’est une symétrie hexatique qui ressortait — exactement comme dans les simulations informatiques. " C’était assez incroyable à quel point les données expérimentales et les simulations concordaient ", explique Julia Eckert, co-autrice de ces travaux citée par Quanta.

Une nouvelle manière d’appréhender le fonctionnement du vivant

C’est la première fois qu’une preuve solide de cette relation est établie, et il s’agit incontestablement d’un grand succès expérimental. On sait désormais que certains tissus peuvent être appréhendés comme des cristaux liquides. Et cette découverte pourrait ouvrir la voie à un tout nouveau champ de recherche en biologie.

Au niveau fonctionnel, les implications concrètes de cette relation ne sont pas encore parfaitement claires. Mais la bonne nouvelle, c’est qu’il sera désormais possible d’utiliser des équations de mécanique des fluides qui sont traditionnellement réservées aux cristaux liquides pour étudier la dynamique des cellules.

Et cette nouvelle façon de considérer les tissus pourrait avoir des implications profondes en médecine. Par exemple, cela permettra d’étudier la façon dont certaines cellules migrent à travers les tissus. Ces observations pourraient révéler des mécanismes importants sur les premières étapes du développement des organismes, sur la propagation des cellules cancéreuses qui génère des métastases, et ainsi de suite.

Mais il y a encore une autre perspective encore plus enthousiasmante qui se profile à l’horizon. Il est encore trop tôt pour l’affirmer, mais il est possible que cette découverte représente une petite révolution dans notre manière de comprendre la vie.

En conclusion de l’article de Quanta, un des auteurs de l’étude résume cette idée en expliquant l’une des notions les plus importantes de toute la biologie. On sait depuis belle lurette que l’architecture d’un tissu est à l’origine d’un certain nombre de forces qui définissent directement ses fonctions physiologiques. Dans ce contexte, cette double symétrie pourrait donc être une des clés de voûte de la complexité du vivant, et servir de base à des tas de mécanismes encore inconnus à ce jour ! Il conviendra donc de suivre attentivement les retombées de ces travaux, car ils sont susceptibles de transformer profondément la biophysique et la médecine.

 

Auteur: Internet

Info: Antoine Gautherie, 12 décembre 2023. *Se dit de l'état mésomorphe, plus voisin de l'état liquide que de l'état cristallisé, dans lequel les molécules, de forme allongée, peuvent se déplacer librement mais restent parallèles entre elles, formant ainsi un liquide biréfringent.

[ double dualité ] [ tétravalence ]

 

Commentaires: 0

Ajouté à la BD par miguel

réseaux sociaux

L’Américaine Sarah T. Roberts a écrit, après huit ans de recherches, "Behind The Screen" (Yale university press), un livre sur le travail des modérateurs. Elle en a rencontré des dizaines, chargés de nettoyer les grandes plates-formes (Facebook, YouTube, etc.) des pires contenus, et entourés d’une culture du secret.

C’est un métier dont on ne connaît pas encore bien les contours, et qui est pourtant au coeur du fonctionnement des grandes plates-formes du Web : les modérateurs sont chargés de les débarrasser des contenus postés par les utilisateurs (photos, vidéos, commentaires, etc.) qu’elles interdisent. Répartis dans des open spaces aux quatre coins du monde, gérés par des sous-traitants, ces milliers de petites mains examinent, tout au long de leur journée de travail, les pires contenus qui circulent sur Internet, et décident de leur sort.

Nous l’avons interviewée lors de son passage à Paris pour participer à un cycle de conférences sur "le côté obscur du travail", organisé à la Gaîté-Lyrique, à Paris.

(MT) - Les géants du Web (Facebook, YouTube, Twitter, etc.) sont très réticents à parler de la façon dont ils modèrent les contenus. Pourquoi ?

- Quand ces entreprises ont été lancées il y a une quinzaine d’années, la dernière chose qu’elles voulaient, c’était d’avoir à prendre des décisions sur le contenu. Elles se concentraient sur les technologies, et se présentaient auprès des pouvoirs publics américains comme faisant partie de la catégorie "fournisseurs d’accès à Internet". Cela leur a permis d’affirmer que le contenu n’était pas leur coeur de métier, et d’avancer sans qu’on ne leur demande de rendre des comptes.

Ce positionnement leur a permis de grandir. Il fallait donc que les décisions que prenaient ces entreprises du Web sur le contenu restent secrètes. Elles vendaient cette idée aux utilisateurs qu’il n’y avait aucune intervention, que vous pouviez vous exprimer sur YouTube ou Facebook sans aucune barrière. Elles ne voulaient pas qu’il y ait un astérisque, elles ne voulaient pas entrer dans les détails. Il y a pourtant eu, dès leurs débuts, des contenus supprimés.

(MT) - Dans votre livre, vous allez jusqu’à dire que ces entreprises "effacent les traces humaines" de la modération. C’est une formule très forte…

-Ces entreprises pensent profondément que les solutions informatiques sont meilleures que les autres, et il y a cette idée chez elles qu’il y aura bientôt une technologie assez forte pour remplacer ces travailleurs. Elles semblent dire "ne nous habituons pas trop à l’idée qu’il y a des humains, c’est juste temporaire".

De plus, si les utilisateurs savaient qu’il y avait des humains impliqués, ils demanderaient des explications. Et ces entreprises ne voulaient pas être responsables de ces décisions. Elles ont donc choisi de rendre ce processus invisible et croisé les doigts pour que les gens ne posent pas trop de questions.

(MT) - La modération est un travail difficile. Quels sont les risques auxquels sont confrontés ces travailleurs ?
- Il y en a plusieurs, à commencer par les risques psychologiques. Les modérateurs à qui j’ai parlé me disaient souvent : "Je suis capable de faire ce travail, des gens sont partis au bout de deux semaines. Mais moi, je suis fort." Et quelques minutes plus tard, ils me disaient "je buvais beaucoup" ou "je ne veux plus sortir avec des amis, car on parle toujours de travail, et je ne veux pas en parler, et d’ailleurs je n’en ai pas le droit".

Quand des gens me disent qu’ils ne peuvent pas cesser de penser à une image ou une vidéo qu’ils ont vue au travail, c’est inquiétant. Une femme, qui était modératrice il y a une quinzaine d’années pour Myspace, m’a dit qu’elle n’aimait pas rencontrer de nouvelles personnes et leur serrer la main. "Je sais ce que les gens font, et ils sont ignobles. Je n’ai plus confiance en qui que ce soit."

Il y a aussi d’autres choses difficiles, qui paraissent moins évidentes. Vous devez être très cultivé pour être un bon modérateur, beaucoup ont fait des études de littérature, d’économie, d’histoire, parfois dans des universités prestigieuses. Mais c’est considéré comme un travail de bas niveau, assez mal payé.

(MT) - Comment les conditions de travail des modérateurs ont-elles évolué ?
- C’est difficile à dire, ce sont souvent des conditions de call centers : d’un point de vue purement matériel, c’est relativement confortable. Aux Philippines, des gens travaillent dans des gratte-ciel avec l’air conditionné, ce qui est important là-bas.

(MT) - Mais... En quoi cela change quelque chose à ce qu’ils voient tous les jours ?
- Certaines entreprises ont mis à disposition des psychologues. Mais les employés sont méfiants : quand le psychologue est payé par votre employeur, cela crée une relation compliquée, ça peut être difficile pour le travailleur de s’ouvrir sincèrement.

(MT) - Mais si ces entreprises ne mettaient pas de psychologues à disposition, on le leur reprocherait…
- C’est vrai. Mais est-ce vraiment efficace ou est-ce juste pour faire joli ? Un modérateur m’a dit : "Le problème, c’est que si je me lève pour aller parler au psychologue, mon manager et mes collègues me voient tous me lever et comprennent que j’ai un problème. Je ne veux pas qu’ils le sachent." Et puis, ce sont des solutions de court terme.

(MT) - Que devraient faire ces entreprises pour assurer le bien-être de leurs salariés ?
- Pour commencer, ils pourraient les payer davantage. Ensuite, le fait que leur travail ne soit pas reconnu est très dur pour eux, tout comme les accords de confidentialité. Tout cela fait qu’ils ont peur de parler de leur travail, qu’ils ne soient pas en lien avec les autres. Ils ne savent même pas qui sont les autres modérateurs. Ce sont des choses qui pourraient facilement changer. Et sur la psychologie, il faudrait étudier les effets de ce travail sur le long terme. Il n’existe aucune étude de ce type, à ma connaissance.

(MT) - Pourrait-on se passer de modérateurs ? A quoi ressemblerait Internet sans eux ?
- Au forum 4chan [connu pour sa modération très faible, et la virulence de certains de ses membres anonymes] ? Ce serait pire ! La plupart des gens ne veulent pas de ça, et doivent donc avoir à faire à des modérateurs. Or les internautes passent beaucoup de temps sur les grandes plates-formes mainstream, financées par la publicité, et le fait qu’ils ne comprennent pas comment ces espaces sont modérés est problématique, car cela reflète des valeurs.

L’idée d’un Internet sans modération n’a pas beaucoup existé. Certes, j’ai donné l’exemple de 4chan. Mais à un moment donné il y a eu une décision, à 4chan, que l’approche serait de tout laisser passer. C’est une posture idéologique là aussi. Et il est important de noter que c’est ce que veulent certaines personnes.

(MT) - Vous écrivez que ce sujet de recherche représente "le travail d’une vie". Quels aspects de la modération vous intéressent le plus pour la suite ?
- C’est le travail d’une vie parce que cela change tout le temps : Facebook change ses règles toutes les deux semaines ! Et si aujourd’hui on a 100 000 personnes qui travaillent comme modérateurs, où en sera-t-on dans deux, cinq ou dix ans ?

Je m’intéresse aussi beaucoup à la question de la régulation de ces entreprises. Ainsi qu’à la façon dont les Américains ont adopté depuis quinze ans ces technologies. Nous approchons de l’élection présidentielle de 2020, et ces plates-formes sont très impliquées, on a eu des déclarations intéressantes de Facebook sur la véracité des informations diffusées… Tout cela est d’une certaine manière lié à la question de la modération. Ces entreprises sont désormais considérées comme responsables, alors qu’elles n’ont jamais voulu l’être ! Devoir gérer ça est leur pire cauchemar, et elles doivent désormais le faire tout le temps.

Auteur: Tual Morgane

Info: Propos recueillis par MT, 11 janvier 2020, www.lemonde.fr. Sujet : Sarah T. Roberts : "Les géants du Web ont choisi de rendre le processus de modération invisible"

[ homme-machine ]

 

Commentaires: 0

Ajouté à la BD par miguel

chaînon manquant

L'HUMANITÉ AURAIT ELLE FRÔLÉ L'EXTINCTION ?

"1 280 individus seulement : l'humanité a failli disparaître il y a près d'un million d'années

Une étude parue dans Science révèle que population humaine pourrait s'être maintenue à environ 1 300 individus pendant une centaine de milliers d'années. Une "presque extinction" qui pourrait avoir joué un rôle majeur dans l'évolution des hommes modernes et de parents disparus, les Néandertaliens et Dénisoviens.

Il y a près d’un million d’années, un événement dévastateur a presque anéanti nos ancêtres. Les données génomiques de 3 154 humains modernes suggèrent qu'à ce moment, la population aurait été réduite d’environ 100 000 à seulement 1 280 individus reproducteurs — soit un déclin démographique d'ampleur (98,7 %) sur une durée de 117 000 ans, qui aurait pu conduire l’humanité à l’extinction.

Le fait que vous puissiez lire cet article, et que la population mondiale atteigne aujourd'hui les plus de 8 milliards (chiffres de novembre 2022), montre bien que cela n'a pas été le cas. Mais les résultats de cette récente étude, publiée dans la revue Science le 31 août 2023, permettraient d'expliquer l'écart déjà observé entre les archives fossiles humaines d'Afrique et d'Eurasie durant le Pléistocène.

La génétique pour comprendre l'évolution de la lignée humaine

Les datations récentes situent les plus anciens Homo sapiens il y a environ 300 000 ans, en Afrique. Seulement, avec si peu de fossiles datant de cette époque parvenus jusqu'à nous, la manière dont la lignée humaine a évolué avant l'émergence de l'espèce reste plutôt incertaine.

Pour en savoir plus sur cette très secrète période, proche de l’évolution de l’Homme moderne, une équipe a étudié le génome de plus de 3 150 humains actuels. Des individus issus de dix populations africaines et de quarante populations non africaines, plus précisément.

Elle a pour cela développé un nouvel outil analytique, le "processus de coalescence rapide en temps infinitésimal" (FitCoal). Grossièrement, le FitCoal leur a permis, en examinant la diversité des séquences génétiques observées chez les descendants et comment elles ont divergé au fil du temps, de déduire la taille des groupes composant leurs lointains ancêtres.

Leurs résultats ont ainsi révélé un "goulot d'étranglement démographique" important il y a environ 930 000 à 813 000 ans, c'est-à-dire un épisode de réduction sévère de la population — suivi d'une nouvelle expansion démographique, d'où les termes de "goulot d'étranglement".

Un risque élevé d'extinction lié aux changements climatiques ?

Dans l'étude de l'évolution d'une espèce, les goulots d'étranglement démographiques liés à une guerre, une famine ou encore une crise climatique, ne sont pas rares. La baisse de la diversité génétique qui en résulte peut même être retracée jusqu’à la descendance des survivants.

C’est ainsi que les scientifiques ont pu en déduire qu'un tel phénomène s'est produit plus récemment, il y a environ 7 000 ans, dans la population humaine de l’hémisphère nord.

Toutefois, le cas du goulot d'étranglement bien plus ancien semble avoir été d'une gravité particulièrement exceptionnelle, puisque le groupe a alors perdu 65,85 % de sa diversité génétique et environ 98,7 % de sa population reproductrice, selon les données. Pendant plus ou moins 117 000 ans, cette dernière aurait été limitée à environ 1 280 individus.

Nos ancêtres ont connu un goulot d'étranglement démographique si grave pendant très longtemps qu'ils ont été confrontés à un risque élevé d'extinction. — Wangjie Hu, coauteur principal de l'étude de l'École de médecine du Mont Sinaï à New York (États-Unis) interrogé par LiveScience.

S'il est aujourd'hui difficile d'établir avec certitude les différents facteurs qui ont mené à ce goulot d'étranglement, un événement majeur semble coïncider dans les datations : la transition du milieu du Pléistocène (il y a entre 1,25 et 0,7 million d’années), où la Terre s'est vue sévèrement refroidie en raison de l'allongement des cycles glaciaires et interglaciaires.

Les glaciers ont émergé, les températures des océans ont diminué… et de longues sécheresses ont touché l'Afrique et en Eurasie. Pour les populations humaines luttant alors pour leur survie, ces conditions plus que défavorables auraient pu entraîner famines et conflits. La disparition d'autres espèces, sources de nourritures, pourrait aussi avoir contribué à leur déclin.

Encore une fois, les conséquences de ces bouleversements climatiques ne peuvent être constatées, tant les fossiles et les artefacts humains de cette période sont relativement rares. Peut-être, parce que la population était si faible durant cette fameuse période.

Cette donnée permet en tout cas d'enfin expliquer chronologiquement "l'écart entre les archives fossiles africaines et eurasiennes [...] au début de l'âge de pierre". "[Cet écart] coïncide avec la période proposée de perte significative de preuves fossiles", explique en effet l'anthropologue Giorgio Manzi de l'université Sapienza de Rome (Italie), coauteur principal de l'étude dans un communiqué.

Un changement de génome et une divergence des hominidés

Ce goulot d'étranglement pourrait aussi avoir contribué à une caractéristique du génome humain : la fusion de deux chromosomes en un seul, le chromosome 2. Les autres hominidés encore vivants, dont les grands singes, en possèdent en effet 24 paires, nous, 23. Cet événement de spéciation semble d'ailleurs avoir contribué à ce que les humains prennent une voie évolutive différente. Expliquons.

Des recherches ont déjà suggéré que le dernier ancêtre commun, partagé par les Hommes modernes (Homo Sapiens), les Néandertaliens (Homo neanderthalensis) et les Dénisoviens (Homo denisovensis), vivait il y a environ 765 000 à 550 000 ans… soit à peu en même temps que le phénomène décrit.

Si dernier ancêtre commun a vécu pendant ou peu après le goulot d'étranglement, celui-ci aurait pu jouer un rôle dans la division des groupes d'hominidés, suggèrent les chercheurs : la population pourrait s'être séparée en de petits groupes survivants, qui, au fil du temps, auraient développé des caractéristiques suffisamment importantes pour que les différents groupes deviennent distincts — avec d'une part l'Homme moderne, d'autre part l'Homme de Néandertal et l'Homme de Denisova.

Or, c'est aussi il y a environ 900 000 à 740 000 ans, que les deux chromosomes anciens semblent avoir convergé. Et puisque tout cela coïncide, les nouvelles découvertes suggèrent finalement que la quasi-éradication de l'homme pourrait avoir un lien avec ce changement majeur dans le génome humain.

En outre, "puisque les Néandertaliens et les Dénisoviens partagent cette fusion avec nous, elle a dû se produire avant que nos lignées ne se séparent", suggère à nos confrères Chris Stringer, paléoanthropologue au Musée d'histoire naturelle de Londres (Angleterre) qui n'a pas participé à l'étude.

"Brosser un tableau complet de l'évolution humaine"

Si la lutte pour la survie, il y a environ 930 000 à 813 000 ans, semble avoir joué un rôle dans la formation des chromosomes de l'Homme moderne, l'inverse est-il vrai ?

L'équipe suggère plutôt qu'un climat plus hospitalier il y a environ 813 000 ans, ainsi que la maîtrise du feu, sont des facteurs cruciaux qui pourraient avoir permis à nos ancêtres de rebondir. De plus amples recherches seront nécessaires pour y voir plus clair, ainsi que pour établir si la sélection naturelle qui a eu lieu durant cette période a accéléré l'évolution du cerveau humain.

Ces résultats ne sont qu'un début. — Haipeng Li, généticien théorique des populations et biologiste informatique de l'Académie chinoise des sciences, coauteur principal dans le communiqué.

Les objectifs futurs de ces connaissances visent à brosser un tableau plus complet de l'évolution humaine au cours de cette période de transition entre le Pléistocène précoce et le Pléistocène moyen, ce qui permettra à son tour de continuer à percer le mystère de l'ascendance et de l'évolution de l'homme primitif.

Auteur: Internet

Info: https://www.science.org, 31 aout 2023, trad et résumé Mathilde Ragot

[ paléolithique ]

 

Commentaires: 0

Ajouté à la BD par miguel

coévolution bio-linguistique

Cerveau humain, langage et culture matérielle : Quand archéologues et neurobiologistes coopèrent.

Ce sont Chris Renfrew, Chris Frith et Lambros Malafouris, qui ont souligné cette intrication. (in The Sapient Mind, sous-titré Archaeology meets neuroscience - eds, 2009)

- Les patterns observés concernant l’activation [cérébrale] et la superposition avec les circuits du langage suggèrent que la fabrication d’outils et le langage ont une base commune dans une aptitude humaine plus générale à une action complexe et finalisée. Ces résultats sont compatibles avec des hypothèses coévolutionnaires associant l’émergence du langage, la fabrication d’outils, la latéralisation fonctionnelle à l’échelle d’une population et l’expansion du cortex associatif dans l’évolution humaine. (D. Stout & al., “Neural correlates of Early Stone Age toolmaking : technology, language and cognition in human evolution”. 2009 : 1) 

- Les développements récents de l’imagerie cérébrale révèlent des bases communes aux dispositions sociales des hommes et des primates les plus évolués

- L’accroissement des liens sociaux se reflète dans l’accroissement du volume du cerveau, et au moment où l’espèce humaine se dissémine sur le globe et où les liens sociaux risquent ainsi de se déliter, c’est la diffusion d’une même culture matérielle qui va maintenir le lien que l’éloignement géographique fragilise. (Fiona COWARD & Clive GAMBLE “Big brains, small world : material culture and the evolution of mind” 2009) 

Les modifications de l’expression des gènes gouvernant le développement cortical au cours de l’évolution des mammifères ont fourni les conditions à la fois d’un accroissement de taille considérable et d’un retard dans la maturation du cerveau, qui a conféré une influence déterminante aux perceptions, aux actions, à l’apprentissage pour la formation des spécialisations corticales. En même temps, de nouvelles régions ont vu le jour dans le cortex, et de nouvelles connexions se sont mises en place avec les aires primaires, sensorielles et motrices. (Philippe Vernier, 2005 : “Évolution du cerveau et émergence du langage”. - Références : Talmy GIVÓN, Functionalism and Grammar (1995), dernier chapitre : “The co-evolution of language and brain” - Terrence DEACON, The symbolic Species, sous-titré : The co-evolution of Language and Brain 1997 - Ray JACKENDOFF Foundations of Language, sous-titré Brain, Meaning, Grammar, Evolution 2002

- Alors que Vernier ne mentionne que l’évolution des aires corticales, K. Gibson suit de son côté la voie ‘subcorticale’ ouverte par Lieberman (2000) et insiste sur les zones centrales du cerveau également impliquées dans l’administration de la parole et du langage. Kathleen GIBSON (“Not the neocortex alone : other brain structures also contribute to speech and language”, 2013)

Trois manières pour les organismes de s’adapter à des fins évolutives.

(a) Le cas le plus simple est l’évolution génétique, quand la sélection naturelle agit sur les variétés dans une population, sélectionnant au détriment des allèles qui délivrent la moindre convenance (fit) avec l’environnement.

(b) La seconde voie est celle de l’utilisation de la plasticité phénotypique d’un génotype.

(c) La troisième voie exploite des systèmes et des organes qui ont évolué pour s’adapter à des environnements en évolution rapide et qui ont également une assise génétique - p.158. (S. Számadó / E. Szathmáry, “Evolutionary biological foundations of the origin of language : the coevolution of language and brain” 2013

Leur conclusion :

1) Les variantes linguistiques aisées à apprendre et à retenir sont favorisées en termes d’évolution culturelle et donc se répandent plus vite dans une population donnée ;

2) Les cerveaux plus aptes à assimiler les variétés et le changement linguistique offrent des avantages biologiques adaptatifs à leurs porteurs ; donc les gènes responsables des différences adaptatives vont se répandre dans la population.

3) En conséquence, les langues entrent en connexion neuronale avec les besoins du cerveau humain, et les cerveaux s’adaptent à l’apprentissage et au traitement linguistiques. Si bien que les humains peuvent effectuer une foule d’activités qui tirent profit d’un usage plus efficace de la langue (coopération, utilisation d’outils, maintenance des traditions, etc.)

L’évolution de la parole et l'ingénierie neuromimétique

Entreprises de modélisation et de simulation informatique des processus dont on présume qu’ils ont piloté l’émergence et l’évolution du langage.

- L’un des arguments en faveur des approches computationnelles et robotiques de l’évolution du langage est leur nature interdisciplinaire : Cela permet un dialogue direct avec des discipines empriques concernées par le langage et la cognition, telles que les neurosciences cognitives, la psychologie, la linguistique cognitive, la primatologie et l’anthropologie (…). L’ajout de contraintes aux modèles robotiques sur la base de données empiriques améliore aussi l’aptitude de la robotique et des modèles calculatoires pour générer des prédictions basées sur des théories descriptives, lesquelles peuvent être à leur tour validées ou invalidées par de nouvelles études empiriques et modélisatrices (…).” (références : Simon KIRBY, Function, selection, and innateness – The emergence of linguistic universals, 1999. Pierre-Yves OUDAYER automate de simulation de l’origine de la parole : Self-organization in the evolution of speech 2006. Angelo CANGELOSI, “Robotics and embodied agent modelling of the evolution of language” 2013 

Cerveau des primates et mutations génétiques susceptibles d'avoir facilité l'émergence du langage chez les primates humains

Hypothèse mutationniste :

- “Il est extrêmement improbable que le langage humain ait résulté de la simple adaptation du système de communication d’une espèce antérieure. Rien de ce que nous savons de la neuro-anatomie humaine pertinente pour le langage en rapport avec le complexe Aire de Broca-POT [Jonction pariétale-occipitale temporale dans l’anatomie du cerveau humain] ne nous inciterait à imaginer des homologues dans les structures cérébrales directement pertinentes pour les systèmes de communication des singes [apes and monkeys]. (Wendy Wilkins, Towards an evolutionary biology of language through comparative neuroanatomy, 2013 : 206)

Hypothèse adaptationniste :

- En fin de compte, plus on cherche des continuités entre les primates humains et non humains, non seulement en matière de latéralisation mais dans des secteurs décisifs de l’évolution cognitive, plus on trouve de similarités. A notre avis, on peut présumer clairement au minimum que le langage et la parole ne sont pas des conditions nécessaires pour que s’exprime la spécialisation hémisphérique chez les primates non-humains et il est temps de considérer d’autres variables ou facteurs susceptibles d’avoir contribué à la différenciation hémisphérique entre individus et entre espèces. (J. Vauclair / H. Cochet, “Speech-gesture links in the ontogeny and phylogeny of gestural communication”, 2013 : 196)

Consensus et dissensus

Plus personne ne cherche une explication simpliste (ni le ‘tout génétique’, ni le ‘tout social’) et tous reconnaissent l’importance de la dimension épigénétique, prenant en compte l’environnement en expansion et donc diversifié des hominidés qui se sont engagés dans des productions symboliques vocales en marge de leurs productions gestuelles.

Questions centrales actuellement sans réponse consensuelle :

- La faculté de langage est-elle issue du ‘GESTE’ ou du ‘CRI’ ? La réponse d’Arbib vise actuellement à intégrer les deux hypothèses par une boucle rétroactive.

- Le langage est-il apparu au terme de PROCESSUS ADAPTATIFS, sans nécessaire intervention de mutations génétiques modifiant les bases organiques ou à la suite de mutations et par détournement (exaptation) de mécanismes mis en place pour satisfaire d’autres besoins ? 

Essai de compromis :

Schéma en trois phases pour les traits dominants de l’évolution de la parole humaine :

a) L’évolution de la bipédie devenue obligatoire chez Homo erectus a entraîné les effets EXAPTATIFS de la descente du larynx et la perte des air sacs ainsi que le hiatus intervocalis,

b) Durant le pleistocène moyen le contrôle de la respiration pour la parole humaine a évolué comme une ADAPTATION spécifique à la parole, et

c) Avec l’évolution des humains modernes , les proportions idéales du tractus vocal (1:1) ont été atteintes par ADAPTATION ”. (Ann MACLARNON, "The anatomical and physiological basis of human speech production : adaptations and exaptations" 2013 : 235)

Auteur: François Jacques

Info: Fin de sa conférence du 11 décembre 2014. Traductions de l'anglais par FJ

[ interdisciplinarité ] [ sémiose ] [ état des lieux ] [ phylogénétique ] [ mémétique ] [ proto-phonation ]

 

Commentaires: 0

Ajouté à la BD par miguel

intermédiaire

Hier, je me suis cultivée. Je vous préviens tout de suite, si vous vous attendez au récit d'une visite passionnante dans un musée consacré à la période Momoyama, vous allez être déçus (ou soulagés, c'est selon). Au fait, la période Momoyama a réellement existé au Japon (1573 - 1603). Je ne sais pas si un musée lui a été consacré, mais j'aime bien ce nom.

Non, hier, je lisais "Le Monde" sur Internet. Soudain, dans la colonne de droite, là où se trouvent les liens vers les sites des cabinets de recrutement, je vois dans une liste d'offres d'emploi le mot "Dumiste". Le terminologue en herbe qui sommeille dans tout traducteur s'éveille instantanément, car je n'ai aucune idée de ce que peut être un ou une dumiste, qui peut être h/f, précise l'intitulé de l'annonce, montrant par là que le (ou la, parce que là aussi, je ne sais pas ce que c'est) CA du pays de Montbéliard n'est pas sexiste (la loi le lui défend, de toute façon). Décidément, il y a trop longtemps que j'ai quitté la France.

Dumiste, là, à brûle-pourpoint, ça me fait penser à une seule chose, cette collection d'ouvrages pratiques sur l'informatique qui a été traduite en français par "(logiciel x) pour les nuls" et dont le titre orginal en anglais est "(XXX) for dummies". Pas très flatteur, donc, et ça ne doit pas être ça. J'envisage ensuite un(e) spécialiste d'une étape particulière d'un processus technique industriel complexe, mais comme ces annonces sont en principe classées par thème et que je me trouve dans la rubrique culture du journal, je doute que ce soit ça. Je subodore plutôt quelque substantif dérivé d'un acronyme, mais lequel?

Je clique donc sur l'annonce, mais ça ne donne pas grand-chose, car si j'atterris bien sur un site web  regorgeant d'"espaces ceci" et d'"espaces cela" et garantissant pourtant un "référencement optimal" des offres d'emploi, je ne retrouve même pas l'intitulé de l'annonce, j'ai dû me tromper d'espace quelque part. Je me tourne donc vers l'internet et je donne "dumiste" en pâture à Google. (Vous savez qu'en anglais, to google est devenu un verbe, "just google it", qu'on dit). Pas de problème, il connaît, et il connaît même très bien, car il me fournit obligeamment un tas de documents en français dans lesquels apparaît le mot "dumiste"".

En français, car le dumiste, c'est une invention purement hexagonale, jugez plutôt! Grâce à un passionnant document du Centre de formation des musiciens intervenants de l'université de Poitiers, je comprends assez vite que ça a un rapport avec l'enseignement de la musique, et aussi que le dumiste n'est absolument pas un professeur de musique, mais un "musicien intervenant", ou plus exactement "une personne-ressource dans la cité", qui "fait vivre des situations visant au développement de l'éducation artistique de l'enfant en temps scolaire et hors temps scolaire. Il intervient à long terme dans l'accompagnement d'un projet éducatif et se soucie de la cohérence des parcours artistiques musicaux des enfants". Les activités qu'il/elle organise doivent permettre aux enfants de "vivre des démarches artistiques collectives innovantes", "d'acquérir des savoirs et des savoir-faire fondamentaux, de développer une attitude d'écoute et se construire un jugement esthétique personnel". Il ou elle doit aussi aider les enseignants à devenir les "garants de la cohérence et de la transversalité des apprentissages".

Dans le même document se trouve un "référentiel de compétences" qui énumère toutes les qualifications, aptitudes et qualités qu'un dumiste digne de ce nom se doit de posséder, et elles sont nombreuses. J'apprends également que le dumiste exerce principalement son activité dans les écoles maternelles ou élémentaires, mais "en s'intégrant à des dispositifs institutionnels partenariaux", ce qui, vous en conviendrez, change tout. Je crois que ça veut dire qu'il/elle peut aussi être amené à travailler "en zone rural" (sans e) ou "dans des centres socioculturel" (sans s).

Tout cela ne me dit pas d'où on a sorti ce mot "dumiste". Je consulte ensuite une étude sur les situations d'emploi des musiciens intervenants diplômés des CFMI, et il me paraît désormais assez clair que le mot "dumiste" a été forgé sur DUMI, le MI signifiant musicien intervenant, mais d'où diable sort ce "DU"? En gros, cette étude dit que c'est drôlement difficile de comprendre ce que fait un dumiste, qu'elle qualifie de "musicien d’un troisième type d’abord et surtout itinérant avant d’être intermittent ou permanent". J'avoue que, de mon côté, je commence à m'y perdre un peu entre ces "intervenant" et ces "itinérant", et si en plus il est du troisième type, ce musicien... Lyrique, l'étude nous décrit aussi les dumistes comme des "colporteurs de musiques à la croisée de bien des chemins", mais enfin, comme elle a dû être rédigée pour l'administration, elle se reprend bien vite et nous précise que (je coupe, parce que la phrase fait dix lignes) "la diversité et la transversalité de ses savoir-faire musicaux, la multiplicité des compétences mobilisées (...), la diversification de ses activités et de ses lieux d’intervention (...), la multiplicité de ses partenaires (...) pour un même projet viennent singulièrement complexifier les concepts de spécialisation/ diversification musicale et professionnelle et, plus largement, l’élaboration d’une vision claire et pertinente d’un métier pluriel ..." Bref, comme le malheureux dumiste doit savoir faire des tas de choses, travailler dans un tas d'endroits et pour des tas de gens différents, eh bien ça "complexifie singulièrement" les choses. Le texte nous rappelle que le "dumiste" est une "personne-ressource", et insiste d'ailleurs sur la nécessité de "favoriser la lisibilité de la dimension de la personne-ressource" (je n'invente rien, c'est là, allez voir et estimez vous heureux de ne pas être à la place de nos collègues anglophones quand ce genre de texte atterrit sur leur bureau!).

Je tombe enfin sur un document scandaleusement simple de l’addm 22, association départementale pour le développement de la musique et de la danse en Côtes d'Armor, qui explique dès le début qu'un "dumiste" est le titulaire d'un Diplôme universitaire de musicien intervenant (c'est le fameux DUMI!), que ce n'est pas un salarié de l'Education nationale car il n'intervient pas qu'en milieu scolaire, mais aussi dans des écoles de musique, des crèches, des foyers de personnes handicapées, etc. Comme le dumiste est au service des collectivités territoriales, l'addm22 aime bien dire que c'est un "acteur culturel du territoire".  Bon, je commence à voir de quoi il retourne. Un dumiste, c'est un malheureux qui a fait des études de musique et qui s'est tapé le Conservatoire pendant 10 ans, à qui, avec beaucoup de chance (ça représente apparemment 50% des diplômés), le Conseil général ou une communauté d'agglomérations (c'est la fameuse CA du début!) va offrir un mirobolant "équivalent plein temps" de 20 heures hebdomadaires probablement distribuées entre établissements scolaires et écoles de musique, atomisées dans tous les coins du département, avec déplacements et contraintes horaires à la clé. Et j'imagine, que, lors de leurs interventions, déterminer ce qui est du ressort de l'établissement et ce qui relève de la collectivité locale, notamment quand il s'agit de financer quelque chose, ne doit pas être de tout repos non plus. Les 50% des dumistes restants devront, selon l'étude sur les "situations d'emploi" citée plus haut, se contenter de contrats portant sur des "durées inférieures à 10 heures hebdomadaires", peut-être parce que leur dimension de personne-ressource n'est pas suffisamment lisible?

Je voudrais dire toute mon admiration aux dumistes, dont j'ignorais l'existence jusqu'à hier. Ils font un bien beau métier, qu'ils ont l'air d'exercer dans des conditions pas particulièrement favorables. Les quelques témoignages de dumistes que j'ai lus sur l'internet montrent qu'ils s'acquittent de leur tâche avec passion, conviction et sincérité. Certes, ils emploient des mots comme "envie", "plaisir", "jeu" et "découverte" mais ce n'est pas très grave car la "capacité de rédiger des circulaires administratives" ne figure pas dans leur "référentiel de compétences"!

Auteur: Internet

Info: http://scrapojapon.canalblog.com, Recherche dumiste, désespérément. 19 février 2008

[ marginal sécant ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Les progrès récents de l'intelligence artificielle (IA), notamment avec ChatGPT en novembre 2022, ont suscité interrogations, espoirs et craintes, menant à des auditions par le Congrès américain et l'adoption d'une réglementation par l'UE au printemps 2023. 

Dans les parlements comme sur les réseaux sociaux, les rapides progrès de l’IA animent les discussions. À l’avenir, à quels impacts faut-il s’attendre sur notre société ? Pour tenter de répondre à cette question de manière dépassionnée, nous proposons de regarder ce qui s’est passé dans un secteur qui a déjà connu l’arrivée et la victoire de l’IA sur les capacités humaines : les échecs. La machine y a en effet un niveau supérieur à celui des humains depuis maintenant plus d’un quart de siècle.

Pourquoi le jeu d’échecs comme indicateur ?

Depuis les débuts de l’informatique, les échecs ont été utilisés comme un indicateur des progrès logiciels et matériels. C’est un jeu intéressant à de multiples niveaux pour étudier les impacts des IA sur la société :

1 C’est une activité intellectuelle qui demande différentes compétences : visualisation spatiale, mémoire, calcul mental, créativité, capacité d’adaptation, etc., compétences sur lesquelles l’IA vient concurrencer l’esprit humain.

2 Le jeu n’a pas changé depuis des siècles. Les règles sont bien établies et cela donne une base stable pour étudier l’évolution des joueurs.

3  Il est possible de mesurer la force des machines de manière objective et de comparer ce niveau à celui des humains avec le classement Elo.

4 Le champ d’études est restreint : il est clair que les échecs ne sont qu’un tout petit aspect de la vie, mais c’est justement le but. Cette étroitesse du sujet permet de mieux cibler les impacts des IA sur la vie courante.

5  Les IA ont dépassé le niveau des meilleurs joueurs humains depuis plus de 20 ans. Il est donc possible de voir quels ont été les impacts concrets sur le jeu d’échecs et la vie de sa communauté, qui peut être vue comme un microcosme de la société. On peut également étudier ces impacts en regard de la progression des IA au cours du temps.

Explorons quelles ont été les évolutions dans le monde des échecs depuis que Gary Kasparov, alors champion du monde en titre, a perdu une partie contre Deep Blue en 1996, puis le match revanche joué en 1997. Nous allons passer en revue plusieurs thèmes qui reviennent dans la discussion sur les risques liés aux IA et voir ce qu’il en a été de ces spéculations dans le domaine particulier des échecs.

Les performances de l’IA vont-elles continuer à augmenter toujours plus vite ?

Il existe deux grandes écoles pour programmer un logiciel d’échecs : pendant longtemps, seule la force brute fonctionnait. Il s’agissait essentiellement de calculer le plus vite possible pour avoir un arbre de coups plus profonds, c’est-à-dire capable d’anticiper la partie plus loin dans le futur.

(Image : À partir d’une position initiale, l’ordinateur calcule un ensemble de possibilités, à une certaine profondeur, c’est-à-dire un nombre de coups futurs dans la partie.)

Aujourd’hui, la force brute est mise en concurrence avec des techniques d’IA issues des réseaux de neurones. En 2018, la filiale de Google DeepMind a produit AlphaZero, une IA d’apprentissage profond par réseau de neurones artificiels, qui a appris tout seul en jouant contre lui-même aux échecs. Parmi les logiciels les plus puissants de nos jours, il est remarquable que LC0, qui est une IA par réseau de neurones, et Stockfish, qui est essentiellement un logiciel de calcul par force brute, aient tous les deux des résultats similaires. Dans le dernier classement de l’Association suédoise des échecs sur  ordinateur (SSDF), ils ne sont séparés que de 4 points Elo : 3 582 pour LC0 contre 3 586 pour Stockfish. Ces deux manières totalement différentes d’implanter un moteur d’échecs sont virtuellement indistinguables en termes de force.

En termes de points Elo, la progression des machines a été linéaire. Le graphique suivant donne le niveau du meilleur logiciel chaque année selon le classement SSDF qui a commencé depuis le milieu des années 1980. Le meilleur logiciel actuel, LC0, en est à 3586, ce qui prolonge la figure comme on pourrait s’y attendre.

(Image : courbe du classement ELO )

Cette progression linéaire est en fait le reflet d’une progression assez lente des logiciels. En effet, le progrès en puissance de calcul est, lui, exponentiel. C’est la célèbre loi de Moore qui stipule que les puissances de calcul des ordinateurs doublent tous les dix-huit mois.

Cependant, Ken Thompson, informaticien américain ayant travaillé dans les années 80 sur Belle, à l’époque le meilleur programme d’échecs, avait expérimentalement constaté qu’une augmentation exponentielle de puissance de calcul conduisait à une augmentation linéaire de la force des logiciels, telle qu’elle a été observée ces dernières dizaines d’années. En effet, le fait d’ajouter un coup supplémentaire de profondeur de calcul implique de calculer bien plus de nouvelles positions. On voit ainsi que l’arbre des coups possibles est de plus en plus large à chaque étape.

Les progrès des IA en tant que tels semblent donc faibles : même si elles ne progressaient pas, on observerait quand même une progression de la force des logiciels du simple fait de l’amélioration de la puissance de calcul des machines. On ne peut donc pas accorder aux progrès de l’IA tout le crédit de l’amélioration constante des ordinateurs aux échecs.

La réception par la communauté de joueurs d’échecs

Avec l’arrivée de machines puissantes dans le monde de l'échiquier, la communauté a nécessairement évolué. Ce point est moins scientifique mais est peut-être le plus important. Observons quelles ont été ces évolutions.

" Pourquoi les gens continueraient-ils de jouer aux échecs ? " Cette question se posait réellement juste après la défaite de Kasparov, alors que le futur des échecs amateurs et professionnels paraissait sombre. Il se trouve que les humains préfèrent jouer contre d’autres humains et sont toujours intéressés par le spectacle de forts grands maîtres jouant entre eux, et ce même si les machines peuvent déceler leurs erreurs en temps réel. Le prestige des joueurs d’échecs de haut niveau n’a pas été diminué par le fait que les machines soient capables de les battre.

Le style de jeu a quant à lui été impacté à de nombreux niveaux. Essentiellement, les joueurs se sont rendu compte qu’il y avait beaucoup plus d’approches possibles du jeu qu’on le pensait. C’est l’académisme, les règles rigides, qui en ont pris un coup. Encore faut-il réussir à analyser les choix faits par les machines. Les IA sont par ailleurs très fortes pour pointer les erreurs tactiques, c’est-à-dire les erreurs de calcul sur de courtes séquences. En ligne, il est possible d’analyser les parties de manière quasi instantanée. C’est un peu l’équivalent d’avoir un professeur particulier à portée de main. Cela a sûrement contribué à une augmentation du niveau général des joueurs humains et à la démocratisation du jeu ces dernières années. Pour le moment, les IA n’arrivent pas à prodiguer de bons conseils en stratégie, c’est-à-dire des considérations à plus long terme dans la partie. Il est possible que cela change avec les modèles de langage, tel que ChatGPT.

Les IA ont aussi introduit la possibilité de tricher. Il y a eu de nombreux scandales à ce propos, et on se doit de reconnaître qu’il n’a pas à ce jour de " bonne solution " pour gérer ce problème, qui rejoint les interrogations des professeurs, qui ne savent plus qui, de ChatGPT ou des étudiants, leur rendent les devoirs.

Conclusions temporaires

Cette revue rapide semble indiquer qu’à l’heure actuelle, la plupart des peurs exprimées vis-à-vis des IA ne sont pas expérimentalement justifiées. Le jeu d’échecs est un précédent historique intéressant pour étudier les impacts de ces nouvelles technologies quand leurs capacités se mettent à dépasser celles des humains. Bien sûr, cet exemple est très limité, et il n’est pas possible de le généraliser à l’ensemble de la société sans précaution. En particulier, les modèles d’IA qui jouent aux échecs ne sont pas des IA génératives, comme ChatGPT, qui sont celles qui font le plus parler d’elles récemment. Néanmoins, les échecs sont un exemple concret qui peut être utile pour mettre en perspective les risques associés aux IA et à l’influence notable qu’elles promettent d’avoir sur la société.


Auteur: Internet

Info: https://www.science-et-vie.com/ - Article issu de The Conversation, écrit par Frédéric Prost Maître de conférences en informatique, INSA Lyon – Université de Lyon 14 avril 2024

[ ouverture ] [ conformisme limitant ]

 

Commentaires: 0

Ajouté à la BD par miguel

subatomique

Des scientifiques font exploser des atomes avec un laser de Fibonacci pour créer une dimension temporelle "supplémentaire"

Cette technique pourrait être utilisée pour protéger les données des ordinateurs quantiques contre les erreurs.

(Photo avec ce texte : La nouvelle phase a été obtenue en tirant des lasers à 10 ions ytterbium à l'intérieur d'un ordinateur quantique.)

En envoyant une impulsion laser de Fibonacci à des atomes à l'intérieur d'un ordinateur quantique, des physiciens ont créé une phase de la matière totalement nouvelle et étrange, qui se comporte comme si elle avait deux dimensions temporelles.

Cette nouvelle phase de la matière, créée en utilisant des lasers pour agiter rythmiquement un brin de 10 ions d'ytterbium, permet aux scientifiques de stocker des informations d'une manière beaucoup mieux protégée contre les erreurs, ouvrant ainsi la voie à des ordinateurs quantiques capables de conserver des données pendant une longue période sans les déformer. Les chercheurs ont présenté leurs résultats dans un article publié le 20 juillet dans la revue Nature.

L'inclusion d'une dimension temporelle "supplémentaire" théorique "est une façon complètement différente de penser les phases de la matière", a déclaré dans un communiqué l'auteur principal, Philipp Dumitrescu, chercheur au Center for Computational Quantum Physics de l'Institut Flatiron, à New York. "Je travaille sur ces idées théoriques depuis plus de cinq ans, et les voir se concrétiser dans des expériences est passionnant.

Les physiciens n'ont pas cherché à créer une phase dotée d'une dimension temporelle supplémentaire théorique, ni à trouver une méthode permettant d'améliorer le stockage des données quantiques. Ils souhaitaient plutôt créer une nouvelle phase de la matière, une nouvelle forme sous laquelle la matière peut exister, au-delà des formes standard solide, liquide, gazeuse ou plasmatique.

Ils ont entrepris de construire cette nouvelle phase dans le processeur quantique H1 de la société Quantinuum, qui se compose de 10 ions d'ytterbium dans une chambre à vide, contrôlés avec précision par des lasers dans un dispositif connu sous le nom de piège à ions.

Les ordinateurs ordinaires utilisent des bits, c'est-à-dire des 0 et des 1, pour constituer la base de tous les calculs. Les ordinateurs quantiques sont conçus pour utiliser des qubits, qui peuvent également exister dans un état de 0 ou de 1. Mais les similitudes s'arrêtent là. Grâce aux lois étranges du monde quantique, les qubits peuvent exister dans une combinaison, ou superposition, des états 0 et 1 jusqu'au moment où ils sont mesurés, après quoi ils s'effondrent aléatoirement en 0 ou en 1.

Ce comportement étrange est la clé de la puissance de l'informatique quantique, car il permet aux qubits de se lier entre eux par l'intermédiaire de l'intrication quantique, un processus qu'Albert Einstein a baptisé d'"action magique à distance". L'intrication relie deux ou plusieurs qubits entre eux, connectant leurs propriétés de sorte que tout changement dans une particule entraîne un changement dans l'autre, même si elles sont séparées par de grandes distances. Les ordinateurs quantiques sont ainsi capables d'effectuer plusieurs calculs simultanément, ce qui augmente de manière exponentielle leur puissance de traitement par rapport à celle des appareils classiques.

Mais le développement des ordinateurs quantiques est freiné par un gros défaut : les Qubits ne se contentent pas d'interagir et de s'enchevêtrer les uns avec les autres ; comme ils ne peuvent être parfaitement isolés de l'environnement extérieur à l'ordinateur quantique, ils interagissent également avec l'environnement extérieur, ce qui leur fait perdre leurs propriétés quantiques et l'information qu'ils transportent, dans le cadre d'un processus appelé "décohérence".

"Même si tous les atomes sont étroitement contrôlés, ils peuvent perdre leur caractère quantique en communiquant avec leur environnement, en se réchauffant ou en interagissant avec des objets d'une manière imprévue", a déclaré M. Dumitrescu.

Pour contourner ces effets de décohérence gênants et créer une nouvelle phase stable, les physiciens se sont tournés vers un ensemble spécial de phases appelées phases topologiques. L'intrication quantique ne permet pas seulement aux dispositifs quantiques d'encoder des informations à travers les positions singulières et statiques des qubits, mais aussi de les tisser dans les mouvements dynamiques et les interactions de l'ensemble du matériau - dans la forme même, ou topologie, des états intriqués du matériau. Cela crée un qubit "topologique" qui code l'information dans la forme formée par de multiples parties plutôt que dans une seule partie, ce qui rend la phase beaucoup moins susceptible de perdre son information.

L'une des principales caractéristiques du passage d'une phase à une autre est la rupture des symétries physiques, c'est-à-dire l'idée que les lois de la physique sont les mêmes pour un objet en tout point du temps ou de l'espace. En tant que liquide, les molécules d'eau suivent les mêmes lois physiques en tout point de l'espace et dans toutes les directions. Mais si vous refroidissez suffisamment l'eau pour qu'elle se transforme en glace, ses molécules choisiront des points réguliers le long d'une structure cristalline, ou réseau, pour s'y disposer. Soudain, les molécules d'eau ont des points préférés à occuper dans l'espace et laissent les autres points vides ; la symétrie spatiale de l'eau a été spontanément brisée.

La création d'une nouvelle phase topologique à l'intérieur d'un ordinateur quantique repose également sur la rupture de symétrie, mais dans cette nouvelle phase, la symétrie n'est pas brisée dans l'espace, mais dans le temps.

En donnant à chaque ion de la chaîne une secousse périodique avec les lasers, les physiciens voulaient briser la symétrie temporelle continue des ions au repos et imposer leur propre symétrie temporelle - où les qubits restent les mêmes à travers certains intervalles de temps - qui créerait une phase topologique rythmique à travers le matériau.

Mais l'expérience a échoué. Au lieu d'induire une phase topologique à l'abri des effets de décohérence, les impulsions laser régulières ont amplifié le bruit provenant de l'extérieur du système, le détruisant moins d'une seconde et demie après sa mise en marche.

Après avoir reconsidéré l'expérience, les chercheurs ont réalisé que pour créer une phase topologique plus robuste, ils devaient nouer plus d'une symétrie temporelle dans le brin d'ion afin de réduire les risques de brouillage du système. Pour ce faire, ils ont décidé de trouver un modèle d'impulsion qui ne se répète pas de manière simple et régulière, mais qui présente néanmoins une sorte de symétrie supérieure dans le temps.

Cela les a conduits à la séquence de Fibonacci, dans laquelle le nombre suivant de la séquence est créé en additionnant les deux précédents. Alors qu'une simple impulsion laser périodique pourrait simplement alterner entre deux sources laser (A, B, A, B, A, B, etc.), leur nouveau train d'impulsions s'est déroulé en combinant les deux impulsions précédentes (A, AB, ABA, ABAAB, ABAABAB, ABAABABA, etc.).

Cette pulsation de Fibonacci a créé une symétrie temporelle qui, à l'instar d'un quasi-cristal dans l'espace, est ordonnée sans jamais se répéter. Et tout comme un quasi-cristal, les impulsions de Fibonacci écrasent également un motif de dimension supérieure sur une surface de dimension inférieure. Dans le cas d'un quasi-cristal spatial tel que le carrelage de Penrose, une tranche d'un treillis à cinq dimensions est projetée sur une surface à deux dimensions. Si l'on examine le motif des impulsions de Fibonacci, on constate que deux symétries temporelles théoriques sont aplaties en une seule symétrie physique.

"Le système bénéficie essentiellement d'une symétrie bonus provenant d'une dimension temporelle supplémentaire inexistante", écrivent les chercheurs dans leur déclaration. Le système apparaît comme un matériau qui existe dans une dimension supérieure avec deux dimensions de temps, même si c'est physiquement impossible dans la réalité.

Lorsque l'équipe l'a testé, la nouvelle impulsion quasi-périodique de Fibonacci a créé une phase topographique qui a protégé le système contre la perte de données pendant les 5,5 secondes du test. En effet, ils ont créé une phase immunisée contre la décohérence pendant beaucoup plus longtemps que les autres.

"Avec cette séquence quasi-périodique, il y a une évolution compliquée qui annule toutes les erreurs qui se produisent sur le bord", a déclaré Dumitrescu. "Grâce à cela, le bord reste cohérent d'un point de vue mécanique quantique beaucoup plus longtemps que ce à quoi on s'attendrait.

Bien que les physiciens aient atteint leur objectif, il reste un obstacle à franchir pour que leur phase devienne un outil utile pour les programmeurs quantiques : l'intégrer à l'aspect computationnel de l'informatique quantique afin qu'elle puisse être introduite dans les calculs.

"Nous avons cette application directe et alléchante, mais nous devons trouver un moyen de l'intégrer dans les calculs", a déclaré M. Dumitrescu. "C'est un problème ouvert sur lequel nous travaillons.

 

Auteur: Internet

Info: livesciences.com, Ben Turner, 17 août 2022

[ anions ] [ cations ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-animal

Comment les pieuvres changent de couleur
Le morphing, c'était amusant. Rappelez-vous dans Terminator 2 les effets d'infographie qui permettaient au mauvais Terminator de prendre la forme et le visage de toute personne qu'il rencontrait ? La transformation à l'écran violait les règles non écrites de ce qui était prétendument possible de voir et procurait un plaisir profond et déchirant quelque part le fond du cerveau du spectateur. On pouvait presque sentir nos machines neurales se briser et se recoller les unes aux autres.
Dommage que l'effet soit devenu un cliché. De nos jours, on regarde une annonce télévisée ou un film de science-fiction et une voix intérieure dit : "Ho hum, juste un autre morph." Cependant, il y a un clip vidéo que je montre souvent aux élèves et à mes amis pour leur rappeler, ainsi qu'à moi-même, les effets de la transformation anatomique. Cette vidéo est tellement choquante que la plupart des téléspectateurs ne peuvent bien l'apprécier la première fois qu'ils la voient - alors ils demandent à la voir encore et encore et encore, jusqu'à ce que leur esprit se soit suffisamment adapté pour l'accepter.

La vidéo a été tournée en 1997 par mon ami Roger Hanlon alors qu'il faisait de la plongée sous-marine au large de l'île Grand Cayman. Roger est chercheur au Laboratoire de biologie marine de Woods Hole ; sa spécialité est l'étude des céphalopodes, une famille de créatures marines comprenant les poulpes, les calmars et les seiches. La vidéo est tournée alors qu'il nage vers le haut pour examiner un banal rocher recouvert d'algues en suspension. Soudain, étonnamment, un tiers de la roche et une masse enchevêtrée d'algues se transforme et révèle ce qu'elle est vraiment : les bras ondulants d'une pieuvre blanche brillante. Pour se protéger la créature projette de l'encre sur Roger et s'élance au loin, laissant Roger et le spectateur bouches bées.
La vedette de cette vidéo, Octopus vulgaris, est l'une des nombreuses espèces de céphalopodes capables de se métamorphoser, tout comme la pieuvre mimétique et la seiche géante australienne. Le truc est si bizarre qu'un jour j'ai suivi Roger dans l'un de ses voyages de recherche, juste pour m'assurer qu'il ne maquillait pas ça avec des trucages sophistiqués. À cette époque, j'étais accro aux céphalopodes. Mes amis ont dû s'adapter à mon obsession ; ils se sont habitués à mes fulgurances sur ces créatures. Je ne peux plus me résoudre à manger de calamars. En ce qui me concerne, les céphalopodes sont les créatures intelligentes les plus étranges sur Terre. Elles offrent le meilleur exemple de la façon dont des extraterrestres intelligents (s'ils existent) pourraient ètre vraiment différents de nous, et comment ils pourraient nous narguer avec des indices sur l'avenir potentiel de notre propre espèce.

Le morphing chez les céphalopodes fonctionne un peu de la même façon que dans l'infographie. Deux composantes sont impliquées : un changement dans l'image ou la texture visible sur la surface d'une forme et un changement dans la forme sous-jacente elle-même. Les "pixels" de la peau d'un céphalopode sont des organes appelés chromatophores. Ceux-ci peuvent se dilater et se contracter rapidement, et chacun est rempli d'un pigment d'une couleur particulière. Lorsqu'un signal nerveux provoque l'expansion d'un chromatophore rouge, le "pixel" devient rouge. Une série de mouvements nerveux provoque un déplacement de l'image - une animation - qui apparaît sur la peau du céphalopode. Quant aux formes, une pieuvre peut rapidement disposer ses bras pour en former une grande variété, comme un poisson ou un morceau de corail, et peut même soulever des marques sur sa peau pour ajouter de la texture.
Pourquoi se transformer pareillement ? L'une des raisons est le camouflage. (La pieuvre de la vidéo essaie probablement de se cacher de Roger.) Un autre est pour manger. Un des clips vidéo de Roger montre une seiche géante poursuivant un crabe. La seiche est principalement à corps mou, le crabe à armure. À l'approche de la seiche, le crabe, d'allure médiévale, prend une posture machiste, agitant ses griffes acérées vers le corps vulnérable de son ennemi.

La seiche répond avec une performance psychédélique bizarre et ingénieuse. Des images étranges, des couleurs luxueuses et des vagues successives d'éclairs ondulent et filigranes sur sa peau. C'est si incroyable que même le crabe semble désorienté ; son geste menaçant est remplacé un instant par un autre qui semble exprimer "Heuuuuh ?" C'est à ce moment que la seiche frappe entre les fissures de l'armure.
Elle utilise l'art pour chasser ! Chez certains ingénieurs chercheurs cette même manoeuvre s'appelle "esbroufer". Éblouissez votre financier potentiel avec une démonstration de votre projet, puis foncez avant que la lueur ne s'estompe.
En tant que créatures intelligentes, les céphalopodes sont peut-être les plus "étranges" que nous connaissions ; voyez-les comme une répétition générale pour le jour lointain où nous pourrions rencontrer des ET's intelligents. Les chercheurs sur les céphalopodes adorent partager les dernières nouvelles sur les pieuvres intelligentes ou les histoires émouvantes de seiches qui impliquent souvent des évasions téméraires hors des aquariums. Dans une autre vidéo de Roger, une pieuvre sur un récif corallien traverse une dangereuse étendue ouverte entre les têtes de corail. L'animal prend la posture, le dessin et la coloration d'une tête de corail, puis se tient debout comme sur sur ses orteils en pointe et se déplace lentement en terrain découvert. Les seules choses qui bougent sont les bout des bras ; le reste de l'animal semble immobile. Mais voici la partie la plus intelligente : En eau peu profonde à midi, par une journée ensoleillée et agitée, les ombres intenses et la lumière balayent tout. Non seulement le "rocher en mouvement" les imite, mais il veille à ne pas dépasser la vitesse de ces effets lumineux, pleinement conscient de son apparence dans des conditions changeantes.

En tant que chercheur qui étudie la réalité virtuelle, je peux vous dire exactement quelle émotion m'envahit lorsque je regarde les céphalopodes se transformer : la jalousie. La réalité virtuelle, un environnement informatique et graphique immersif dans lequel un humain peut "entrer" et se transformer en diverses choses, n'est que pâle approximation de l'expérience. Vous pouvez avoir un corps virtuel, ou avatar, et faire des choses comme examiner vos mains ou vous regarder dans un miroir virtuel. D'ailleurs certains des premiers avatars expérimentaux étaient en fait aquatiques, dont un qui permettait à une personne d'habiter le corps d'un homard.

Le problème, c'est que pour se transformer, les humains doivent concevoir des avatars dans les moindres détails à l'avance. Nos outils logiciels ne sont pas encore assez flexibles pour nous permettre, en réalité virtuelle, de nous imaginer sous différentes formes. Pourquoi le voudrions-nous ? Considérez les avantages existants de notre capacité à créer des sons avec notre bouche. Nous pouvons faire de nouveaux bruits et imiter les bruits existants, spontanément et instantanément. Mais quand il s'agit de communication visuelle, nous sommes paralysés. Nous pouvons mimer, nous pouvons apprendre à dessiner et à peindre, ou utiliser des logiciels de conception graphique par ordinateur. Mais nous ne pouvons pas produire des images à la vitesse à laquelle nous pouvons les imaginer.

Nos capacités vocales font partie de ce qui a permis à notre espèce de développer via le langage parlé. De même, notre capacité à dessiner des images - ainsi que les structures cérébrales nécessaires - était pré-adaptative au langage écrit. Supposons que nous ayons la capacité de nous transformer à volonté : Quel genre de langage pourrait rendre cela possible ? Serait-ce la même vieille conversation, ou serions-nous capables de nous "dire" des choses nouvelles les uns aux autres ?

Par exemple, au lieu de dire "J'ai faim ; allons chasser le crabe", vous pourriez simuler votre propre transparence pour que vos amis puissent voir votre estomac vide, ou vous transformer en jeu vidéo sur la chasse au crabe pour que vous et vos compatriotes puissiez vous entraîner un peu avant la chasse réelle. J'appelle ça une communication post symbolique. Certaines personnes pensent que la capacité de morphing ne ferait que vous donner un nouveau dictionnaire qui correspondrait aux mêmes vieilles idées, avec des avatars à la place des mots, alors que d'autres, dont moi, pensent qu'il y aura des différences fondamentales.
Il y a une autre façon d'y penser. Si les céphalopodes évoluent un jour pour devenir des créatures intelligentes et développer des civilisations, que pourraient-elles faire de cette capacité à se transformer ? Serions-nous capables de communiquer avec elles ? Peut-être offrent-elles un substitut utile à la réflexion sur une façon dont les extraterrestres intelligents, où qu'ils soient, pourraient un jour se présenter à nous. En essayant de développer de nouvelles façons de communiquer en utilisant le morphing dans la réalité virtuelle, nous faisons au moins un peu pour nous préparer à cette possibilité. Nous, les humains, pensons beaucoup de nous-mêmes en tant qu'espèce ; nous avons tendance à supposer que la façon dont nous pensons est la seule façon de penser. Peut-être devrions-nous y réfléchir à deux fois.

Auteur: Lanier Jaron

Info: http://discovermagazine.com, April 02, 2006

[ prospective ]

 

Commentaires: 0

Internet

Les effets psychiques du world wide web

Certains chercheurs comparent le "changement cérébral" induit par l'usage des outils informatiques avec le changement climatique. Si les enfants ont gagné des aptitudes en termes de vitesse et d'automatisme, c'est parfois au détriment du raisonnement et de la maîtrise de soi.

De plus en plus de personnes sont rivées à l'écran de leur smartphone ou occupées à photographier tout ce qu'elles croisent... Face à cet usage déferlant de nouveaux outils technologiques, de nombreux chercheurs s'attachent déjà à étudier les modifications éventuellement cérébrales et cognitives susceptibles d'émerger, spécialement chez les plus jeunes. Mieux, ils nous alertent sur ces phénomènes.

C'est le cas notamment, en France, du Pr Olivier Houdé, directeur du laboratoire de psychologie du développement et de l'éducation de l'enfant du CNRS-La Sorbonne, et auteur du livre "Apprendre à résister" (éd. Le Pommier).

S'intéressant à la génération qui a grandi avec les jeux vidéo et les téléphones portables, il affirme que, si ces enfants ont gagné des aptitudes cérébrales en termes de vitesse et d'automatismes, c'est au détriment parfois du raisonnement et de la maîtrise de soi.

Éduquer le cerveau

"Le cerveau reste le même", déclarait-il récemment, "mais ce sont les circuits utilisés qui changent. Face aux écrans, et du coup dans la vie, les natifs du numérique ont une sorte de TGV cérébral, qui va de l'oeil jusqu'au pouce sur l'écran. Ils utilisent surtout une zone du cerveau, le cortex préfrontal, pour améliorer cette rapidité de décision, en lien avec les émotions. Mais cela se fait au détriment d'une autre fonction de cette zone, plus lente, de prise de recul, de synthèse personnelle et de résistance cognitive.

" Aussi le chercheur en appelle-t-il à une éducation qui apprendrait à nos enfants à résister : "Éduquer le cerveau, c'est lui apprendre à résister à sa propre déraison", affirme-t-il. "Un vrai défi pour les sciences cognitives et pour la société d'aujourd'hui."

Le virtuel est donc clairement suspecté de nous atteindre dans le fonctionnement le plus intime de notre être.

Un nouvel "opium du peuple"

Il suffit d'ailleurs d'observer autour de soi les modifications comportementales qu'il entraîne : incapacité de maintenir une conversation ou de rester concentré sur un document ; facilité "brutale" à se déconnecter d'un échange relationnel comme on se débranche d'une machine, etc.

Le philosophe et artiste Hervé Fischer, qui signe l'un des essais les plus intéressants du moment sur "La Pensée magique du Net" (éd. François Bourin), considère lui aussi que si les jeunes sont "les plus vulnérables" à l'aliénation rendue possible par le Net, car ils mesurent leur existence à leur occurrence sur les réseaux sociaux, cela concerne aussi les adultes : "On peut avoir le sentiment qu'on a une vie sociale parce qu'on a des centaines d'amis sur le Net, ou qu'on est très actif et entreprenant parce qu'on échange sans cesse des commentaires et des informations numériques", explique-t-il. "Le retour au réel est alors encore plus difficile. On vit une pseudo-réalisation de soi, virtuelle elle aussi, et la "descente" de ce nouvel "opium du peuple" peut faire très mal à ceux qui ont une existence déjà frustrante sur bien des points." Cette existence qui se mesure et s'expérimente désormais à travers un profil numérique alerte aussi, en Grande-Bretagne, la grande spécialiste de la maladie d'Alzheimer, le Pr Susan Greenfield, qui parle de "changement cérébral" comme on parle de "changement climatique".

Elle s'inquiète des modifications identitaires provoquées par un usage intensif d'internet : "C'est presque comme si un événement n'existe pas tant qu'il n'a pas été posté sur Facebook, Bebo ou YouTube", écrivait-elle récemment dans le Daily Mail. "Ajoutez à cela l'énorme quantité d'informations personnelles désormais consignées sur internet - dates de naissances, de mariages, numéros de téléphone, de comptes bancaires, photos de vacances - et il devient difficile de repérer avec précision les limites de notre individualité. Une seule chose est certaine : ces limites sont en train de s'affaiblir."

Être là

Mais on peut aussi se demander : pourquoi un tel impact ? Pour Hervé Fischer, si internet est aussi "addictif", c'est parce que la société "écranique" réveille nos plus grandes mythologies, dont le rêve de retourner en un seul clic à la matrice collective, et de se perdre alors dans le sentiment océanique d'appartenir à la communauté humaine. "Ce qui compte, c'est d'être là", explique le philosophe. "On poste un tweet et ça y est, on se sent exister." Versants positifs de cette "nouvelle religion" ? "24 heures sur 24, les individus de plus en plus solitaires peuvent, quand ils le veulent, se relier aux autres", observe Hervé Fischer. Et, tout aussi réjouissant, chacun peut gagner en "conscience augmentée", notamment en se promenant de liens en liens pour approfondir ses connaissances.

Désormais, c'est certain, grâce à la Toile, on ne pourra plus dire "qu'on ne savait pas". Le Figaro Smartphone, tablette, etc.

Diminution de la matière grise

Selon les neuroscientifiques Kep Kee Loh et Dr. Ryota Kanai, de l'Université de Sussex, l'usage simultané de téléphones mobiles, ordinateurs et tablettes changerait la structure de nos cerveaux.

Les chercheurs ont constaté une diminution de la densité de la matière grise du cerveau parmi des personnes qui utilisent habituellement et simultanément plusieurs appareils par rapport à des personnes utilisant un seul appareil occasionnellement (publication : "Plos One", septembre 2014).

Interview de Michael Stora, psychologue et psychanalyste, fondateur de l'Observatoire des mondes numériques en sciences humaines (OMNSH) et qui a notamment écrit "Les écrans, ça rend accro..." (Hachette Littératures).

- Selon vous, quel impact majeur ont les nouvelles technologies sur notre psychisme ?

- Je dirais tout ce qui relève du temps. Compressé par l'usage immédiat des smartphones et autres ordinateurs mobiles, celui-ci ne permet plus ni élaboration de la pensée ni digestion des événements. Et l'impatience s'en trouve exacerbée. Ainsi, nous recevons de plus en plus de patients qui demandent à être pris en charge "en urgence". Or, de par notre métier, nous avons appris qu'en réalité - et hors risque suicidaire - il n'y en a pas. Chacun est donc confronté à sa capacité à supporter le manque (quand arrivera la réponse à ce mail, ce texto ?) et se retrouve pris dans la problématique très régressive du nourrisson qui attend le sein.

- En quoi notre capacité de penser s'en trouve-t-elle affectée ?

- Les formats des contenus deviennent si courts, le flux d'informations si incessant que réfléchir devient impossible, car cela demande du temps. Regardez Twitter : son usager ne devient plus qu'un médiateur, il partage rapidement un lien, s'exprime au minimum, on est dans la violence du "sans transition"... Il est évident que l'être humain ne peut traiter tant d'informations, et l'on observe déjà que la dimension analytique s'efface au profit d'une dimension synthétique. Cela semble assez logique : la Toile a été créée par des ingénieurs adeptes d'une pensée binaire, structurée sur le 0 ou le 1 et sans autres ouvertures. Il faudrait vraiment que les sciences humaines soient invitées à participer davantage à ces entreprises, cela permettrait de sortir d'un fonctionnement en boucle où l'on vous repropose sans cesse le même type de produits à consommer par exemple.

- Mais beaucoup parviennent aussi à s'exprimer grâce à Internet ?

- C'est vrai, si l'on regarde Facebook par exemple, le nombre de personnes occupées à remplir leur jauge narcissique est très élevé. Mais il y a de moins en moins de créativité sur la Toile. Auparavant, un certain second degré, qui a pu donner naissance à des sites comme viedemerde.com par exemple, dont la dimension auto-thérapeutique est certaine, dominait. Mais aujourd'hui, la réelle création de soi a disparu. Il s'agit d'être sans arrêt dans la norme, ou dans une version fortement idéalisée de soi. À force de gommer "ce qui fâche", les mauvais côtés de la vie, les efforts ou les frustrations inévitables, on est alors dans un exhibitionnisme de soi très stérile et régressif qui révèle seulement l'immense besoin de chacun d'être valorisé. L'usager souhaite être "liké" (quelqu'un a répondu au message laissé sur Facebook) pour ce qu'il est, pas pour ce qu'il construit, comme le petit enfant à qui l'on répète "qu'il est beau !" sans même qu'il ait produit de dessin.

- Internet rend-il exhibitionniste ?

- Je pense que la Toile ne fait que révéler ce que nous sommes profondément. Regardez comme les internautes qui "commentent" en France sont critiques et râleurs, exactement comme on imagine les Français... Et c'est vrai, j'ai été surpris de constater cet exhibitionnisme fou dans notre pays. Avec les "blacklists", la violence de la désinhibition et des critiques qui laissent peu de possibilité d'échanger, une certaine froideur narcissique l'emporte. Ce que l'on observe, c'est qu'il y a plus d'humains enrôlés dans l'expérience du Web, mais moins d'humanité.

Auteur: Journaldujura.ch

Info: Keystone, 1er mai 2015

[ lecture ] [ historique ] [ évolution ]

 
Mis dans la chaine

Commentaires: 0