Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 29
Temps de recherche: 0.0487s

machine-homme

Meta a dévoilé une intelligence artificielle capable de lire dans vos pensées. En s’appuyant sur les signaux électromagnétiques du cerveau, l’IA peut comprendre les images que vous avez en tête et les reproduire.

Meta concentre désormais ses efforts sur l’intelligence artificielle. Ces derniers mois, les chercheurs du groupe de Mark Zuckerberg ont dévoilé une pléthore d’innovations s’appuyant sur l’IA. Citons notamment Voicebox, une intelligence artificielle capable d’imiter une voix humaine, le modèle de langage Llama 2, ou MusicGen, un outil qui peut produire une musique à la demande.

Le géant de Menlo Park ne compte pas s’arrêter là. Sur son site web, Meta vient de mettre en ligne un rapport consacré à une IA conçue pour décoder ce qu’il se passe dans le cerveau humain. L’intelligence artificielle est en effet capable de comprendre les images qu’un individu a en tête. Par la suite, l’IA va reproduire les images aperçues dans les pensées de celui-ci.

Comment l’IA peut lire dans le cerveau ?

Pour parvenir à cette prouesse, Meta s’appuie sur la magnéto-encéphalographie, ou MEG, une technique d’imagerie cérébrale qui mesure l’activité électromagnétique du cerveau. En collectant "des milliers de mesures d’activité cérébrale" par seconde, le système va "décoder le déploiement des représentations visuelles dans le cerveau". Meta a mis au point un "modèle de décodage" basé sur l’IA pour comprendre les champs magnétiques produits par l’activité neuronale.

Une fois que les données ont été traitées, elles vont être reliées aux représentations visuelles mises au point l’IA en amont. Ces représentations sont générées par un encodeur d’image, qui dispose d’un " riche ensemble " de visuels différents. En d’autres termes, les images déjà disponibles vont être comparées aux images décelées dans le cerveau. C’est là que l’" encodeur cérébral " entre en jeu. Enfin, l’IA va produire une " image plausible " en se basant sur les visuels dans les pensées de la cible. Notez que les visuels sont générés en continu à partir du cerveau, ce qui offre un aperçu unique de ce qu’il se passe dans l’esprit humain.

Dans le cadre de son expérience, l’entreprise a d’abord montré une image, fournie par l’IA, à des bénévoles. En parallèle, une machine MEG scannait les signaux de leur cerveau. Meta a partagé plusieurs exemples des résultats générés dans son rapport. Dans la plupart des cas, le résultat final n’est pas tombé loin de l’image montrée à l’origine. L’IA parvient généralement à reproduire l’objet principal de l’image en s’appuyant sur les ondes et sa bibliothèque de visuels.

" Nos résultats montrent que le MEG peut être utilisé pour déchiffrer, avec une précision d’une milliseconde, la montée des représentations complexes générées dans le cerveau ", résume Meta.

Les limites de l’IA

À ce stade, l’IA doit d’abord être entraînée sur l’activité cérébrale d’un individu avant d’être utilisée pour décrypter des pensées. Le système doit passer par une période de formation, qui va l’habituer à interpréter des ondes cérébrales spécifiques. De la même manière, un modèle linguistique doit être formé sur base d’une montagne de textes avant de pouvoir animer un chatbot.

De plus, rien n’indique que cette technologie, encore à ses balbutiements, puisse permettre de décoder des images qui ne sont pas d’abord traitées par l’IA. Tout en promettant d’autres avancées à l’avenir, Meta estime que sa technologie pourrait permettre de concevoir des " interfaces cerveau-ordinateur non invasives " pour venir en aide aux personnes qui ont perdu la capacité de parler.

Notez qu’il ne s’agit pas de la première fois qu’une IA parvient à lire dans les pensées humaines. Cet été, des chercheurs américains ont dévoilé une IA capable de deviner la musique qu’une personne est en train d’écouter uniquement en collectant les données issues du cerveau. Là encore, les scientifiques se sont appuyés sur les signaux électriques émis par le cerveau. 

Auteur: Internet

Info: https://www.01net.com/, 19 octobre 2023, source : Meta

[ homme-machine ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

dépendance

Trop de stimulis et un cerveau humain incapable d'y répondre : comment le porno devient une véritable addiction
À la fin de l’année 2017, le premier salon de pornographie en réalité virtuelle au Japon a été submergé par le nombre de visiteurs qui se pressaient à l’entrée, dans un pays où un homme sur deux de moins de 30 ans n’a jamais eu de rapport sexuel réel. Les foules de visiteurs s’agglutinant dans les rues dans l’espoir de pénétrer dans le salon ont révélé tout l’attrait que revêt le sexe virtuel hyper-réaliste pour les hommes en prise directe avec la technologie numérique. Il ne fait guère de doute que ces interfaces virtuelles seront le prochain mode de consommation de sexe à l’échelle planétaire.

En voyant les reportages consacrés à ce type d’événements, on se trouve brutalement confronté avec les images saisissantes d’un jeune cadre célibataire japonais en jean et baskets en train de copuler avec un fragment d’effigie de femme en plastique reliée à des capteurs retransmettant ses mouvements à une interface informatique, laquelle projette une représentation idéalisée de sa partenaire dans son casque 3D. On a le sentiment frappant d’une transposition de l’expérience d’Olds et Milner à l’être humain. Avec la consommation de masse du sexe, nous nous retrouvons ainsi dans la même situation qu’un mangeur du paléolithique qui ferait face, brusquement, à l’abondance de nourriture dégorgeant de nos supermarchés et des fast-foods de nos grandes métropoles. Le problème n’est plus la quantité. Le problème est de s’arrêter. Mais les structures profondes de notre cerveau qui fonctionnent à grand renfort de dopamine ne possèdent pas de fonction stop. Le citoyen du troisième millénaire ne découvre le problème que lorsqu’il commence à souffrir de troubles sexuels, de dysphorie ou d’addiction sexuelle, dus à la consommation excessive de sexe virtuel, puisque les troubles de l’érection ont doublé au cours de la dernière décennie, de façon parallèle à l’essor de la pornographie sur Internet.

En 2016 a été publiée la première étude d’imagerie cérébrale sur l’addiction à la pornographie sur Internet. Ce qu’elle montrait était édifiant : non seulement le visionnage des vidéos activait le striatum ventral (où se trouve notamment le fameux noyau accumbens), mais le niveau d’activité de ce striatum permettait de prédire si une personne donnée allait être modérément ou gravement touchée par les symptômes d’addiction à la pornographie sur le Web, comme le caractère envahissant du comportement, l’impossibilité de maîtriser son envie de surfer sur les sites pornographiques, le besoin d’augmenter les doses (phénomène de tolérance), les symptômes de manque en cas d’impossibilité d’y accéder, la perte de sensibilité aux stimulations sexuelles, les dysfonctions érectiles et les conséquences adverses sur le plan relationnel, que ce soit sur le couple ou les relations sociales en général.

Savoir pourquoi notre striatum est incapable de se modérer est une question fondamentale dont vont dépendre certains des grands enjeux de nos sociétés et de notre planète. Car si environ 35 % du trafic Internet est consacré à des visionnages de vidéos pornographiques, cela signifie rien de moins que l’impact de l’appétit sexuel de nos striatums sur la planète Terre est de 150 millions de tonnes de dioxyde de carbone émises dans l’atmosphère chaque année, soit entre un cinquième et un tiers des émissions de gaz à effet de serre dues au trafic aérien. Selon certains analystes comme Anders Andrae, de l’université de Göteborg en Suède, les technologies de la communication pourraient représenter plus de la moitié de la consommation globale d’électricité à l’échelle de la planète en 2030. Sans le savoir, nous sommes comme les rats de James Olds et Peter Milner dans une cage munie d’un levier que nous pouvons actionner sans fin, sans réfléchir au fait que ce geste quotidien prépare une montée des océans qui engloutira des millions d’habitations dans les années à venir.

Auteur: Bohler Sébastien

Info: Internet, critique et extraits du livre de S Bohler, "Le bug humain, Pourquoi notre cerveau nous pousse à détruire la planète et comment l’en empêcher" aux éditions Robert Laffont. https://www.atlantico.fr

[ virtualisation ]

 

Commentaires: 0

Ajouté à la BD par miguel

perceptions

Une première étude d’imagerie cérébrale sur les effets du LSD
"Ces travaux sont aux neurosciences ce que le boson de Higgs a été pour la physique des particules".
Cette déclaration, pour le moins accrocheuse, vient de David Nutt, neuropsychopharmacologue et chercheur sénior de l’étude en question qui vient d’être publiée dans la revue PNAS en mars dernier. Et un peu comme pour le boson de Higgs, les résultats ont confirmé la théorie, à savoir que les modifications d’activité cérébrale qui ont été observées rendent très bien compte de ce qu’un "trip à l’acide" peut provoquer comme état mental !
Le protocole expérimental conçu par l’équipe de Nutt a fait appel à une vingtaine de sujets qui venaient deux journées différentes au laboratoire. Dans un cas le sujet recevait 75 microgrammes de LSD intraveineux, et dans l’autre cas un placebo, c’est-à-dire rien d’autre qu’un liquide physiologique. On a pu ainsi comparer les effets réels du LSD versus toute autre modification (produites par exemple par des attentes, des conditionnements, etc.) chez la même personne.
Le protocole est assez impressionnant en termes d’instruments utilisés pour ne rien manquer aux effets de l’acide lysergique diéthylamide (le nom complet du LSD). Trois techniques complémentaires ont ainsi été utilisées : l’ASL (ou "arterial spin labelling", l’IRMf ou imagerie de résonnance magnétique fonctionnelle, et la magnétoencéphalographie (les deux premières étant des lectures indirectes de l’activité nerveuse basées sur le flux sanguin dans les capillaires cérébraux).
L’analyse des résultats obtenus avec ces différentes techniques combinées a permis de mieux comprendre deux grands types d’effets associés à la prise de LSD : les hallucinations visuelles et le sentiment de dissolution du soi.
Dans le premier cas, les trois techniques utilisées ont mis en évidence une augmentation du débit sanguin dans le cortex visuel, une diminution de la puissance des rythmes alpha, et une beaucoup plus grande connectivité fonctionnelle. Trois modifications dont l’importance était corrélée avec l’intensité des expériences subjectives rapportées par les sujets.
Comme le rapporte l’auteur principal de l’étude, Robin Carhart-Harris, c’est un peu comme si les sujet voyaient, mais avec leurs yeux fermés. Autrement dit, c’est l’activité intrinsèque ou endogène de leur cerveau, leur imagination pourrait-on dire, qui alimente alors fortement le système visuel et non plus le monde extérieur. Et de fait, les scientifiques ont pu observer beaucoup de régions cérébrales (liées à l’audition, l’attention, le mouvement) interagir non seulement avec les régions visuelles mais entre elles sous l’influence du LSD. Il y avait donc cet aspect plus "unifié" du cerveau favorisé par la drogue.
Mais en même temps, il y avait aussi un aspect plus "fragmenté" dans d’autres réseaux cérébraux, preuve de plus qu’une même substance peut avoir différents effets dans différents endroits du cerveau, a fortiori une substance aux effets complexes comme le LSD. La baisse de connectivité a surtout été observée entre deux structures cérébrales, le gyrus parahippocampique et le cortex rétrosplénial (une partie du cortex cingulaire postérieur). Et l’intensité de cette "déconnexion" était corrélée au niveau subjectif à celle de l’impression de dissolution du soi et de l’altération du sens des choses.
Encore une fois ici, l’impression de devenir un avec les autres, avec la nature ou même avec l’univers rapportée par des décennies d’utilisation de cette substance trouve ici un corrélat neuronal intéressant. D’autant plus que ces impressions, qui sont souvent interprétées dans un cadre spirituel ou religieux, semblent être associées à des améliorations du bien-être durant un certain temps après que les effets immédiats de la drogue se soient dissipés.
C’est d’ailleurs l’objet d’une autre étude de la même équipe publiée cette fois en février dernier dans Psychological Medicine, et qui montre qu’une certaine "fluidité cognitive" pourrait être conservée un certain temps après l’utilisation de LSD, ouvrant ainsi la voie à un usage thérapeutique, notamment pour la dépression et la rumination mentale qui lui est associée.

Auteur: Internet

Info: http://www.blog-lecerveau.org, 25 avril 2016

[ cognition ]

 

Commentaires: 0

cognition

Comment le cerveau déforme la réalité temporelle
En 1973 Benjamin Libet de l’université d’état de Californie à San Francisco, dans une série d’expériences fascinantes, a prouvé que la prise de conscience suite à un stimulus sensoriel, (stimulation électrique sur le cerveau) se produit 500 millisecondes (temps neuronal) après le stimulus.
Lors de certaines opérations du cerveau, il a obtenu l’autorisation des patients de réaliser une expérience, qui consistait à stimuler avec des électrodes la zone du cerveau à l’air libre, (la boite crânienne étant ouverte ) qui correspondait à la zone d’activité d’une piqûre au doigt. Le sujet réveillé déclare après 500 millisecondes sentir la piqûre.
C’est-à-dire que la plupart des expériences conscientes, requièrent une période minimale substantielle d’activation corticale de 350 à 500 millisecondes pour accéder à la conscience.
Ben Libet a profité de certaines opérations du cerveau où celui-ci est ouvert et où le patient est réveillé pour stimuler directement le cerveau et observer les réactions du patient. En fait, il stimulait d’abord un doigt (avec une petite décharge électrique), puis il mesurait le temps pour que le sujet ressente une piqûre au doigt. Ça donnait 25 millisecondes.
Ensuite, il stimulait directement le cerveau sur la zone correspondant à la main. Le sujet ressent bien une piqûre à la main (et non pas au cerveau), mais seulement au bout de 500 millisecondes. De plus, pour que le sujet ressente une piqûre, il fallait envoyer un train de choc, et non pas un choc unique.
Ben Libet a ensuite combiné les deux expériences : il a d’abord stimulé le doigt, puis 200 ms plus tard il stimule le cerveau avec un train de chocs. Le sujet ressent une seule piqûre, 700 ms après la stimulation du doigt. Comme les chocs électriques fait au cerveau sont plus faibles que ceux faits au doigt, et comme le sujet ne ressent qu’une faible piqûre, on sait que la piqûre qu’il a ressenti après 700 ms était la stimulation du cerveau. Celle effectuée sur le doigt est donc passée à la trappe.
Puis Libet recommence (le doigt, puis le cerveau), mais en laissant cette fois un délai de 500 ms entre les deux stimulations. Toujours rien : le sujet ne perçoit qu’une seule piqûre, 1 seconde après la première stimulation (c’est-à-dire 500 ms après la stimulation du cerveau).
Libet recommence une dernière fois, mais en laissant plus de 500 ms entre les deux stimulations. Là, le patient ressent bien 2 piqûres, la première 25 ms après la première stimulation (au doigt), et la deuxième 500 ms après la deuxième stimulation (au cerveau).
Libet a tiré plusieurs conclusions de ces expériences :
1- L’influx nerveux met 25 ms pour parvenir du doigt au cerveau.
2- Il faut 500 ms pour être conscient de quelque chose, puisque c’est le délai entre la stimulation du cerveau et la sensation afférente.
3- Une stimulation au cerveau moins de 500 ms après une première stimulation au doigt nous empêche d’être conscients d’une piqûre dont nous serions normalement conscients au bout de 25 ms.
Évidemment ça pose un problème, puisque le temps d’élaboration d’une sensation consciente est bien de 500 ms (475 ms en fait, puisqu’il faut compter le temps que l’influx nerveux arrive du doigt au cerveau). Comment se fait-il que dans la réalité, nous soyons conscients d’un stimuli après 25 ms seulement ? La solution que propose Libet est incroyable : il suggère ni plus ni moins que la conscience antidate la sensation en retournant en arrière dans le temps de 475 ms.
Cette expérience est la confirmation scientifique, que la conscience volontaire arrive beaucoup trop tard pour être à l’origine de l’action.
Et si le cerveau peut initier nos mouvements volontaires, avant même l’apparition d’une volonté consciente de faire ces mouvements, quel rôle reste-t-il pour la conscience?
Les expériences de Libet soulignent que tout ce qui se produit est d’abord inconscient, avant de devenir conscient.
Cette expérience a été vérifiée par d’autres scientifiques, et notamment Patrick Haggard qui travaille à l’Institut des neurosciences cognitives de l’University Collège de Londres, où Il dirige une équipe d’une dizaine de chercheurs.

Auteur: Internet

Info: http://www.neotrouve.com/?p=4496, 18 octobre 2013. Le livre de Benjamin Libet écrit trois ans avant sa mort en 2007 et traduit pour les éditions Dervy sous le titre L’esprit au-delà des neurones, témoigne d’une vie de recherche qui aura influencé autant les neurosciences que nourri nombre de débats en philosophie. D’ailleurs l’ouvrage, rétrospective des travaux et des découvertes du chercheur, porte un sous-titre programmatique qui atteste de cette double-entrée philosophique et scientifique : Une exploration de la conscience et de la liberté. Les expériences de Libet montrent un décalage de quelques dixièmes de seconde entre l’activité cérébrale et l’accès des sujets d’expérience à leurs propres états subjectifs, états qui correspondent subjectivement à cette activité neuronale. Le décalage temporel constaté n’est donc pas celui qui a lieu entre des états cérébraux et les états mentaux correspondant, mais celui qui a lieu entre les états cérébraux et la conscience d’ordre supérieur qui se porte sur les états mentaux correspondant. Compris de cette façon, un tel décalage ne semble t-il pas logique, conforme à la différence qu’il peut y avoir entre conscience immédiate et conscience réflexive, d’ordre supérieur ?

[ neurosciences ]

 

Commentaires: 0

pression industrielle

Ainsi, depuis un an ou deux, je me pose des questions. Je ne les pose pas seulement à moi-même. Je les pose aussi à des collègues et, tout particulièrement depuis plusieurs mois, six mois peut-être, je profite de toutes les occasions pour rencontrer des scientifiques, que ce soit dans les discussions publiques comme celle-ci ou en privé, pour soulever ces questions. En particulier : "Pourquoi faisons-nous de la recherche scientifique ?" Une question qui est pratiquement la même peut-être, à longue échéance du moins, que la question : "Allons-nous continuer la recherche scientifique ?"

La chose extraordinaire est de voir à quel point mes collègues sont incapables de répondre à cette question. En fait, pour la plupart d’entre eux, cette question est simplement si étrange, si extraordinaire, qu’ils se refusent même de l’envisager. En tout cas, ils hésitent énormément à donner une réponse quelle qu’elle soit. Lorsqu’on parvient à arracher une réponse dans les discussions publiques ou privées, ce qu’on entend généralement c’est, par ordre de fréquence des réponses : "La recherche scientifique ? J’en fais parce que ça me fait bien plaisir, parce que j’y trouve certaines satisfactions intellectuelles." Parfois, les gens disent : "Je fais de la recherche scientifique parce qu’il faut bien vivre, parce que je suis payé pour cela."

Mais tout ceci, finalement ne répond pas à la question : "A quoi sert socialement la recherche scientifique ?" Parce que, si elle n’avait comme but que de procurer du plaisir, disons à une poignée de mathématiciens ou d’autres scientifiques, sans doute la société hésiterait à y investir des fonds considérables – en mathématiques ils ne sont pas très considérables, mais dans les autres sciences, ils peuvent l’être. La société hésiterait aussi sans doute à payer tribut à ce type d’activité ; tandis qu’elle est assez muette sur des activités qui demandent peut-être autant d’efforts, mais d’un autre type, comme de jouer aux billes ou des choses de ce goût-là. On peut développer à l’extrême certaines facilités, certaines facultés techniques, qu’elles soient intellectuelles, manuelles ou autres, mais pourquoi y a-t-il cette valorisation de la recherche scientifique ? C’est une question qui mérite d’être posée.

En parlant avec beaucoup de mes collègues, je me suis aperçu au cours de l’année dernière qu’en fait cette satisfaction que les scientifiques sont censés retirer de l’exercice de leur profession chérie, c’est un plaisir… qui n’est pas un plaisir pour tout le monde ! Je me suis aperçu avec stupéfaction que pour la plupart des scientifiques, la recherche scientifique était ressentie comme une contrainte, comme une servitude. Faire de la recherche scientifique, c’est une question de vie ou de mort en tant que membre considéré de la communauté scientifique. La recherche scientifique est un impératif pour obtenir un emploi, lorsqu’on s’est engagé dans cette voie sans savoir d’ailleurs très bien à quoi elle correspondait. Une fois qu’on a son boulot, c’est un impératif pour arriver à monter en grade. Une fois qu’on est monté en grade, à supposer même qu’on soit arrivé au grade supérieur, c’est un impératif pour être considéré comme étant dans la course. On s’attend à ce que vous produisiez. Mais pourquoi y a-t-il cette valorisation de la recherche scientifique ? C’est une question qui mérite d’être posée.

[...]

Un autre aspect de ce problème qui dépasse les limites de la communauté scientifique, de l’ensemble des scientifiques, c’est le fait que ces hautes voltiges de la pensée humaine se font aux dépens de l’ensemble de la population qui est dépossédée de tout savoir. En ce sens que, dans l’idéologie dominante de notre société, le seul savoir véritable est le savoir scientifique, la connaissance scientifique, qui est l’apanage sur la planète de quelques millions de personnes, peut-être une personne sur mille. Tous les autres sont censés "ne pas connaître" et, en fait, quand on parle avec eux, ils ont bien l’impression de "ne pas connaître". Ceux qui connaissent sont ceux qui sont là-haut, dans les hautes sciences : les mathématiciens, les scientifiques, les très calés, etc. Donc, je pense qu’il y a pas mal de commentaires critiques à faire sur ce plaisir que nous retourne la science et sur ses à-côtés. Ce plaisir est une sorte de justification idéologique d’un certain cours que la société humaine est en train de prendre et, à ce titre, je pense même que la science la plus désintéressée qui se fait dans le contexte actuel, et même la plus éloignée de l’application pratique, a un impact extrêmement négatif.

Auteur: Grothendieck Alexandre

Info: Allons-nous continuer la recherche ? 27 janvier 1972

[ éthique ] [ intérêts financiers ] [ discours dominant ] [ déshumanisante ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

covid-19

De façon concrète, dans nos vies, la "smart planet" sans contact - le monde-machine - a franchi des seuils en 2020 :

Bond en avant du commerce électronique et des livraisons à domicile. L’épidémie a augmenté de 183 milliards les dépenses dans l’e-commerce mondial. L’e-commerce représente désormais 13,4 % du commerce de détail en France, contre 9,8 % en 2019. Selon Romain Boisson, patron de Visa France, "l’e-commerce s’est ancré dans les habitudes de consommation des Français et s’impose désormais […] pour tous les commerçants, quelle que soit la taille de leur entreprise". Deliveroo vaut 7 milliards de dollars en bourse. Les grandes sociétés de transport/logistique (DHL, UPS, FedEx, etc.) ont réalisé un chiffre d’affaires de 300 milliards de dollars en 2020. Le chiffre d’affaires d’Amazon a augmenté de 38 % en 2020 pour atteindre 320 milliards d’euros. C’est à l’"Amazon academy" que l’État français, via la Banque publique d’investissement, confie la formation des PME pour leur mettre le pied à l’Internet. Nom du programme : l’Accélérateur du numérique.

Adoption du télétravail. Cinq millions de Français ont télétravaillé pendant le premier confinement et 60 % des salariés veulent continuer après la crise. Moins de locaux, plus de télécommunications. Le nombre d’abonnés à la fibre chez Orange a bondi de 50 % : "Jamais on n’a autant câblé les Français qu’en 2020". Boom des applications de visioconférence et autres "outils collaboratifs" en ligne. Microsoft Teams enregistre un record avec 44 millions d’utilisateurs quotidiens. Les ventes d’ordinateurs connaissent la plus forte croissance annuelle (+ 4,8 %) depuis dix ans dans le monde. Au tribunal administratif de Grenoble, "le tout numérique a amorti la baisse d’activité". De quoi tenir l’objectif des services publics "100 % dématérialisés" fixé par la plan "Action publique 2022".

Invasion du télé-enseignement. Invention des cours "en distanciel" y compris pour les apprentis, grâce au "learning management system". L’école de commerce de Grenoble organise ses "Portes ouvertes online" en janvier 2021. La ministre de l’Enseignement supérieur, Frédérique Vidal, voit dans l’épidémie "une opportunité de façonner l’université numérique de demain". Envol inespéré pour le "e-learning et les ed-tech", le plus profitable des "marchés porteurs" identifiés en février 2020 par le cabinet Roland Berger, avec 6000 milliards de dollars en 2018. Parmi les "verrous à lever", celui-ci déplorait "la complexité́ des processus d’accès au marché́ scolaire qui agit comme une barrière à l’entrée". Voilà un verrou forcé par le virus. Le moindre prétexte renvoie désormais les élèves derrière leur écran, comme l’ont constaté ceux des Yvelines, assignés "en distanciel" pour une chute de neige le 10 février 2021. #Restezchezvous est entré dans les mœurs.

Ruée sur les loisirs en ligne. 36 % de temps d’écran en plus par jour pour les Français, plus une heure de télé supplémentaire. Plus de 2,6 milliards de personnes utilisent quotidiennement Facebook, WhatsApp et Instagram, soit 15 % de plus que fin 201928. Netflix et le jeu vidéo, grands gagnants du confinement. Lequel a "accéléré le processus d’une culture de la sédentarité plus poussée, notamment la place des écrans", alerte David Thivel, membre du conseil scientifique de l’Observatoire national de l’activité́ physique et de la sédentarité́ (il y a des observatoires pour tout). Les Français ont pris en moyenne 3 kg en 2020.

Décollage de la télémédecine. 28 % de téléconsultations en avril 2020, contre 0,1 % avant la pandémie. 19 millions de téléconsultations remboursées par la Sécurité sociale en 2020. Les start up de la santé numérique (dites "healthtech") lèvent 8,2 milliards de dollars au premier trimestre 2020, un record30. Selon Stanislas Niox-Chateau, le patron de Doctolib, "une fois l’épidémie de coronavirus passée, entre 15 % et 20 % des consultations médicales se feront à distance en France".

[...]

Invasion de la monnaie virtuelle. Les Français délaissent le cash par peur de la contamination. Les retraits de liquide ont chuté de 50 % en volume pendant le premier confinement, au profit du paiement "sans contact" (dont l’Autorité bancaire européenne a relevé le plafond à 50 €), qui bondit de 65 %. Les réfractaires ont "sauté le pas, et il n’y aura pas de retour en arrière", selon Pierre-Antoine Vacheron, directeur général de Natixis Payments. Au fait, le nombre de distributeurs de billets diminue en France depuis 2015. Ça va s’accélérer. Avec l’e-commerce et le "click & collect", le consommateur paie désormais en ligne. "Les Français s’y habituent", constate le même expert. Ou plutôt, on y habitue les Français. On s’est vu refuser un chèque au motif qu’il faudrait toucher notre carte d’identité pour l’encaisser. [...]

Effet-cliquet : on ne revient pas en arrière quand les technologies ont imposé de nouvelles habitudes. L’offre a créé la demande. De réunions Zoom en concerts virtuels, de cours sur Internet en achats en ligne, de cyber-démarches administratives en téléconsultations médicales, nous devenons des Smartiens, cette espèce qui ne survit que connectée à la Machinerie générale. Voyez la gratitude des confinés connectés – "comment aurions-nous fait sans Internet ?" - révélant toute honte bue leur dépendance Si notre vie tient à un câble, la sélection technologique élimine ceux qui refusent ou n’ont pas accès à la connexion universelle. Seuls restent les adaptés, les connectés, vaccinés, livrés et monitorés par la Machine. Le petit commerce ne survit pas sans mise en ligne, c’est-à-dire sans supprimer ce qui fait le petit commerce. Il faut choisir : disparaître ou disparaître.

Auteur: PMO Pièces et main-d'oeuvre

Info: Dans "Le règne machinal", éditions Service compris, 2021, pages 65 à 70

[ transition technologique ] [ transformations ] [ conséquences ] [ accélération ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par Coli Masson

coévolution bio-linguistique

Cerveau humain, langage et culture matérielle : Quand archéologues et neurobiologistes coopèrent.

Ce sont Chris Renfrew, Chris Frith et Lambros Malafouris, qui ont souligné cette intrication. (in The Sapient Mind, sous-titré Archaeology meets neuroscience - eds, 2009)

- Les patterns observés concernant l’activation [cérébrale] et la superposition avec les circuits du langage suggèrent que la fabrication d’outils et le langage ont une base commune dans une aptitude humaine plus générale à une action complexe et finalisée. Ces résultats sont compatibles avec des hypothèses coévolutionnaires associant l’émergence du langage, la fabrication d’outils, la latéralisation fonctionnelle à l’échelle d’une population et l’expansion du cortex associatif dans l’évolution humaine. (D. Stout & al., “Neural correlates of Early Stone Age toolmaking : technology, language and cognition in human evolution”. 2009 : 1) 

- Les développements récents de l’imagerie cérébrale révèlent des bases communes aux dispositions sociales des hommes et des primates les plus évolués

- L’accroissement des liens sociaux se reflète dans l’accroissement du volume du cerveau, et au moment où l’espèce humaine se dissémine sur le globe et où les liens sociaux risquent ainsi de se déliter, c’est la diffusion d’une même culture matérielle qui va maintenir le lien que l’éloignement géographique fragilise. (Fiona COWARD & Clive GAMBLE “Big brains, small world : material culture and the evolution of mind” 2009) 

Les modifications de l’expression des gènes gouvernant le développement cortical au cours de l’évolution des mammifères ont fourni les conditions à la fois d’un accroissement de taille considérable et d’un retard dans la maturation du cerveau, qui a conféré une influence déterminante aux perceptions, aux actions, à l’apprentissage pour la formation des spécialisations corticales. En même temps, de nouvelles régions ont vu le jour dans le cortex, et de nouvelles connexions se sont mises en place avec les aires primaires, sensorielles et motrices. (Philippe Vernier, 2005 : “Évolution du cerveau et émergence du langage”. - Références : Talmy GIVÓN, Functionalism and Grammar (1995), dernier chapitre : “The co-evolution of language and brain” - Terrence DEACON, The symbolic Species, sous-titré : The co-evolution of Language and Brain 1997 - Ray JACKENDOFF Foundations of Language, sous-titré Brain, Meaning, Grammar, Evolution 2002

- Alors que Vernier ne mentionne que l’évolution des aires corticales, K. Gibson suit de son côté la voie ‘subcorticale’ ouverte par Lieberman (2000) et insiste sur les zones centrales du cerveau également impliquées dans l’administration de la parole et du langage. Kathleen GIBSON (“Not the neocortex alone : other brain structures also contribute to speech and language”, 2013)

Trois manières pour les organismes de s’adapter à des fins évolutives.

(a) Le cas le plus simple est l’évolution génétique, quand la sélection naturelle agit sur les variétés dans une population, sélectionnant au détriment des allèles qui délivrent la moindre convenance (fit) avec l’environnement.

(b) La seconde voie est celle de l’utilisation de la plasticité phénotypique d’un génotype.

(c) La troisième voie exploite des systèmes et des organes qui ont évolué pour s’adapter à des environnements en évolution rapide et qui ont également une assise génétique - p.158. (S. Számadó / E. Szathmáry, “Evolutionary biological foundations of the origin of language : the coevolution of language and brain” 2013

Leur conclusion :

1) Les variantes linguistiques aisées à apprendre et à retenir sont favorisées en termes d’évolution culturelle et donc se répandent plus vite dans une population donnée ;

2) Les cerveaux plus aptes à assimiler les variétés et le changement linguistique offrent des avantages biologiques adaptatifs à leurs porteurs ; donc les gènes responsables des différences adaptatives vont se répandre dans la population.

3) En conséquence, les langues entrent en connexion neuronale avec les besoins du cerveau humain, et les cerveaux s’adaptent à l’apprentissage et au traitement linguistiques. Si bien que les humains peuvent effectuer une foule d’activités qui tirent profit d’un usage plus efficace de la langue (coopération, utilisation d’outils, maintenance des traditions, etc.)

L’évolution de la parole et l'ingénierie neuromimétique

Entreprises de modélisation et de simulation informatique des processus dont on présume qu’ils ont piloté l’émergence et l’évolution du langage.

- L’un des arguments en faveur des approches computationnelles et robotiques de l’évolution du langage est leur nature interdisciplinaire : Cela permet un dialogue direct avec des discipines empriques concernées par le langage et la cognition, telles que les neurosciences cognitives, la psychologie, la linguistique cognitive, la primatologie et l’anthropologie (…). L’ajout de contraintes aux modèles robotiques sur la base de données empiriques améliore aussi l’aptitude de la robotique et des modèles calculatoires pour générer des prédictions basées sur des théories descriptives, lesquelles peuvent être à leur tour validées ou invalidées par de nouvelles études empiriques et modélisatrices (…).” (références : Simon KIRBY, Function, selection, and innateness – The emergence of linguistic universals, 1999. Pierre-Yves OUDAYER automate de simulation de l’origine de la parole : Self-organization in the evolution of speech 2006. Angelo CANGELOSI, “Robotics and embodied agent modelling of the evolution of language” 2013 

Cerveau des primates et mutations génétiques susceptibles d'avoir facilité l'émergence du langage chez les primates humains

Hypothèse mutationniste :

- “Il est extrêmement improbable que le langage humain ait résulté de la simple adaptation du système de communication d’une espèce antérieure. Rien de ce que nous savons de la neuro-anatomie humaine pertinente pour le langage en rapport avec le complexe Aire de Broca-POT [Jonction pariétale-occipitale temporale dans l’anatomie du cerveau humain] ne nous inciterait à imaginer des homologues dans les structures cérébrales directement pertinentes pour les systèmes de communication des singes [apes and monkeys]. (Wendy Wilkins, Towards an evolutionary biology of language through comparative neuroanatomy, 2013 : 206)

Hypothèse adaptationniste :

- En fin de compte, plus on cherche des continuités entre les primates humains et non humains, non seulement en matière de latéralisation mais dans des secteurs décisifs de l’évolution cognitive, plus on trouve de similarités. A notre avis, on peut présumer clairement au minimum que le langage et la parole ne sont pas des conditions nécessaires pour que s’exprime la spécialisation hémisphérique chez les primates non-humains et il est temps de considérer d’autres variables ou facteurs susceptibles d’avoir contribué à la différenciation hémisphérique entre individus et entre espèces. (J. Vauclair / H. Cochet, “Speech-gesture links in the ontogeny and phylogeny of gestural communication”, 2013 : 196)

Consensus et dissensus

Plus personne ne cherche une explication simpliste (ni le ‘tout génétique’, ni le ‘tout social’) et tous reconnaissent l’importance de la dimension épigénétique, prenant en compte l’environnement en expansion et donc diversifié des hominidés qui se sont engagés dans des productions symboliques vocales en marge de leurs productions gestuelles.

Questions centrales actuellement sans réponse consensuelle :

- La faculté de langage est-elle issue du ‘GESTE’ ou du ‘CRI’ ? La réponse d’Arbib vise actuellement à intégrer les deux hypothèses par une boucle rétroactive.

- Le langage est-il apparu au terme de PROCESSUS ADAPTATIFS, sans nécessaire intervention de mutations génétiques modifiant les bases organiques ou à la suite de mutations et par détournement (exaptation) de mécanismes mis en place pour satisfaire d’autres besoins ? 

Essai de compromis :

Schéma en trois phases pour les traits dominants de l’évolution de la parole humaine :

a) L’évolution de la bipédie devenue obligatoire chez Homo erectus a entraîné les effets EXAPTATIFS de la descente du larynx et la perte des air sacs ainsi que le hiatus intervocalis,

b) Durant le pleistocène moyen le contrôle de la respiration pour la parole humaine a évolué comme une ADAPTATION spécifique à la parole, et

c) Avec l’évolution des humains modernes , les proportions idéales du tractus vocal (1:1) ont été atteintes par ADAPTATION ”. (Ann MACLARNON, "The anatomical and physiological basis of human speech production : adaptations and exaptations" 2013 : 235)

Auteur: François Jacques

Info: Fin de sa conférence du 11 décembre 2014. Traductions de l'anglais par FJ

[ interdisciplinarité ] [ sémiose ] [ état des lieux ] [ phylogénétique ] [ mémétique ] [ proto-phonation ]

 

Commentaires: 0

Ajouté à la BD par miguel

tour d'horizon de l'IA

Intelligence artificielle symbolique et machine learning, l’essor des technologies disruptives

Définie par le parlement Européen comme la " reproduction des comportements liés aux humains, tels que le raisonnement, la planification et la créativité ", l’intelligence artificielle s’initie de façon spectaculaire dans nos vies. Théorisée au milieu des années 50, plusieurs approches technologiques coexistent telles que l’approche machine learning dite statistique basée sur l’apprentissage automatique, ou l’approche symbolique basée sur l’interprétation et la manipulation des symboles. Mais comment se différencient ces approches ? Et pour quels usages ?

L’intelligence artificielle, une histoire ancienne

Entre les années 1948 et 1966, l’Intelligence Artificielle a connu un essor rapide, stimulé par des financements importants du gouvernement américain pour des projets de recherche sur l’IA, notamment en linguistique. Des progrès significatifs ont été réalisés dans la résolution de problèmes de logique symbolique, mais la capacité de l’IA à traiter des données complexes et imprécises était encore limitée.

A la fin des années 70, plus précisément lors du deuxième “été de l’IA” entre 1978 et 1987,  l’IA connaît un regain d’intérêt. Les chercheurs ont commencé à explorer de nouvelles approches, notamment l’utilisation de réseaux neuronaux et de systèmes experts. Les réseaux neuronaux sont des modèles de traitement de l’information inspirés par le fonctionnement du cerveau humain, tandis que les systèmes experts sont des programmes informatiques qui simulent l’expertise humaine dans un domaine spécifique.

Il faudra attendre la fin des années 90 pour voir un renouveau de ces domaines scientifiques, stimulé par des avancées majeures dans le traitement des données et les progrès de l’apprentissage automatique. C’est d’ailleurs dans cette période qu’une IA, Deepblue, gagne contre le champion mondial Garry Kasparov aux échecs.$

Au cours des dernières années, cette technologie a connu une croissance exponentielle, stimulée par des progrès majeurs dans le deep learning, la robotique ou la compréhension du langage naturel (NLU). L’IA est maintenant utilisée dans un large éventail de domaines, notamment la médecine, l’agriculture, l’industrie et les services. C’est aujourd’hui un moteur clé de l’innovation et de la transformation de notre monde, accentué par l’essor des generative AIs. 

Parmi ces innovations, deux grandes approches en intelligence artificielle sont aujourd’hui utilisées : 

1 - Le Machine Learning : qui est un système d’apprentissage automatique basé sur l’exploitation de données, imitant un réseau neuronal

2 - L’IA Symbolique : qui se base sur un système d’exploitation de " symboles ”, ce qui inspire des technologies comme le “système expert” basé sur une suite de règles par exemple.

Mais comment fonctionnent ces deux approches et quels sont leurs avantages et leurs inconvénients ? Quels sont leurs champs d’application ? Peuvent-ils être complémentaires ?

Le machine learning

Le Machine Learning est le courant le plus populaire ces dernières années, il est notamment à l’origine de ChatGPT ou bien MidJourney, qui font beaucoup parler d’eux ces derniers temps. Le Machine Learning (ML) est une famille de méthodes d’apprentissage automatique qui permet aux ordinateurs d’apprendre à partir de données, sans être explicitement programmés. En utilisant des algorithmes, le ML permet aux ordinateurs de comprendre les structures et les relations dans les données et de les utiliser pour prendre des décisions.

Le ML consiste à entraîner des modèles informatiques sur de vastes ensembles de données. Ces modèles sont des algorithmes auto apprenant se basant sur des échantillons de données, tout en déterminant des schémas et des relations/corrélations entre elles. Le processus d’entraînement consiste à fournir à l’algorithme des données étiquetées, c’est-à-dire des données qui ont déjà été classifiées ou étiquetées pour leur attribuer une signification. L’algorithme apprend ensuite à associer les caractéristiques des données étiquetées aux catégories définies en amont. Il existe cependant une approche non-supervisée qui consiste à découvrir ce que sont les étiquettes elles-mêmes (ex: tâche de clustering).

Traditionnellement, le machine learning se divise en 4 sous-catégories : 

Apprentissage supervisé : 

Les ensembles de données sont étiquetés, ce qui permet à l’algorithme de trouver des corrélations et des relations entre les caractéristiques des données et les étiquettes correspondantes. 

Apprentissage non supervisé : 

Les ensembles de données ne sont pas étiquetés et l’algorithme doit découvrir les étiquettes par lui-même. 

Apprentissage semi-supervisé : 

L’algorithme utilise un mélange de données étiquetées et non étiquetées pour l’entraînement.

Apprentissage par renforcement : 

L’algorithme apprend à prendre des décisions en interagissant avec son environnement. Il reçoit des récompenses ou des pénalités pour chaque action, ce qui lui permet d’ajuster sa stratégie pour maximiser sa récompense globale.

Un exemple d’application du Machine Learning est la reconnaissance d’images. Des modèles d’apprentissages profonds sont entraînés sur des millions d’images pour apprendre à reconnaître des objets, des personnes, des animaux, etc. Un autre exemple est la prédiction de la demande dans le commerce de détail, où des modèles sont entraînés sur des données de ventes passées pour prédire les ventes futures.

Quels sont les avantages ? 

Étant entraîné sur un vaste corpus de données, le ML permet de prédire des tendances en fonction de données.  

- Le machine learning offre la capacité de détecter des tendances and des modèles dans les données qui peuvent échapper à l’observation humaine.

- Une fois configuré, le machine learning peut fonctionner de manière autonome, sans l’intervention humaine. Par exemple, dans le domaine de la cybersécurité, il peut surveiller en permanence le trafic réseau pour identifier les anomalies.

- Les résultats obtenus par le machine learning peuvent s’affiner et s’améliorer avec le temps, car l’algorithme peut apprendre de nouvelles informations et ajuster ses prédictions en conséquence.

- Le machine learning est capable de traiter des volumes massifs et variés de données, même dans des environnements dynamiques et complexes.

L’intelligence artificielle symbolique

L’IA symbolique est une autre approche de l’intelligence artificielle. Elle utilise des symboles and des règles de traitement de l’information pour effectuer des tâches. Les symboles peuvent être des concepts, des objets, des relations, etc. Les règles peuvent être des règles de déduction, des règles de production, des règles d’inférence…etc.

Un exemple d’application de l’IA symbolique est le système expert. Un système expert est un programme informatique qui utilise des règles de déduction pour résoudre des problèmes dans un domaine spécifique, comme le diagnostic médical ou l’aide à la décision en entreprise. Un autre exemple est la traduction automatique basée sur des règles, les règles de grammaire et de syntaxe sont utilisées pour traduire un texte d’une langue à une autre.

Quelques exemples d’usages de l’IA symbolique :

La traduction

L’IA symbolique a été utilisée pour développer des systèmes de traduction automatique basés sur des règles. Ces systèmes utilisent des règles de grammaire et de syntaxe pour convertir un texte d’une langue à une autre. Par exemple, le système SYSTRAN, développé dans les années 1960, est un des premiers systèmes de traduction automatique basé sur des règles. Ce type de système se distingue des approches basées sur le Machine Learning, comme Google Translate, qui utilisent des modèles statistiques pour apprendre à traduire des textes à partir de corpus bilingues.

Le raisonnement logique

L’IA symbolique est également utilisée pour développer des systèmes capables de raisonnement logique, en exploitant des règles et des connaissances déclaratives pour résoudre des problèmes complexes. Par exemple, les systèmes d’aide à la décision basés sur des règles peuvent être utilisés dans des domaines tels que la finance, l’assurance ou la logistique, pour aider les entreprises à prendre des décisions éclairées. Un exemple concret est le système MYCIN, développé dans les années 1970 pour aider les médecins à diagnostiquer des infections bactériennes et à prescrire des antibiotiques adaptés.

L’analyse de textes

L’IA symbolique peut être utilisée pour l’analyse de textes, en exploitant des règles et des connaissances linguistiques pour extraire des informations pertinentes à partir de documents. Par exemple, les systèmes d’extraction d’information basés sur des règles peuvent être utilisés pour identifier des entités nommées (noms de personnes, d’organisations, de lieux, etc.) et des relations entre ces entités dans des textes. Un exemple d’application est l’analyse et la catégorisation des messages entrants pour les entreprises, cœur de métier de Golem.ai avec la solution InboxCare.

Les avantages de l’IA symbolique 

L’IA symbolique est une approche qui utilise des symboles, et parfois des " règles” basées sur des connaissances, qui comporte plusieurs avantages :

- Explicablilité : Les décisions prises par les systèmes d’IA symbolique sont explicites et peuvent être expliquées en fonction des règles logiques et des connaissances déclaratives utilisées par le système. Cette transparence peut être essentielle dans des applications critiques, comme la médecine ou la défense.

- Frugalité : Contrairement au Machine Learning, l’IA symbolique ne nécessite pas d’entraînement, ce qui la rend moins gourmande en énergie à la fois lors de la conception et de l’utilisation.

- Adaptabilité : Les systèmes d’IA symbolique peuvent être facilement adaptés à de nouveaux domaines en ajoutant de nouvelles règles logiques et connaissances déclaratives à leurs bases de connaissances existantes, leurs permettant de s’adapter rapidement à de nouvelles situations.

L’intelligence artificielle hybride ou le neuro-symbolique 

Les systèmes hybrides combinent les avantages de l’IA symbolique et du Machine Learning en utilisant une approche mixte. Dans ce type de système, l’IA symbolique est utilisée pour représenter les connaissances et les règles logiques dans un domaine spécifique. Les techniques de Machine Learning sont ensuite utilisées pour améliorer les performances de l’IA symbolique en utilisant des ensembles de données pour apprendre des modèles de décision plus précis et plus flexibles. Mais nous pouvons également voir d’autres articulations comme la taxonomie de Kautz par exemple.

L’IA symbolique est souvent utilisée dans des domaines où il est important de comprendre et de contrôler la façon dont les décisions sont prises, comme la médecine, la finance ou la sécurité. En revanche, le Machine Learning est souvent utilisé pour des tâches de classification ou de prédiction à grande échelle, telles que la reconnaissance de voix ou d’image, ou pour détecter des modèles dans des données massives.

En combinant les deux approches, les systèmes hybrides peuvent bénéficier de la compréhensibilité et de la fiabilité de l’IA symbolique, tout en utilisant la flexibilité et la capacité de traitement massif de données du Machine Learning pour améliorer la performance des décisions. Ces systèmes hybrides peuvent également offrir une plus grande précision et un temps de réponse plus rapide que l’une ou l’autre approche utilisée seule.

Que retenir de ces deux approches ?

L’Intelligence Artificielle est en constante évolution et transforme de nombreux secteurs d’activité. Les deux approches principales de l’IA ont leurs avantages et inconvénients et peuvent être complémentaires. Il est donc crucial pour les entreprises de comprendre ces technologies pour rester compétitives. 

Cependant, les implications éthiques et sociales de l’IA doivent également être prises en compte. Les décisions des algorithmes peuvent avoir un impact sur la vie des personnes, leur travail, leurs droits et leurs libertés. Il est donc essentiel de mettre en place des normes éthiques et des réglementations pour garantir que l’IA soit au service de l’humanité. Les entreprises et les gouvernements doivent travailler ensemble pour développer des IA responsables, transparentes et équitables qui servent les intérêts de tous. En travaillant ensemble, nous pouvons assurer que l’IA soit une force positive pour l’humanité dans les années à venir. 



 

Auteur: Merindol Hector

Info: https://golem.ai/en/blog/technologie/ia-symbolique-machinelearning-nlp - 4 avril 2023

[ dualité ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

homme-animal

CAPACITÉS COGNITIVES DU DAUPHIN

Au-delà de leur physiologie cérébrale, les dauphins font preuve de capacités extrêmement rares dans le domaine animal. Comme les humains, les dauphins peuvent imiter, aussi bien sur le mode gestuel que sur le mode vocal, ce qui est soi est déjà exceptionnel. Si certains oiseaux peuvent imiter la voix, ils n’imitent pas les attitudes. Les singes, de leur côté, imitent les gestes et non les mots. Le dauphin est capable des deux. Les dauphins chassent les poissons et se nourrissent d’invertébrés, mais ils usent pour ce faire de techniques complexes et variables, acquises durant l’enfance grâce à l’éducation. L’usage des outils ne leur est pas inconnu : un exemple frappant de cette capacité est la façon dont deux dauphins captifs s’y sont pris pour extraire une murène cachée dans le creux d’un rocher à l’intérieur de leur bassin. L’un d’eux a d’abord attrapé un petit poisson scorpion très épineux, qui passait dans le secteur, et l’ayant saisi dans son rostre, s’en est servi comme d’un outil pour extraire la murène de sa cachette. S’exprimant à propos de leur intelligence, le Dr Louis M.Herman, Directeur du Kewalo Basin Marine Mammal Laboratory de l’Université d’Hawaii, note que les dauphins gardent en mémoire des événements totalement arbitraires, sans le moindre rapport avec leur environnement naturel et sans aucune incidence biologique quant à leur existence.

Recherches sur le langage des dauphins

Beaucoup d’humains trouvent intrigante l’idée de communiquer avec d’autres espèces. A cet égard, le dauphin constitue un sujet attractif, particulièrement dans le domaine du langage animal, du fait de ses capacités cognitives et de son haut degré de socialisation. Dès le début des années soixante, c’est le neurologue John Lilly qui, le premier, s’est intéressé aux vocalisations des cétacés. Les recherches de Lilly se poursuivirent durant toute une décennie, tout en devenant de moins en moins conventionnelles. Le savant alla même jusqu’à tester les effets du L.S.D. sur les émissions sonores des dauphins et dut finalement interrompre ses recherches en 1969, lorsque cinq de ses dauphins se suicidèrent en moins de deux semaines. Malheureusement, nombre de découvertes ou de déclarations de John Lilly sont franchement peu crédibles et ont jeté le discrédit sur l’ensemble des recherches dans le domaine du langage animal. De ce fait, ces recherches sont aujourd’hui rigoureusement contrôlées et très méticuleuses, de sorte que les assertions des scientifiques impliquées dans ce secteur restent désormais extrêmement réservées.

Louis Herman est sans doute l’un des plus importants chercheurs à mener des études sur la communication et les capacités cognitives des dauphins. Son instrument de travail privilégié est la création de langues artificielles, c’est-à-dire de langages simples crées pour l’expérience, permettant d’entamer des échanges avec les dauphins. Louis Herman a surtout concentré ses travaux sur le phénomène de la "compréhension" du langage bien plus que sur la "production" de langage, arguant que la compréhension est le premier signe d’une compétence linguistique chez les jeunes enfants et qu’elle peut être testée de façon rigoureuse. En outre, la structure grammaticale qui fonde les langages enseignés s’inspire le plus souvent de celle de l’anglais. Certains chercheurs ont noté qu’il aurait été mieux venu de s’inspirer davantage de langues à tons ou à flexions, comme le chinois, dont la logique aurait parue plus familière aux cétacés. Dans les travaux d’Herman, on a appris à deux dauphins, respectivement nommés Akeakamai (Ake) et Phoenix, deux langues artificielles. Phoenix a reçu l’enseignement d’un langage acoustique produit par un générateur de sons électroniques. Akeakamai, en revanche, a du apprendre un langage gestuel (version simplifiée du langage des sourds-muets), c’est-à-dire visuel. Les signaux de ces langues artificiels représentent des objets, des modificateurs d’objet (proche, loin, gros, petit, etc.) ou encore des actions. Ni les gestes ni les sons ne sont sensés représenter de façon analogique les objets ou les termes relationnels auxquels ils se réfèrent. Ces langages utilisent également une syntaxe, c’est-à-dire des règles de grammaire simples, ce qui signifie que l’ordre des mots influe sur le sens de la phrase. Phoenix a appris une grammaire classique, enchaînant les termes de gauche à droite (sujet-verbe-complément) alors que la grammaire enseignée à Ake allait dans l’autre sens et exigeait de sa part qu’elle voit l’ensemble du message avant d’en comprendre le sens correctement. Par exemple, dans le langage gestuel de Ake, la séquence des signaux PIPE-SURFBOARD-FETCH ("tuyau – planche à surf – apporter") indiquait l’ordre d’amener la planche de surf jusqu’au tuyau, alors que SURFBOARD-PIPE-FETCH ("planche-tuyau- rapporter") signifiait qu’il fallait, au contraire, amener le tuyau jusqu’ à la planche de surf. Phoenix et Ake ont ainsi appris environ 50 mots, lesquels, permutés l’un avec l’autre au sein de séquences courtes, leur permirent bientôt de se servir couramment de plus de mille phrases, chacune produisant une réponse neuve et non apprise.

Compte tenu de l’influence possible de la position dans l’espace des expérimentateurs sur l’expérimentation, les lieux d’apprentissage et les entraîneurs se voyaient changés de session en session. Dans le même temps, des observateurs "aveugles", qui ne connaissaient pas les ordres et ne voyaient pas les entraîneurs, notaient simplement le comportement des dauphins, afin de vérifier ensuite qu’il correspondait bien aux commandes annoncées. Les entraîneurs allaient jusqu’à porter des cagoules noires, afin de ne révéler aucune expression ou intention faciale et se tenaient immobiles, à l’exception des mains. Les dauphins se montrèrent capables de reconnaître les signaux du langage gestuels aussi bien lorsqu’il étaient filmés puis rediffusés sur un écran vidéo que lorsque ces mêmes signes étaient exécutés à l’air libre par l’entraîneur. Même le fait de ne montrer que des mains pâles sur un fond noir ou des taches de lumière blanche reproduisant la dynamique des mains, a largement suffi aux dauphins pour comprendre le message ! Il semble donc que les dauphins répondent davantage aux symboles abstraits du langage qu’à tout autre élément de la communication.

Par ailleurs, si les dauphins exécutent aisément les ordres qu’on leur donne par cette voie gestuelle, ils peuvent également répondre de façon correcte à la question de savoir si un objet précis est présent ou absent, en pressant le levier approprié (le clair pour PRESENT, le sombre pour ABSENT). Ceci démontre évidement leur faculté de "déplacement mental", qui consiste à manipuler l’image d’objets qui ne se trouvent pas dans les environs. Des expériences additionnelles ont conduit à préciser comment le dauphin conçoit l’étiquetage des objets, comment il les qualifie de son point de vue mental. "Nous avons constaté" nous apprend Louis Herman, "qu’au regard du dauphin, le signe CERCEAU n’est pas seulement le cerceau précis utilisé dans le cadre de cette expérience précise, c’est plutôt TOUT OBJET DE GRANDE TAILLE PERCE D’UN GRAND TROU AU MILIEU. Un seul concept général associe donc pour le dauphin les cerceaux ronds, carrés, grands et petits, flottants ou immergés, que l’on utilise généralement lors de la plupart des expériences". Parmi les choses que le Dr Herman estime n’avoir pu enseigner aux dauphins, il y a le concept du "non" en tant que modificateur logique. L’ordre de "sauter au-dessus d’une non-balle" indique en principe que le dauphin doit sauter au-dessus de n’importe quoi, sauf d’une balle ! Mais cela n’est pas compris, pas plus, affirme toujours Herman, que le concept de "grand" ou de "petit".

Communication naturelle chez les dauphins

On sait que les dauphins émettent de nombreux sifflements, de nature très diverse. La fonction de la plupart d’entre eux demeure toujours inconnue mais on peut affirmer aujourd’hui que la moitié d’entre eux au moins constitue des "signatures sifflées". Un tel signal se module dans une fourchette de 5 à 20 kilohertz et dure moins d’une seconde. Il se distingue des autres sifflements - et de la signature de tous les autres dauphins – par ses contours particuliers et ses variations de fréquences émises sur un temps donné, ainsi que le montrent les sonogrammes. Les jeunes développent leur propre signature sifflée entre l’âge de deux mois et d’un an. Ces sifflements resteront inchangés douze ans au moins et le plus souvent pour la durée entière de la vie de l’animal. Par ailleurs, au-delà de leur seule fonction nominative, certains des sifflements du dauphin apparaissent comme de fidèles reproductions de ceux de leurs compagnons et servent manifestement à interpeller les autres par leur nom. Lorsqu’ils sont encore très jeunes, les enfants mâles élaborent leur propre signature sifflée, qui ressemble fort à celle de leur mère. En revanche, les jeunes femelles doivent modifier les leurs, précisément pour se distinguer de leur mère.

Ces différences reflètent sans doute celles qui existent dans les modes de vie des femelles et des mâles. Puisque les filles élèvent leur propre enfant au sein du groupe maternel, un sifflement distinct est donc indispensable pour pouvoir distinguer la maman de la grand mère. La signature sifflée masculine, presque identique à celle de la mère, permet tout au contraire d’éviter l’inceste et la consanguinité. Le psychologue James Ralston et l’informaticien Humphrey Williams ont découvert que la signature sifflée pouvait véhiculer bien plus que la simple identité du dauphin qui l’émet. En comparant les sonogrammes des signatures sifflées durant les activités normales et lors de situations stressantes, ils découvrirent que la signature sifflée, tout en conservant sa configuration générale, pouvait changer en termes de tonalité et de durée et transmettre ainsi des informations sur l’état émotionnel de l’animal. Les modifications causé par cet état émotionnel sur les intonations de la signature varient en outre selon les individus. Les dauphins semblent donc utiliser les sifflement pour maintenir le contact lorsqu’ils se retrouvent entre eux ou lorsqu’ils rencontrent d’autres groupes, mais aussi, sans doute, pour coordonner leur activités collectives. Par exemple, des sifflements sont fréquemment entendus lorsque le groupe entier change de direction ou d’activité.

De son côté, Peter Tyack (Woods Hole Oceanographic Institute) a travaillé aux côtés de David Staelin, professeur d’ingénierie électronique au M.I.T., afin de développer un logiciel d’ordinateur capable de détecter les "matrices sonores" et les signaux répétitifs parmi le concert de couinements, piaulements et autres miaulements émis par les dauphins. Une recherche similaire est menée par l’Université de Singapore (Dolphin Study Group). Avec de tels outils, les chercheurs espèrent en apprendre davantage sur la fonction précise des sifflements.

Dauphins sociaux

Les observations menées sur des individus sauvages aussi bien qu’en captivité révèlent un très haut degré d’ordre social dans la société dauphin. Les femelles consacrent un an à leur grossesse et puis les trois années suivantes à élever leur enfant. Les jeunes s’éloignent en effet progressivement de leur mère dès leur troisième année, restant près d’elle jusqu’à six ou dix ans ! – et rejoignent alors un groupe mixte d’adolescents, au sein duquel ils demeurent plusieurs saisons. Parvenus à l’âge pleinement adulte, vers 15 ans en moyenne, les mâles ne reviennent plus que rarement au sein du "pod" natal. Cependant, à l’intérieur de ces groupes d’adolescents, des liens étroits se nouent entre garçons du même âge, qui peuvent persister la vie entière. Lorsque ces mâles vieillissent, ils ont tendance à s’associer à une bande de femelles afin d’y vivre une paisible retraite. Bien que les dauphins pratiquent bien volontiers la promiscuité sexuelle, les familles matriarcales constituent de fortes unités de base de la société dauphin. Lorsqu’une femelle donne naissance à son premier enfant, elle rejoint généralement le clan de sa propre mère et élève son delphineau en compagnie d’autres bébés, nés à la même saison. La naissance d’un nouveau-né donne d’ailleurs souvent lieu à des visites d’autres membres du groupe, mâles ou femelles, qui s’étaient séparés de leur mère depuis plusieurs années. Les chercheurs ont également observé des comportements de "baby-sitting", de vieilles femelles, des soeurs ou bien encore d’autres membres du groupe, voire même un ancien mâle prenant alors en charge la surveillance des petits. On a ainsi pu observer plusieurs dauphins en train de mettre en place une véritable "cour de récréation", les femelles se plaçant en U et les enfants jouant au milieu ! (D’après un texte du Dr Poorna Pal)

Moi, dauphin.

Mais qu’en est-il finalement de ce moi central au coeur de ce monde circulaire sans relief, sans couleurs constitué de pixels sonores ? C’est là que les difficultés deviennent insurmontables tant qu’un "contact" n’aura pas été vraiment établi par le dialogue car le "soi" lui-même, le "centre de la personne" est sans doute construit de façon profondément différente chez l’homme et chez le dauphin. H.Jerison parle carrément d’une "conscience collective". Les mouvements de groupe parfaitement coordonnés et quasi-simultanés, à l’image des bancs de poissons ou des troupeaux de gnous, que l’on observe régulièrement chez eux, suppose à l’évidence une pensée "homogène" au groupe, brusquement transformé en une "personne plurielle". On peut imaginer ce sentiment lors d’un concert de rock ou d’une manifestation, lorsqu’une foule entière se tend vers un même but mais ces attitudes-là sont grossières, globales, peu nuancées. Toute autre est la mise à l’unisson de deux, trois, cinq (les "gangs" de juvéniles mâles associés pour la vie) ou même de plusieurs centaines de dauphins ensemble (de formidables "lignes de front" pour la pêche, qui s’étendent sur des kilomètres) et là, bien sûr, nous avons un comportement qui traduit un contenu mental totalement inconnu de nous. On sait que lorsqu’un dauphin voit, tout le monde l’entend. En d’autres termes chaque fois qu’un membre du groupe focalise son faisceau de clicks sur une cible quelconque, l’écho lui revient mais également à tous ceux qui l’entourent. Imaginons que de la même manière, vous regardiez un beau paysage. La personne qui vous tournerait le dos et se tiendrait à l’arrière derrière vous pourrait le percevoir alors aussi bien que vous le faites. Cette vision commune, qui peut faire croire à de la télépathie, n’est pas sans conséquence sur le contenu mental de chaque dauphin du groupe, capable de fusionner son esprit à ceux des autres quand la nécessité s’en fait sentir. Ceci explique sans doute la formidable capacité d’empathie des dauphins mais aussi leur fidélité "jusqu’à la mort" quand il s’agit de suivre un compagnon qui s’échoue. Chez eux, on ne se sépare pas plus d’un ami en détresse qu’on ne se coupe le bras quand il est coincé dans une portière de métro ! En d’autres circonstances, bien sûr, le dauphin voyage seul et il "rassemble" alors sa conscience en un soi individualisé, qui porte un nom, fait des choix et s’intègre dans une lignée. Il en serait de même pour l’homme si les mots pouvaient faire surgir directement les images qu’ils désignent dans notre cerveau, sans passer par le filtre d’une symbolisation intermédiaire. Si quelqu’un me raconte sa journée, je dois d’abord déchiffrer ses mots, les traduire en image et ensuite me les "représenter". Notre système visuel étant indépendant de notre système auditif, un processus de transformation préalable est nécessaire à la prise de conscience du message. Au contraire, chez le dauphin, le système auditif est à la fois un moyen de communication et un moyen de cognition "constructiviste" (analyse sensorielle de l’environnement). La symbolisation n’est donc pas nécessaire aux transferts d’images, ce qui n’empêche nullement qu’elle puisse exister au niveau des concepts abstraits. Quant à cette conscience fusion-fission, cet "ego fluctuant à géométrie variable", ils préparent tout naturellement le dauphin à s’ouvrir à d’autres consciences que la sienne. D’où sans doute, son besoin de nous sonder, de nous comprendre et de nous "faire" comprendre. Un dauphin aime partager son cerveau avec d’autres, tandis que l’homme vit le plus souvent enfermé dans son crâne. Ces êtres-là ont décidément beaucoup à nous apprendre...

Auteur: Internet

Info: http://www.dauphinlibre.be/dauphins-cerveau-intelligence-et-conscience-exotiques

[ comparaisons ] [ mimétisme ] [ sémiotique ] [ intelligence grégaire ]

 

Commentaires: 0