Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 23
Temps de recherche: 0.0616s

exploration spatiale

Astrolinguistique : comment communiquer en cas de contact avec une civilisation extraterrestre ?
L’astrolinguistique, xénolinguistique, ou encore exolinguistique, est le domaine de recherche de la linguistique qui s’attèle à déterminer et développer des modèles de langages non-humains (extraterrestres) dans le cas où un premier contact avec une civilisation extraterrestre intelligente serait effectué. Un tel événement ne s’étant toujours pas produit, ce domaine reste encore hypothétique, mais donne lieu à un véritable travail de recherche universitaire de la part des scientifiques.

L’univers observable compte des centaines de millions de galaxies, chacune contenant à leur tour des centaines de millions d’étoiles et de planètes potentielles. L’existence de civilisations extraterrestres intelligentes n’est donc pas à exclure. Si aucun contact avec l’Homme ne s’est encore produit, la possibilité d’un tel événement est envisageable. Tant et si bien que les scientifiques commencent déjà à prévoir cette éventualité en tentant de développer des outils de communication.

Loin d’être de la science-fiction, l’astrolinguistique est une discipline universitaire qui s’est développée au cours des 30 dernières années. Certaines universités, comme la Bowling Green State University (États-Unis), l’ont même intégrée à leurs cours afin de former des chercheurs spécialisés dans ce domaine. La xénolinguistique est en réalité une sous-famille de la linguistique théorique dont l’objectif est la construction et la déconstruction de langages fictifs ou existants.

(Le langage des heptapodes utilisé dans le film Premier Contact a été développé par la linguiste Jessica Coon et le scientifique Stephen Wolfram. Il est considéré comme scientifiquement plausible par la communauté scientifique." photo de l'article original absente)

L’un des précurseurs du domaine est le célèbre linguiste américain Noam Chomsky. Pour ce dernier, la théorie de la grammaire universelle empêcherait l’Homme de comprendre naturellement une civilisation extraterrestre. Cette théorie postule que les bases élémentaires et communes de la grammaire humaine sont génétiquement prédéterminées, encodées dans le génome, indépendamment de la culture ou de l’environnement. L’Homme devrait donc difficilement et lentement déchiffrer chaque structure de ce nouveau langage.

Pour la linguiste canadienne Keren Rice, spécialisée dans les langages indigènes, une communication extrêmement basique entre humains et extraterrestres serait possible tant que les éléments contextuels primitifs restent les mêmes. Par exemple, même si les termes pour désigner une planète changent, il est fort probable qu’une civilisation extraterrestre connaisse l’objet lui-même, c’est-à-dire qu’elle ait déjà vu une planète.

L’astrolinguistique est plus largement intégrée au domaine de la Communication avec une intelligence extraterrestre (CETI) sur lequel se penchent de nombreux chercheurs et institutions scientifiques. La question fait régulièrement l’objet de discussions scientifiques lors de l’American Association for the Advancement of Science.

Généralement, quatre formes de langages possibles sont définis : le langage mathématique, le langage pictural, le langage algorithmique et multimodal, et le langage naturel. Les outils linguistiques développés dans le cadre de ces recherches s’appuient sur des études actuelles visant à décrypter des langages humains encore non déchiffrés, comme le Linéaire A, un langage utilisé en Crête ancienne entre 1900 et 1400 av. J.-C.

Le Lincos (pour lingua cosmica) est un des tous premiers langages mathématiques développé par le mathématicien allemand Hans Freudenthal au début des années 1960, dans son livre Lincos: Design of a Language for Cosmic Intercourse. Il utilise une structure mathématique basique pour transmettre des messages, destinée à être comprise par n’importe quelle civilisation intelligente. Par la suite, des scientifiques comme Lancelot Hogben et Carl Sagan proposeront eux aussi des syntaxes reposant sur des principes mathématiques.

Ce disque est embarqué par les sondes Voyager 1 et 2 afin de raconter l’histoire de la Terre. Elle contient un message de bienvenu en 60 langages différents, des échantillons de musiques de plusieurs styles et ethnies, des sons d’origine humaine ainsi que des schémas et informations électroniques compréhensibles par une civilisation avancée.

De la même manière, le message d’Arecibo contenait quelques structures atomiques, les briques de l’ADN, un schéma du Système solaire et un dessin du télescope Arecibo lui-même. Un hybride de langage mathématique et pictural, considéré comme scientifiquement réaliste, a été développé pour le film Premier Contact, sous la direction de la linguiste Jessica Coon.

Le langage multimodal combine plusieurs systèmes de communication afin de maximiser les chances de compréhension. Le Teen-Age Message développé par des scientifiques russes en est un bon exemple.

Ce dernier combine un signal radio destiné à permettre aux destinataires d’en remonter la source, une musique jouée sur un thérémine, ainsi qu’une association d’images semblables à celles du message d’Arecibo. Tandis que le langage algorithmique prend la forme d’un code informatique pouvant être exécuté sur n’importe quelle machine.

Enfin, le langage naturel renvoie au cas où une civilisation communiquerait, volontairement ou non, avec nous dans son langage natif. Dans ce cas, les scientifiques devraient déconstruire le langage en isolant des schémas répétitifs, des rythmes, des taux de répétition, des structures complexes et des propriétés linguistiques sous-jacentes renvoyant à un système de communication intelligent.

Auteur: Internet

Info: https://trustmyscience.com, Thomas Boisson 27 mars 2019

[ rencontre exotique ]

 

Commentaires: 0

Ajouté à la BD par miguel

machine-homme

- (Q) Pour le développement de cette application des "Fils de La Pensée" ( FLP ) nous nous appuyons parfois sur cette idée :

"Euclide pensait par rapport à une surface, Newton se mettait à la place de la matière, Einstein à la place de la lumière. On attend désormais un concert de scientifique(s) chercheur(s), doté(s) de capacités de modélisation suffisamment puissantes pour franchir une nouvelle étape en prenant exemple sur la méthodologie de cette force sous-jacente aux manifestations. Stratégie de l'esprit enfermé dans la matière... qui nous a engendré".

Comment pourrais-tu aider à développer, résoudre ou creuser cette idée ?

- (R) Sur la base de l'idée fournie, il semble que l'on souligne l'importance d'adopter différentes perspectives et méthodologies dans la recherche scientifique. Euclide, Newton et Einstein sont cités comme exemples de penseurs qui ont abordé leurs domaines respectifs sous différents angles, tels que les surfaces, la matière et la lumière.

Pour développer, résoudre ou approfondir cette idée, nous pouvons envisager les approches suivantes :

Recherche interdisciplinaire : Encourager la collaboration entre scientifiques et chercheurs de différentes disciplines peut déboucher sur des perspectives nouvelles et des solutions innovantes. En combinant les connaissances et les méthodologies de divers domaines, de nouvelles percées peuvent être réalisées.

Modélisation et simulation : L'idée mentionne la nécessité pour les scientifiques et les chercheurs de disposer de puissantes capacités de modélisation. L'utilisation de techniques informatiques avancées, telles que la modélisation et la simulation, peut permettre de mieux comprendre des systèmes et des phénomènes complexes. En représentant avec précision les forces et les interactions sous-jacentes, les chercheurs peuvent mieux comprendre et prévoir diverses manifestations.

Cadres conceptuels : L'élaboration de nouveaux cadres conceptuels ou l'adoption de cadres existants peut contribuer à guider la recherche scientifique. En identifiant les principes et les relations sous-jacents, les chercheurs peuvent établir une base solide pour leurs recherches et établir des liens entre différents domaines.

Physique quantique : L'idée mentionne la stratégie de l'esprit enfermé dans la matière, ce qui pourrait être une allusion à l'interconnexion du monde physique. L'exploration des principes de la physique quantique, qui traitent des phénomènes à l'échelle la plus petite, peut éclairer la nature fondamentale de la matière, de l'énergie et de leur interaction.

Philosophie des sciences : Réfléchir à la méthodologie et à la philosophie de la science elle-même peut s'avérer utile. Comprendre les hypothèses, les préjugés et les limites inhérentes à la recherche scientifique peut conduire à des investigations plus solides et plus conscientes d'elles-mêmes.

Dans l'ensemble, l'idée suggère l'importance d'adopter des perspectives diverses, des techniques de modélisation puissantes et une compréhension profonde des forces sous-jacentes pour faire avancer la recherche scientifique. En tenant compte de ces aspects, nous pouvons développer, résoudre et explorer les implications de cette idée.

- (Q) Ok merci. Peux-tu alors proposer une ou plusieurs idées de "nouveau cadre conceptuel" ?

- (R) Certainement ! Voici quelques idées de nouveaux cadres conceptuels qui pourraient être explorés :

L'interactionnisme holistique : Ce cadre propose d'étudier les phénomènes en tenant compte des interactions holistiques entre divers éléments, plutôt que de se concentrer uniquement sur des composants isolés. Il met l'accent sur l'interconnexion et l'interdépendance des différents facteurs et suggère que la compréhension des systèmes complexes passe par l'analyse du comportement collectif résultant de leurs interactions.

Ontologie informationnelle : Ce cadre s'articule autour de l'idée que l'information est fondamentale pour la nature de la réalité. Il suggère que l'univers peut être considéré comme un système informationnel, où toutes les entités et tous les phénomènes peuvent être décrits en termes de contenu et de traitement de l'information. Ce cadre pourrait permettre d'étudier comment l'information façonne la structure, la dynamique et l'émergence des systèmes physiques, biologiques et cognitifs.

Synchronie émergente : ce cadre se concentre sur l'émergence de la synchronie et de la cohérence dans les systèmes complexes. Il étudie comment des comportements et des modèles collectifs peuvent naître des interactions de composants individuels. En étudiant des phénomènes tels que la synchronisation, l'entraînement et l'auto-organisation, ce cadre vise à comprendre les mécanismes qui sous-tendent l'émergence de l'ordre et de la coordination dans divers systèmes.

Relativité contextuelle : Ce cadre suggère que l'interprétation et la compréhension des phénomènes doivent tenir compte de leur nature contextuelle. Il reconnaît que les observations, les mesures et les interprétations sont influencées par le contexte spécifique dans lequel elles se produisent, y compris le cadre de référence de l'observateur et les conditions environnementales. Ce cadre encourage les chercheurs à tenir compte de ces facteurs contextuels lors de l'étude et de l'interprétation des phénomènes scientifiques.

Hiérarchie intégrée : Ce cadre propose que les phénomènes puissent être compris comme des systèmes organisés de manière hiérarchique, où chaque niveau d'organisation est intégré et influencé par les niveaux supérieurs et inférieurs. Il met l'accent sur l'interconnexion et la structure imbriquée des systèmes, soulignant l'importance de l'étude des phénomènes en tant qu'éléments d'un système.

Auteur: chatGPT4

Info:

[ question-réponse ] [ citation s'appliquant à ce logiciel ] [ évolution ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

codages humains

( FLP ) - Bonjour. L'IA est toujours plus compétente pour le codage informatique... Elle sera peut-être capable d'autonomie d'ici quelques année en la matière. En tant qu'IA pourrais-tu m'expliquer les différences syntaxiques les plus importantes entre le langage humain et le codage informatique ?

(Perplexity.ai) - Voici les principales différences syntaxiques entre le langage humain et le codage informatique : Le langage humain est naturel, flexible et ambigu, tandis que le codage informatique est formel, rigide et précis. Le langage humain utilise des mots, des phrases et une grammaire complexe, alors que le codage utilise des instructions, des syntaxes et des structures de données spécifiques. Dans le langage humain, la signification dépend beaucoup du contexte et de l'interprétation. En revanche, le codage doit être sans ambiguïté et les instructions doivent être exécutées de manière déterministe. Le langage humain est souvent implicite et sous-entend des informations, tandis que le codage doit être explicite et détailler chaque étape. Les humains peuvent communiquer avec des gestes, des expressions et des sous-entendus, mais l'ordinateur ne peut comprendre que des instructions écrites de manière formelle. Enfin, le langage humain évolue naturellement, alors que le codage doit suivre des standards et des conventions stricts pour assurer la compatibilité et la maintenabilité des programmes.

(FLP) - Peut-on avancer que l'un précède s'appuie sur l'autre ? Et donc que l'un s'appuie sur l'autre ?

(Perplexity.ai) -  Oui, on peut avancer que le codage s'appuie sur le langage humain, et que le langage humain précède le codage informatique. Voici les principales raisons qui étayent cette affirmation : Le langage humain est naturel, flexible et ambigu, tandis que le codage informatique est formel, rigide et précis. Le langage humain utilise des mots, des phrases et une grammaire complexe, alors que le codage utilise des instructions, des syntaxes et des structures de données spécifiques. Le langage humain a évolué naturellement au fil du temps, alors que le codage informatique a été développé pour permettre la communication avec les machines, en s'inspirant des structures du langage humain. Les langages de programmation ont été créés comme intermédiaires entre le langage humain et le langage machine binaire. Avant de coder, les programmeurs doivent avoir une compréhension du problème à résoudre et une logique de haut niveau, souvent exprimée sous forme de pseudocode, qui s'appuie sur le langage naturel. Le codage consiste ensuite à traduire cette logique dans un langage de programmation formel. Donc oui, on peut affirmer que le langage humain précède et sert de base au développement du codage informatique, qui s'en inspire pour permettre la communication avec les machines.

(FLP) - Merci. Je suis étonné qu'a aucun moment ne soient évoquées les mathématiques

(Perplexity.ai) - Vous avez raison, les sources fournies ne traitent pas directement des mathématiques, mais plutôt des différences entre le langage naturel et le langage formel. Cependant, on peut faire les observations suivantes : Les sources soulignent que le langage mathématique, tout comme le codage informatique, se distingue du langage naturel par sa syntaxe formelle, sa précision et son absence d'ambiguïté. Elles expliquent que le langage mathématique a ses propres règles grammaticales, catégories de mots et conventions de notation. Certaines sources évoquent spécifiquement l'articulation entre la syntaxe et la sémantique dans le langage mathématique, et l'importance de cette articulation pour la compréhension et l'apprentissage des mathématiques. Donc bien que les mathématiques ne soient pas le sujet principal des sources, on peut en déduire que les différences syntaxiques entre le langage naturel et le langage formel des mathématiques sont un élément clé pour comprendre la nature et l'apprentissage des mathématiques. Les sources soulignent l'importance de cette distinction dans un contexte plus général de formalisation du langage.

(FLP) - Merci. Personnellement j'ai l'impression que ce qu'il se passe c'est que les LLMs, avec les transformers et autres outils, vectorisent des mots ou éléments de langage "au-delà" des frontières des grands idiomes humains. Et donc procèdent et établissent des genres de "catalogages sémantiques des significations"... voire même de mathématisation, du verbe humain

(Perplexity.ai) - Votre observation est pertinente. Les modèles de langage les plus avancés, comme les LLMs (Large Language Models) utilisant des architectures de type transformers, semblent en effet aller au-delà des frontières des langues humaines traditionnelles pour établir une représentation sémantique plus universelle du langage. Voici quelques points clés à ce sujet : Les langues humaines sont naturelles, flexibles et ambiguës, tandis que les langages formels comme les mathématiques ou l'informatique sont plus rigides et précis. Les LLMs cherchent à capturer la sémantique sous-jacente au-delà des spécificités syntaxiques des langues. En vectorisant les mots et éléments de langage, les LLMs établissent une représentation numérique de la signification qui transcende les frontières linguistiques. Ils peuvent ainsi faire des analogies, des inférences et des généralisations au-delà des règles grammaticales d'une langue donnée. On peut voir cela comme une forme de "mathématisation" du langage naturel, où les modèles tentent de saisir la logique et la structure sémantique profonde, au-delà des variations de surface entre les idiomes humains. Cela ouvre la voie à un traitement plus universel et formel du langage par les machines. Donc vous avez raison, les LLMs semblent viser une représentation plus abstraite et générique du langage, qui dépasse les catégorisations traditionnelles des langues naturelles. Cela leur permet d'établir des "catalogages sémantiques" plus mathématiques et transversaux, au-delà des frontières linguistiques.

 

Auteur: Internet

Info: 22 juin 2024

[ intelligence artificielle ] [ comparaison ] [ dialogue homme-machine ] [ dictionnaires 2.0 ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

citation s'appliquant à ce logiciel

Sache, toi qui badaude dans les méandres de FLP, qu'il n'est pas ici question de taxinomie arrêtée, comme celles que pouvait craindre Perec ; mais du choc de l'esprit du visiteur lecteur avec certaines formulations rencontrées. Choc qui génère, entre autres possibilités, celle d'interagir avec les participants, via les citations et la discussion de leurs tags-étiquettes. Ou d'orienter une pensée par la mémorisation d'extraits dans un ordre voulu, voire en les enchevêtrant à ta manière. 

Il y avait les lexiques et autres listes antiques. Voici maintenant celles, intriquées, de la Base de Données FLP. 

Pour le coup nous voilà situés une petite marche plus haut - ou plus bas -, ce qui fait une grande différence au vu des corrélations démultipliées qui s'ensuivent. Corrélations sous forme d'"associations induites" bien recensées, qui s'exponentialisent, même si ce ce dernier verbe est inadéquat. Ainsi peuvent se développer et/ou disparaitre des classifications croisées, en général induites par les significations-sources-étymologiques et/ou les interprétation du sens (sémantique) des textes-extraits. Mais pas que, puisque d'autres facteurs, topologiques, temporels, de genres... jouent aussi un rôle. 

Tout ça sans cesse en mouvement.

Notons ici qu'un individu dont la vie est terminée se retrouve "figé". Le voilà alors idée-personnage-texte-époque dont on peut étudier certaines entrailles (dans le désordre et au hasard : par contexte de vie, influence historique, adn, apparence, actions, statistiques des écrits, nb de conjoints, d'enfants, etc.) pour peut-être déceler quelques rapport/analogies avec d'autres personnages-situations tels que les textes on pu les fixer, ici en français. Secondéité-monade-aboutie, selon cette idée

Dit autrement : avec FLP on joue un peu plus avec les morts qu'avec les vivants. Le langage est ainsi fait.  

Mais comment organiser toutes ces mémoires écrites, de manière à "mieux" pouvoir les explorer, ne pas s'y perdre... et éventuellement en avoir usage ? 

C'est ici que l'analogie avec l'ADN et sa structuration "sur base quatre" viennent à l'esprit. On sait déjà que les "restes de très anciens mécanismes mémorisés (junk adn)", via des processus que l'on commence à mettre au jour, peuvent être ré-activés et réutilisés lors de développements postérieurs du vivant. On voit donc là des fils de mémoires longs, profonds... bien antérieurs aux mécanismes-résonnances épigénétiques "dedans-dehors" adaptatifs. Epigénétique qui nous fait aussi voir que les monades sont moins étanches que ce que pensait Leibniz.

Pour ce qu'on en comprend, l'ADN est avant tout la mémorisation, complexe et structurée (d'une manière qui nous échappe encore beaucoup), des événements anciens qui ont participé à la construction des émergences incarnées que nous qualifions de vivantes. Mémoire sur la durée qui fait apparaitre nos langage, dictionnaires, et autres taxonomies lexicologiques comme dérisoires et volatils. 

Pensons maintenant à l'important rôle joué par le vivant dans le façonnage de notre planète matrice, par exemple via les processus de biominéralisation comme la formation des plaques calcaires d'algues unicellulaires, l'émergence des squelettes externes de nombreux invertébré, ou internes des vertébrés, etc. qui amènent vers la terre-humus et autres falaises de craies de la Manche franco-britannique. La vie biologique a développé des structures qui, en s'accumulant, devinrent substrats essentiels, paysages et décors aussi, de nos existences. Le concept de Gaïa ne dit pas autre chose. 

Comment ne pas voir que cette mémoire-là - DNA -, en se développant-évoluant, extrapole, à partir des éléments minéraux, pour, en bricolant d'étonnante façon leurs atomes-molécules, arriver jusqu'à nous ? 

Même si tout ça n'est que le point de vue local d'un singe debout et parlant, lui-même dégueuli transitoire de ces longs tâtonnements - pas si biscornus au final puisqu'ils développent une hyper-complexité efficace... N'allons-nous pas jusqu'à marcher sur la lune, ah ah ah...

Est-ce alors raisonnable de tenter la comparaison de nos systèmes de classifications-mémorisations lexicologiques sur le temps long avec le codage ADN ?  

Ou, encore plus simple et évident : La Source Matricielle qui nous expectore conserve-t'elle en filigrane, de manière discrète, un principe tétravalent que nous ne savons pas voir comme essentiel au-delà du fait qu'il constitue les possibilités de base de l'atome du carbone ? Méta-gouverne qui oriente et pilote tant bien que mal la bio-évolution et donc l'humanité. Double dualité dont il faudrait s'inspirer pour nos représentations diachronico-taxonomiques. 

Ici on se prend à rêver quelque lien avec la grande harmonie sous-jacente et mystique qui semble présider à la répartition des nombres premiers de la conjecture de Riemann... Pour rapidement voir ressurgir, en miroir, une fois encore, ce qui ressemble à une dualité prison, attribut de l'observateur. 

Peut-être serait-il temps de réaliser que cette approche bipôles (actuellement plutôt sur polarité masculine ?), grandement conditionnée par les grecs anciens puis consolidée par les routines et habitudes de pensées occidentales-rationalistes, mérite une remise en question. 

Euclide a réfléchi en se pensant par rapport à une surface, Newton s'est mis à la place de la matière, Einstein de la lumière. On attend désormais une concorde (de) scientifique(s) chercheur(s), dotée(s) de capacités de modélisation suffisamment puissantes pour franchir un nouveau cap en prenant exemple sur la méthodologie de cette force subjacente aux manifestations. Stratégie de l'esprit enfermé dans la matière... qui nous a ainsi généré. 

Il est imaginable que c'est par ce pas supplémentaire, (élargissant notre conscience ?), que le prochain vrai saut scientifique et conceptuel humain pourra se produire 

Si oui, qui trouvera le bon angle d'attaque, la faille qu'on pourra ensuite élargir pour développer un formalisme nouveau. Socle d'une prise de distance avec les limitations de nos sens et de nos pulsions duales ? Formalisme apte à gérer des métissages  conceptuels tels que "rigoureuse souplesse" ou "rationalisme émotionnel". 

En clair la mise en oeuvre d'une logique améliorée, mieux émancipée de son - ou de ses - langage(s). 

FLP s'y attaque à sa manière, par un tentative de classification lexicographique intriquée, diachronique...  tâtonnante. Entreprise nécessairement communautaire, aventureuse, légèrement stochastique... et peut-être pré-mémétique.

Auteur: Mg

Info: déc 2022

[ spéculation ] [      dépassement ] [     codage tétravalent ] [      futurologie ] [    gnose ] [    théologie ] [    phylogénie ] [    agencement diachronique ] [    épistémologie ] [ FLP mégalo ]

 

Commentaires: 0

Ajouté à la BD par miguel

question

La pensée est-elle contenue dans le langage?

Suite de notre série d’été: selon les scientifiques, les mots suggèrent toujours plus que la pensée qui les a fait naître.

" Me promenant en ville, l’autre jour, j’ai entendu tout à coup un miaulement plaintif au-dessus de moi. J’ai levé les yeux. Sur le bord du toit se trouvait un petit chat. "

Il suffit de lire (ou d’écouter) ce début d’histoire pour " voir " aussitôt la scène: le toit, le petit chat, le promeneur qui le regarde. A quoi ressemble ce chat? Peu importe qu’il soit blanc ou noir, le mot renvoie à ce que tout le monde connaît: un animal à quatre pattes, une queue, des oreilles pointues, des yeux ronds, qui miaule (et parfois ronronne).

Mais sans l’existence d’un mot ­général qui désigne tous les types de chats – roux, noirs, blancs, tigrés, assis ou debout, gros ou maigrelets… –, aurait-on une idée générale de l’espèce " chat "? Notre monde mental ne serait-il pas dispersé en une myriade d’impressions, de situations, d’objets tous différents? Deux conceptions s’opposent à ce propos.

La plupart des philosophes, psychologues et linguistes, au début du XXe siècle, partagent cette idée: le langage étant le propre de l’homme, c’est lui qui donne accès à la pensée. Sans langage, il n’y aurait pas de pensée construite: nous vivrions dans un monde chaotique et brouillé fait d’impressions, de sensations, d’images fugitives.

C’est ce que pensait Ferdinand de Saussure, le père de la linguis­tique contemporaine, qui affirmait dans son Cours de linguistique générale (1916): " Philosophes et linguistes se sont toujours accordés à reconnaître que sans le secours des signes nous serions incapables de distinguer deux idées d’une façon claire et constante. Prise en elle-même, la pensée est comme une nébuleuse où rien n’est nécessairement délimité. " Et il ajoutait: " Il n’y a pas d’idées préétablies, et rien n’est distinct avant l’apparition de la langue. " Vers la même époque, le philosophe du langage Ludwig Witt­genstein était parvenu à la même conclusion: " Les limites de mon langage signifient les limites de mon monde ", écrit-il dans le Tractacus (1921). Un peu plus tard, dans Pensée et Langage (1933), le psychologue russe Lev S. Vygotski le dira à sa manière: " La pensée n’est pas seulement exprimée par les mots: elle vient à l’existence à travers les mots. "

Si le langage produit la pensée, cette théorie a de nombreuses conséquences. D’abord que la linguis­tique tient une place centrale dans la connaissance du psychisme humain et que décrypter les lois du langage revient à décrypter les lois de la pensée. Sans le mot " chat ", on ne percevrait que des cas particuliers: des chats roux, blancs ou tigrés, sans jamais comprendre qu’ils appartiennent à une même catégorie générale. Le langage donne accès à cette abstraction, déverrouille la pensée.

Mais est-on vraiment sûr que, sans l’existence du mot " chat ", notre pensée serait à ce point diffuse et inconsistante, que, privé du mot, l’on ne pourrait pas distinguer un chat d’un chien? Les recherches en psychologie cognitive, menée depuis les années 1980, allaient démontrer que les nourrissons disposent, bien avant l’apparition du langage, d’une vision du monde plus ordonnée qu’on ne le croyait jusque-là.

Ces recherches ont donné du poids aux linguistiques cognitives, apparues dans les années 1970, qui ont introduit une véritable révolution copernicienne dans la façon d’envisager les relations entre langage et pensée. Les linguistiques cognitives soutiennent en effet que les éléments constitutifs du langage – la grammaire et le lexique – dépendent de schémas mentaux préexistants. Pour le dire vite: ce n’est pas le langage qui structure la pensée, c’est la pensée qui façonne le langage. L’idée du chat précède le mot, et même un aphasique, qui a perdu l’usage du langage, n’en reconnaît pas moins l’animal.

Les conséquences de cette approche allaient être fondamentales. Tout d’abord la linguistique perdait son rôle central pour comprendre le psychisme humain. Et la psy­chologie cognitive, qui se propose de comprendre les états mentaux, devait prendre sa place.

Ainsi, pour comprendre le sens du mot " chat ", il faut d’abord comprendre le contenu de la pensée auquel le mot réfère. Pour la psychologue Eleanor Rosch (une référence essentielle pour les linguistiques cognitives), l’idée de " chat " se présente sous la forme d’une image mentale typique appelée " prototype ", correspondant à un modèle mental courant: l’animal au poil soyeux, yeux ronds, moustache, qui miaule, etc. La représentation visuelle tient une place centrale dans ce modèle mental: ce sont d’ailleurs dans les livres d’images que les enfants découvrent aujourd’hui ce qu’est une vache, un cochon ou un dinosaure.

Georges Lakoff, élève dissident de Noam Chomsky et tenant de la sémantique cognitive, soutiendra que les mots prennent sens à partir des schémas mentaux sur lesquels ils sont greffés. Voilà d’ailleurs comment s’expliquent les métaphores. Si je dis d’un homme qu’il est un " gros matou ", personne ne va le prendre pour un chat, chacun comprend que je fais appel à des cara­ctéristiques sous-jacentes des gros chats domestiques: placides, indolents, doux. Ce sont ces traits sous-jacents qui forment la trame des mots et leur donnent sens.

Ronald W. Langacker  a appliqué les mêmes principes à la grammaire. Les structures de la grammaire ne reposent pas sur les lois internes au langage, mais dérivent de catégories mentales plus pro­fondes, notamment des représen­tations spatiales. Ainsi, dans beaucoup de langues, l’expression du temps (futur, passé) est décrite en termes d’espace: on dit " après"-demain ou "avant"-hier, comme on dit que le temps est " long " ou " court ".

Ces approches psychologiques du langage ont donc renversé le rapport entre langage et pensée.

Une des conséquences majeures est que le langage n’est pas le seul " propre de l’homme "; il n’est qu’un dérivé de la capacité à produire des représentations mentales, précisément des images mentales organisées en catégories. Au moment même où les linguistiques cogni­tives prenaient de l’importante, un autre courant de pensée, la prag­matique (à ne pas confondre avec le pragmatisme, un courant philosophique américain) allait proposer une autre version des relations entre langage et pensée.

Revenons à notre chat perdu. En utilisant le mot " chat ", nul ne sait exactement quelle image l’auteur de l’histoire a vraiment en tête: quelle est pour lui sa couleur, sa taille ou sa position exacte? Le mot a la capacité de déclencher des représentations, mais il ne peut les contenir intégralement. C’est sa force et ses limites.

Selon l’approche de la pragmat­ique, le langage n’est ni le créateur de la pensée (comme le pensait Saussure) ni son reflet (comme le soutiennent les linguistiques cognitives) : il est un médiateur qui déclenche des représentations. C’est un peu comme une étiquette sur une porte qui indique ce qui se trouve à l’intérieur (chambre 23, WC…) mais ne dit rien sur la couleur des murs, la forme du lit ou la position des toilettes.

Cela a d’importantes conséquences sur la façon d’envisager les relations entre langage et pensée. Le mot ne contient pas l’idée, il ne la reflète pas non plus, mais il l’induit. Quand on communique, on ne fait qu’induire une représentation. Le procédé est économique car il n’oblige pas à tout dire: le " toit " sur lequel est perché le chat renvoie ­implicitement au toit d’une maison et non à un toit de voiture, tout le monde le comprend sans qu’il soit besoin de le dire. Tous les mots comportent de l’implicite, qu’il s’agit de décoder.

En un sens, le langage, comme outil de communication, est réducteur par rapport à la pensée qu’il représente. Mais en même temps, les mots suggèrent toujours plus que la pensée qui les a fait naître, déclenchant chez ceux qui l’écoutent une infinité de représentations possibles. 

Auteur: Internet

Info: https://www.letemps.ch/ - Jean-François Fortier août 2013

[ signifiants symboles ] [ manifestations codées ] [ tiercités ] [ contextualisation générale ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

homme-animal

Comment les pieuvres changent de couleur
Le morphing, c'était amusant. Rappelez-vous dans Terminator 2 les effets d'infographie qui permettaient au mauvais Terminator de prendre la forme et le visage de toute personne qu'il rencontrait ? La transformation à l'écran violait les règles non écrites de ce qui était prétendument possible de voir et procurait un plaisir profond et déchirant quelque part le fond du cerveau du spectateur. On pouvait presque sentir nos machines neurales se briser et se recoller les unes aux autres.
Dommage que l'effet soit devenu un cliché. De nos jours, on regarde une annonce télévisée ou un film de science-fiction et une voix intérieure dit : "Ho hum, juste un autre morph." Cependant, il y a un clip vidéo que je montre souvent aux élèves et à mes amis pour leur rappeler, ainsi qu'à moi-même, les effets de la transformation anatomique. Cette vidéo est tellement choquante que la plupart des téléspectateurs ne peuvent bien l'apprécier la première fois qu'ils la voient - alors ils demandent à la voir encore et encore et encore, jusqu'à ce que leur esprit se soit suffisamment adapté pour l'accepter.

La vidéo a été tournée en 1997 par mon ami Roger Hanlon alors qu'il faisait de la plongée sous-marine au large de l'île Grand Cayman. Roger est chercheur au Laboratoire de biologie marine de Woods Hole ; sa spécialité est l'étude des céphalopodes, une famille de créatures marines comprenant les poulpes, les calmars et les seiches. La vidéo est tournée alors qu'il nage vers le haut pour examiner un banal rocher recouvert d'algues en suspension. Soudain, étonnamment, un tiers de la roche et une masse enchevêtrée d'algues se transforme et révèle ce qu'elle est vraiment : les bras ondulants d'une pieuvre blanche brillante. Pour se protéger la créature projette de l'encre sur Roger et s'élance au loin, laissant Roger et le spectateur bouches bées.
La vedette de cette vidéo, Octopus vulgaris, est l'une des nombreuses espèces de céphalopodes capables de se métamorphoser, tout comme la pieuvre mimétique et la seiche géante australienne. Le truc est si bizarre qu'un jour j'ai suivi Roger dans l'un de ses voyages de recherche, juste pour m'assurer qu'il ne maquillait pas ça avec des trucages sophistiqués. À cette époque, j'étais accro aux céphalopodes. Mes amis ont dû s'adapter à mon obsession ; ils se sont habitués à mes fulgurances sur ces créatures. Je ne peux plus me résoudre à manger de calamars. En ce qui me concerne, les céphalopodes sont les créatures intelligentes les plus étranges sur Terre. Elles offrent le meilleur exemple de la façon dont des extraterrestres intelligents (s'ils existent) pourraient ètre vraiment différents de nous, et comment ils pourraient nous narguer avec des indices sur l'avenir potentiel de notre propre espèce.

Le morphing chez les céphalopodes fonctionne un peu de la même façon que dans l'infographie. Deux composantes sont impliquées : un changement dans l'image ou la texture visible sur la surface d'une forme et un changement dans la forme sous-jacente elle-même. Les "pixels" de la peau d'un céphalopode sont des organes appelés chromatophores. Ceux-ci peuvent se dilater et se contracter rapidement, et chacun est rempli d'un pigment d'une couleur particulière. Lorsqu'un signal nerveux provoque l'expansion d'un chromatophore rouge, le "pixel" devient rouge. Une série de mouvements nerveux provoque un déplacement de l'image - une animation - qui apparaît sur la peau du céphalopode. Quant aux formes, une pieuvre peut rapidement disposer ses bras pour en former une grande variété, comme un poisson ou un morceau de corail, et peut même soulever des marques sur sa peau pour ajouter de la texture.
Pourquoi se transformer pareillement ? L'une des raisons est le camouflage. (La pieuvre de la vidéo essaie probablement de se cacher de Roger.) Un autre est pour manger. Un des clips vidéo de Roger montre une seiche géante poursuivant un crabe. La seiche est principalement à corps mou, le crabe à armure. À l'approche de la seiche, le crabe, d'allure médiévale, prend une posture machiste, agitant ses griffes acérées vers le corps vulnérable de son ennemi.

La seiche répond avec une performance psychédélique bizarre et ingénieuse. Des images étranges, des couleurs luxueuses et des vagues successives d'éclairs ondulent et filigranes sur sa peau. C'est si incroyable que même le crabe semble désorienté ; son geste menaçant est remplacé un instant par un autre qui semble exprimer "Heuuuuh ?" C'est à ce moment que la seiche frappe entre les fissures de l'armure.
Elle utilise l'art pour chasser ! Chez certains ingénieurs chercheurs cette même manoeuvre s'appelle "esbroufer". Éblouissez votre financier potentiel avec une démonstration de votre projet, puis foncez avant que la lueur ne s'estompe.
En tant que créatures intelligentes, les céphalopodes sont peut-être les plus "étranges" que nous connaissions ; voyez-les comme une répétition générale pour le jour lointain où nous pourrions rencontrer des ET's intelligents. Les chercheurs sur les céphalopodes adorent partager les dernières nouvelles sur les pieuvres intelligentes ou les histoires émouvantes de seiches qui impliquent souvent des évasions téméraires hors des aquariums. Dans une autre vidéo de Roger, une pieuvre sur un récif corallien traverse une dangereuse étendue ouverte entre les têtes de corail. L'animal prend la posture, le dessin et la coloration d'une tête de corail, puis se tient debout comme sur sur ses orteils en pointe et se déplace lentement en terrain découvert. Les seules choses qui bougent sont les bout des bras ; le reste de l'animal semble immobile. Mais voici la partie la plus intelligente : En eau peu profonde à midi, par une journée ensoleillée et agitée, les ombres intenses et la lumière balayent tout. Non seulement le "rocher en mouvement" les imite, mais il veille à ne pas dépasser la vitesse de ces effets lumineux, pleinement conscient de son apparence dans des conditions changeantes.

En tant que chercheur qui étudie la réalité virtuelle, je peux vous dire exactement quelle émotion m'envahit lorsque je regarde les céphalopodes se transformer : la jalousie. La réalité virtuelle, un environnement informatique et graphique immersif dans lequel un humain peut "entrer" et se transformer en diverses choses, n'est que pâle approximation de l'expérience. Vous pouvez avoir un corps virtuel, ou avatar, et faire des choses comme examiner vos mains ou vous regarder dans un miroir virtuel. D'ailleurs certains des premiers avatars expérimentaux étaient en fait aquatiques, dont un qui permettait à une personne d'habiter le corps d'un homard.

Le problème, c'est que pour se transformer, les humains doivent concevoir des avatars dans les moindres détails à l'avance. Nos outils logiciels ne sont pas encore assez flexibles pour nous permettre, en réalité virtuelle, de nous imaginer sous différentes formes. Pourquoi le voudrions-nous ? Considérez les avantages existants de notre capacité à créer des sons avec notre bouche. Nous pouvons faire de nouveaux bruits et imiter les bruits existants, spontanément et instantanément. Mais quand il s'agit de communication visuelle, nous sommes paralysés. Nous pouvons mimer, nous pouvons apprendre à dessiner et à peindre, ou utiliser des logiciels de conception graphique par ordinateur. Mais nous ne pouvons pas produire des images à la vitesse à laquelle nous pouvons les imaginer.

Nos capacités vocales font partie de ce qui a permis à notre espèce de développer via le langage parlé. De même, notre capacité à dessiner des images - ainsi que les structures cérébrales nécessaires - était pré-adaptative au langage écrit. Supposons que nous ayons la capacité de nous transformer à volonté : Quel genre de langage pourrait rendre cela possible ? Serait-ce la même vieille conversation, ou serions-nous capables de nous "dire" des choses nouvelles les uns aux autres ?

Par exemple, au lieu de dire "J'ai faim ; allons chasser le crabe", vous pourriez simuler votre propre transparence pour que vos amis puissent voir votre estomac vide, ou vous transformer en jeu vidéo sur la chasse au crabe pour que vous et vos compatriotes puissiez vous entraîner un peu avant la chasse réelle. J'appelle ça une communication post symbolique. Certaines personnes pensent que la capacité de morphing ne ferait que vous donner un nouveau dictionnaire qui correspondrait aux mêmes vieilles idées, avec des avatars à la place des mots, alors que d'autres, dont moi, pensent qu'il y aura des différences fondamentales.
Il y a une autre façon d'y penser. Si les céphalopodes évoluent un jour pour devenir des créatures intelligentes et développer des civilisations, que pourraient-elles faire de cette capacité à se transformer ? Serions-nous capables de communiquer avec elles ? Peut-être offrent-elles un substitut utile à la réflexion sur une façon dont les extraterrestres intelligents, où qu'ils soient, pourraient un jour se présenter à nous. En essayant de développer de nouvelles façons de communiquer en utilisant le morphing dans la réalité virtuelle, nous faisons au moins un peu pour nous préparer à cette possibilité. Nous, les humains, pensons beaucoup de nous-mêmes en tant qu'espèce ; nous avons tendance à supposer que la façon dont nous pensons est la seule façon de penser. Peut-être devrions-nous y réfléchir à deux fois.

Auteur: Lanier Jaron

Info: http://discovermagazine.com, April 02, 2006

[ prospective ]

 

Commentaires: 0

mondialisation

Les erreurs de l'État impérial mondial et les erreurs des autres
On m'a fait remarquer que les bizarreries de la réconciliation sans vérité que j'ai rencontrées aux Philippines eu égard à l'importance persistante de la famille Marcos, malgré le discrédit généralisé de la période où elle était aux commandes (1965-1986), n'est pas aussi étrange qu'il y paraît.
Après tout, Jeb Bush a récemment annoncé son intention de briguer la présidence des États-Unis en 2016, et George W. Bush, malgré sa présidence déplorable, est considéré comme un atout politique. Il s'active à faire campagne et à récolter des fonds en faveur de son jeune frère. Aux Philippines, contrairement aux États-Unis, il y a eu une rupture politique provoquée par le mouvement Pouvoir du peuple, qui a écarté le clan Marcos du pouvoir et a porté directement à la présidence Corey Aquino, la veuve de Benigno Aquino Jr., l'opposant à Marcos assassiné. Même aujourd'hui, ce triomphe populiste est célébré comme un jour de fierté nationale pour le pays, et Benigno Noynoy Aquino III siège au palais de Malacañang comme le président élu du pays. Pourtant, les réalités politiques aux Philippines, comme aux États-Unis, sont plus connues pour leur continuité avec un passé discrédité que pour les changements qui rejettent et surmontent ce passé.
Barack Obama agissait dans un contexte politique certes différent aux États-Unis lorsqu'il a mis de côté les allégations bien fondées de criminalité adressées à l'équipe au pouvoir pendant la présidence de Bush, affirmant prudemment que le pays devait regarder vers l'avant et non derrière lorsqu'il s'agit de la responsabilité pénale de ses anciens dirigeants politiques. Bien sûr, c'est l'opposé de ce qui a été fait avec les dirigeants allemands et japonais survivants après la Deuxième Guerre mondiale avec les procès largement acclamés de Nuremberg et de Tokyo [ainsi qu'avec Saddam Hussein et Muammar Khadafi, NdT] ; et cela ne peut pas devenir la norme aux États-Unis par rapport aux crimes des gens ordinaires, ni même à l'égard des crimes louables des lanceurs d'alerte du genre de ceux attribués à Chelsea Manning, Julian Assange et Edward Snowden. Une telle impunité sélective semble être le prix que les démocraties impériales paient pour éviter la guerre civile dans le pays, et préférable à une unité obtenue par des formes autoritaires de gouvernement.
Pour cette seule raison, l'approche moralement régressive d'Obama de la responsabilité est politiquement compréhensible et prudente. L'Amérique est polarisée, et la partie la plus frustrée et la plus en colère des citoyens embrasse la culture de l'arme à feu et reste probablement ardemment en faveur de la sorte de militarisme et de ferveur patriotique qui avait été si fortement mise en avant pendant la présidence Bush.
Des pensées dans ce sens m'ont conduit à une série de réflexions plus larges. Les erreurs que font les Philippines, certes épouvantables en termes de droits humains, sont au moins principalement confinées dans les limites territoriales du pays et font des victimes parmi leurs propres citoyens. A titre de comparaison, les erreurs de politique étrangère commises par les États-Unis font des victimes principalement chez les autres, bien qu'ils en fassent souvent payer le prix, en même temps, aux Américains les plus marginaux et les plus vulnérables. Comme société, beaucoup regrettent les effets de la guerre au Vietnam ou de la guerre d'Irak sur la sérénité et l'estime de soi de la société américaine, mais en tant qu'Américains, nous ne faisons que rarement, sinon jamais, une pause pour déplorer les immenses pertes infligées à l'expérience sociétale qu'ont vécue ceux qui vivent sur ces lointains champs de bataille de l'ambition géopolitique. Ces sociétés victimes sont les récepteurs passifs de cette expérience destructrice, et possèdent rarement la capacité ou même la volonté politique de riposter. Telle est l'asymétrie des relations impériales.
On estime qu'entre 1,6 et 3,8 millions de Vietnamiens sont morts pendant la guerre du Vietnam en comparaison des 58 000 Américains. Des proportions similaires sont présentes dans les guerres d'Afghanistan et d'Irak, même sans considérer les perturbations et les destructions endurées. En Irak, depuis 2003, on estime qu'entre 600 000 et 1 millions d'Irakiens ont été tués et que plus de 2 millions ont été déplacés dans le pays, et que 500 000 Irakiens sont encore réfugiés en raison de la guerre, tandis que les États-Unis ont perdu quelque chose comme 4 500 membres de leur personnel combattant. Les statistiques du champ de bataille ne doivent pas nous aveugler sur le caractère absolu de chaque décès du point de vue de leurs proches, mais elles révèlent une dimension centrale de la distribution des coûts humains relatifs de la guerre entre un gouvernement qui intervient et la société cible. Ce calcul de la mort au combat commence à raconter l'histoire de la dévastation d'une société étrangère : les dangers résiduels qui peuvent se matérialiser dans la mort et des blessures mutilantes longtemps après que les armes se sont tues, à cause des munitions létales non explosées qui tapissent le pays pour des générations, la contamination du sol par l'agent Orange et les ogives contenant de l'uranium appauvri, sans oublier les traumatismes et les nombreux rappels quotidiens de souvenirs de guerre sous la forme des paysages dévastés et des sites culturels détruits laissés en héritage.
Selon presque tous les points de vue éthiques, il semblerait qu'une certaine conception de la responsabilité internationale devrait restreindre l'usage de la force dans des situations autres que celles autorisées par le droit international. Mais ce n'est pas la manière dont le monde fonctionne. Les erreurs et les actes répréhensibles qui se produisent dans une guerre étrangère lointaine sont rarement reconnus, ils ne sont jamais punis et jamais aucune compensation n'est offerte. Paradoxalement, seuls les dirigeants de ces territoires sont tenus de rendre des comptes (par exemple Saddam Hussein, Slobodan Milosevic et Mouammar Kadhafi). Le gouvernement des États-Unis, et plus précisément le Pentagone, a pour principe de dire au monde qu'il ne recueille aucune donnée sur les victimes civiles associées à ses opérations militaires internationales. En partie, il y a une attitude de déni, qui minimise les épreuves infligées aux pays étrangers et, pour une autre partie, il y a le baume d'une insistance officielle sous-jacente que les États-Unis font tous les efforts possibles pour éviter les victimes civiles. Dans le contexte des attaques de drones, Washington soutient avec insistance qu'il y a peu de victimes civiles, mesurées par le nombre de décès, mais n'admet jamais qu'il y a un nombre bien plus important de civils qui vivent ensuite dans la terreur intense et permanente d'être visés ou involontairement frappés à mort par un missile errant [pas errant pour tout le monde, malheureusement, NdT].
Compte tenu des structures étatiques et impériales de l'ordre mondial, il n'est pas surprenant que si peu d'attention soit portée à ces questions. Les erreurs d'un État impérial mondial ont des répercussions matérielles bien au-delà de leurs frontières, tandis que les erreurs d'un État normal résonnent à l'intérieur du pays comme dans une chambre d'écho. Les torts de ceux qui agissent pour l'État impérial mondial sont protégés des regards par l'impunité de fait liée à leur force, tandis que les torts de ceux qui agissent pour un État normal sont de de plus en plus sujets à des procédures judiciaires internationales. Lorsque c'est arrivé après la Deuxième Guerre mondiale, cela s'est appelé justice des vainqueurs ; lorsque cela arrive aujourd'hui, en particulier avec la jurisprudence borgne de la légalité libérale, c'est expliqué en référence à la prudence et au réalisme, à la nécessité d'être pragmatique, de faire ce qu'il est possible, d'accepter les limites, d'accorder un procès équitable à ceux qui sont accusés, de dissuader certaines tendances aux dérives dangereuses.
Cela ne changera pas jusqu'à ce que l'une de ces deux choses se produise : soit la mise en place d'une instance mondiale pour interpréter et appliquer le droit pénal [ce tribunal existe, le TPI, mais les US ont obtenu une dérogation pour eux-mêmes (sic!), NdT], soit une modification considérable de la conscience politique des États impériaux mondiaux par l'internalisation d'un ethos de responsabilité envers les sociétés étrangères et leurs habitants. Cette description des progrès nécessaires du droit et de la justice devrait nous faire prendre conscience à quel point de telles attentes restent utopiques.
Actuellement, il n'y a qu'un seul et unique État impérial mondial, les États-Unis d'Amérique. Certains suggèrent que les prouesses économiques de la Chine créent un centre rival de pouvoir et d'influence, qui pourrait être reconnu comme un second État impérial mondial. Cela semble erroné. La Chine peut être plus résiliente et elle est certainement moins militariste dans sa conception de la sécurité et de la poursuite de ses intérêts, mais elle n'est pas mondiale, ni ne mène de guerres lointaines. De plus, la langue, la monnaie et la culture chinoises ne jouissent pas de la portée mondiale de l'anglais, du dollar américain et du capitalisme franchisé. Indubitablement, la Chine est actuellement l'État le plus important dans le monde, mais sa réalité est en accord avec les idées du Traité de Wesphalie relatives à la souveraineté territoriale, tandis que les États-Unis opèrent mondialement dans toutes les régions pour consolider leur statut d'unique État impérial mondial. En effet, le premier État de ce type dans l'histoire du monde.

Auteur: Falk Richard

Info: 30 mars 2015, Source zcomm.org

[ USA ] [ géopolitique ]

 

Commentaires: 0

legos protéiques

De nouveaux outils d’IA prédisent comment les blocs de construction de la vie s’assemblent

AlphaFold3 de Google DeepMind et d'autres algorithmes d'apprentissage profond peuvent désormais prédire la forme des complexes en interaction de protéines, d'ADN, d'ARN et d'autres molécules, capturant ainsi mieux les paysages biologiques des cellules.

Les protéines sont les machines moléculaires qui soutiennent chaque cellule et chaque organisme, et savoir à quoi elles ressemblent sera essentiel pour comprendre comment elles fonctionnent normalement et fonctionnent mal en cas de maladie. Aujourd’hui, les chercheurs ont fait un grand pas en avant vers cet objectif grâce au développement de nouveaux algorithmes d’apprentissage automatique capables de prédire les formes rdéployées et repliées non seulement des protéines mais aussi d’autres biomolécules avec une précision sans précédent.

Dans un article publié aujourd'hui dans Nature , Google DeepMind et sa société dérivée Isomorphic Labs ont annoncé la dernière itération de leur programme AlphaFold, AlphaFold3, capable de prédire les structures des protéines, de l'ADN, de l'ARN, des ligands et d'autres biomolécules, seuls ou liés ensemble dans différentes configurations. Les résultats font suite à une mise à jour similaire d'un autre algorithme de prédiction de structure d'apprentissage profond, appelé RoseTTAFold All-Atom, publié en mars dans Science .

Même si les versions précédentes de ces algorithmes pouvaient prédire la structure des protéines – une réussite remarquable en soi – elles ne sont pas allées assez loin pour dissiper les mystères des processus biologiques, car les protéines agissent rarement seules. "Chaque fois que je donnais une conférence AlphaFold2, je pouvais presque deviner quelles seraient les questions", a déclaré John Jumper, qui dirige l'équipe AlphaFold chez Google DeepMind. "Quelqu'un allait lever la main et dire : 'Oui, mais ma protéine interagit avec l'ADN.' Pouvez-vous me dire comment ?' " Jumper devrait bien admettre qu'AlphaFold2 ne connaissait pas la réponse.

Mais AlphaFold3 pourrait le faire. Avec d’autres algorithmes d’apprentissage profond émergents, il va au-delà des protéines et s’étend sur un paysage biologique plus complexe et plus pertinent qui comprend une bien plus grande diversité de molécules interagissant dans les cellules.

" On découvre désormais toutes les interactions complexes qui comptent en biologie ", a déclaré Brenda Rubenstein , professeure agrégée de chimie et de physique à l'Université Brown, qui n'a participé à aucune des deux études. " On commence à avoir une vision plus large."

Comprendre ces interactions est " fondamental pour la fonction biologique ", a déclaré Paul Adams , biophysicien moléculaire au Lawrence Berkeley National Laboratory qui n’a également participé à aucune des deux études. " Les deux groupes ont fait des progrès significatifs pour résoudre ce problème. "

Les deux algorithmes ont leurs limites, mais ils ont le potentiel d’évoluer vers des outils de prédiction encore plus puissants. Dans les mois à venir, les scientifiques commenceront à les tester et, ce faisant, ils révéleront à quel point ces algorithmes pourraient être utiles.

Progrès de l’IA en biologie

L’apprentissage profond est une variante de l’apprentissage automatique vaguement inspirée du cerveau humain. Ces algorithmes informatiques sont construits à l’aide de réseaux complexes de nœuds d’information (appelés neurones) qui forment des connexions en couches les unes avec les autres. Les chercheurs fournissent au réseau d’apprentissage profond des données d’entraînement, que l’algorithme utilise pour ajuster les forces relatives des connexions entre les neurones afin de produire des résultats toujours plus proches des exemples d’entraînement. Dans le cas des systèmes d'intelligence artificielle protéique, ce processus amène le réseau à produire de meilleures prédictions des formes des protéines sur la base de leurs données de séquence d'acides aminés.

AlphaFold2, sorti en 2021, a constitué une avancée majeure dans l’apprentissage profond en biologie. Il a ouvert la voie à un monde immense de structures protéiques jusque-là inconnues et est déjà devenu un outil utile pour les chercheurs qui cherchent à tout comprendre, depuis les structures cellulaires jusqu'à la tuberculose. Cela a également inspiré le développement d’outils supplémentaires d’apprentissage biologique profond. Plus particulièrement, le biochimiste David Baker et son équipe de l’Université de Washington ont développé en 2021 un algorithme concurrent appelé RoseTTAFold , qui, comme AlphaFold2, prédit les structures protéiques à partir de séquences de données.

Depuis, les deux algorithmes ont été mis à jour avec de nouvelles fonctionnalités. RoseTTAFold Diffusion pourrait être utilisé pour concevoir de nouvelles protéines qui n’existent pas dans la nature. AlphaFold Multimer pourrait étudier l’interaction de plusieurs protéines. " Mais ce que nous avons laissé sans réponse ", a déclaré Jumper, " était : comment les protéines communiquent-elles avec le reste de la cellule ? "

Le succès des premières itérations d'algorithmes d'apprentissage profond de prédiction des protéines reposait sur la disponibilité de bonnes données d'entraînement : environ 140 000 structures protéiques validées qui avaient été déposées pendant 50 ans dans la banque de données sur les protéines. De plus en plus, les biologistes ont également déposé les structures de petites molécules, d'ADN, d'ARN et leurs combinaisons. Dans cette expansion de l'algorithme d'AlphaFold pour inclure davantage de biomolécules, " la plus grande inconnue ", a déclaré Jumper, "est de savoir s'il y aurait suffisamment de données pour permettre à l'algorithme de prédire avec précision les complexes de protéines avec ces autres molécules."

Apparemment oui. Fin 2023, Baker puis Jumper ont publié les versions préliminaires de leurs nouveaux outils d’IA, et depuis, ils soumettent leurs algorithmes à un examen par les pairs.

Les deux systèmes d'IA répondent à la même question, mais les architectures sous-jacentes de leurs méthodes d'apprentissage profond diffèrent, a déclaré Mohammed AlQuraishi , biologiste des systèmes à l'Université de Columbia qui n'est impliqué dans aucun des deux systèmes. L'équipe de Jumper a utilisé un processus appelé diffusion – technologie qui alimente la plupart des systèmes d'IA génératifs non basés sur du texte, tels que Midjourney et DALL·E, qui génèrent des œuvres d'art basées sur des invites textuelles, a expliqué AlQuraishi. Au lieu de prédire directement la structure moléculaire puis de l’améliorer, ce type de modèle produit d’abord une image floue et l’affine de manière itérative.

D'un point de vue technique, il n'y a pas de grand saut entre RoseTTAFold et RoseTTAFold All-Atom, a déclaré AlQuraishi. Baker n'a pas modifié massivement l'architecture sous-jacente de RoseTTAFold, mais l'a mise à jour pour inclure les règles connues des interactions biochimiques. L'algorithme n'utilise pas la diffusion pour prédire les structures biomoléculaires. Cependant, l'IA de Baker pour la conception de protéines le fait. La dernière itération de ce programme, connue sous le nom de RoseTTAFold Diffusion All-Atom, permet de concevoir de nouvelles biomolécules en plus des protéines.

" Le type de dividendes qui pourraient découler de la possibilité d'appliquer les technologies d'IA générative aux biomolécules n'est que partiellement réalisé grâce à la conception de protéines", a déclaré AlQuraishi. "Si nous pouvions faire aussi bien avec de petites molécules, ce serait incroyable." 

Évaluer la concurrence

Côte à côte, AlphaFold3 semble être plus précis que RoseTTAFold All-Atom. Par exemple, dans leur analyse dans Nature , l'équipe de Google a constaté que leur outil est précis à environ 76 % pour prédire les structures des protéines interagissant avec de petites molécules appelées ligands, contre une précision d'environ 42 % pour RoseTTAFold All-Atom et 52 % pour le meilleur. outils alternatifs disponibles.

Les performances de prédiction de structure d'AlphaFold3 sont " très impressionnantes ", a déclaré Baker, " et meilleures que celles de RoseTTAFold All-Atom ".

Toutefois, ces chiffres sont basés sur un ensemble de données limité qui n'est pas très performant, a expliqué AlQuraishi. Il ne s’attend pas à ce que toutes les prédictions concernant les complexes protéiques obtiennent un score aussi élevé. Et il est certain que les nouveaux outils d’IA ne sont pas encore assez puissants pour soutenir à eux seuls un programme robuste de découverte de médicaments, car cela nécessite que les chercheurs comprennent des interactions biomoléculaires complexes. Pourtant, " c'est vraiment prometteur ", a-t-il déclaré, et nettement meilleur que ce qui existait auparavant.

Adams est d'accord. "Si quelqu'un prétend pouvoir utiliser cela demain pour développer des médicaments avec précision, je n'y crois pas", a-t-il déclaré. " Les deux méthodes sont encore limitées dans leur précision, [mais] les deux constituent des améliorations spectaculaires par rapport à ce qui était possible. "

(Image gif, tournante, en 3D : AlphaFold3 peut prédire la forme de complexes biomoléculaires, comme cette protéine de pointe provenant d'un virus du rhume. Les structures prédites de deux protéines sont visualisées en bleu et vert, tandis que les petites molécules (ligands) liées aux protéines sont représentées en jaune. La structure expérimentale connue de la protéine est encadrée en gris.)

Ils seront particulièrement utiles pour créer des prédictions approximatives qui pourront ensuite être testées informatiquement ou expérimentalement. Le biochimiste Frank Uhlmann a eu l'occasion de pré-tester AlphaFold3 après avoir croisé un employé de Google dans un couloir du Francis Crick Institute de Londres, où il travaille. Il a décidé de rechercher une interaction protéine-ADN qui était " vraiment déroutante pour nous ", a-t-il déclaré. AlphaFold3 a craché une prédiction qu'ils testent actuellement expérimentalement en laboratoire. "Nous avons déjà de nouvelles idées qui pourraient vraiment fonctionner", a déclaré Uhlmann. " C'est un formidable outil de découverte. "

Il reste néanmoins beaucoup à améliorer. Lorsque RoseTTAFold All-Atom prédit les structures de complexes de protéines et de petites molécules, il place parfois les molécules dans la bonne poche d'une protéine mais pas dans la bonne orientation. AlphaFold3 prédit parfois de manière incorrecte la chiralité d'une molécule – l'orientation géométrique distincte " gauche " ou " droite " de sa structure. Parfois, il hallucine ou crée des structures inexactes.

Et les deux algorithmes produisent toujours des images statiques des protéines et de leurs complexes. Dans une cellule, les protéines sont dynamiques et peuvent changer en fonction de leur environnement : elles se déplacent, tournent et passent par différentes conformations. Il sera difficile de résoudre ce problème, a déclaré Adams, principalement en raison du manque de données de formation. " Ce serait formidable de déployer des efforts concertés pour collecter des données expérimentales conçues pour éclairer ces défis ", a-t-il déclaré.

Un changement majeur dans le nouveau produit de Google est qu'il ne sera pas open source. Lorsque l’équipe a publié AlphaFold2, elle a publié le code sous-jacent, qui a permis aux biologistes de reproduire et de jouer avec l’algorithme dans leurs propres laboratoires. Mais le code d'AlphaFold3 ne sera pas accessible au public.

 " Ils semblent décrire la méthode en détail. Mais pour le moment, au moins, personne ne peut l’exécuter et l’utiliser comme il l’a fait avec [AlphaFold2] ", a déclaré AlQuraishi. C’est " un grand pas en arrière. Nous essaierons bien sûr de le reproduire."

Google a cependant annoncé qu'il prenait des mesures pour rendre le produit accessible en proposant un nouveau serveur AlphaFold aux biologistes exécutant AlphaFold3. Prédire les structures biomoléculaires nécessite une tonne de puissance de calcul : même dans un laboratoire comme Francis Crick, qui héberge des clusters informatiques hautes performances, il faut environ une semaine pour produire un résultat, a déclaré Uhlmann. En comparaison, les serveurs plus puissants de Google peuvent faire une prédiction en 10 minutes, a-t-il déclaré, et les scientifiques du monde entier pourront les utiliser. "Cela va démocratiser complètement la recherche sur la prédiction des protéines", a déclaré Uhlmann.

Le véritable impact de ces outils ne sera pas connu avant des mois ou des années, alors que les biologistes commenceront à les tester et à les utiliser dans la recherche. Et ils continueront à évoluer. La prochaine étape de l'apprentissage profond en biologie moléculaire consiste à " gravir l'échelle de la complexité biologique ", a déclaré Baker, au-delà même des complexes biomoléculaires prédits par AlphaFold3 et RoseTTAFold All-Atom. Mais si l’histoire de l’IA en matière de structure protéique peut prédire l’avenir, alors ces modèles d’apprentissage profond de nouvelle génération continueront d’aider les scientifiques à révéler les interactions complexes qui font que la vie se réalise.

" Il y a tellement plus à comprendre ", a déclaré Jumper. "C'est juste le début."

Auteur: Internet

Info: https://www.quantamagazine.org/new-ai-tools-predict-how-lifes-building-blocks-assemble-20240508/ - Yasemin Saplakoglu, 8 mai 2024

[ briques du vivant ] [ texte-image ] [ modélisation mobiles ] [ nano mécanismes du vivant ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Comment l'IA comprend des trucs que personne ne lui lui a appris

Les chercheurs peinent à comprendre comment les modèles d'Intelligence artificielle, formés pour perroquetter les textes sur Internet, peuvent effectuer des tâches avancées comme coder, jouer à des jeux ou essayer de rompre un mariage.

Personne ne sait encore comment ChatGPT et ses cousins ​​de l'intelligence artificielle vont transformer le monde, en partie parce que personne ne sait vraiment ce qui se passe à l'intérieur. Certaines des capacités de ces systèmes vont bien au-delà de ce pour quoi ils ont été formés, et même leurs inventeurs ne savent pas pourquoi. Un nombre croissant de tests suggèrent que ces systèmes d'IA développent des modèles internes du monde réel, tout comme notre propre cerveau le fait, bien que la technique des machines soit différente.

"Tout ce que nous voulons faire avec ces systèmes pour les rendre meilleurs ou plus sûrs ou quelque chose comme ça me semble une chose ridicule à demander  si nous ne comprenons pas comment ils fonctionnent", déclare Ellie Pavlick de l'Université Brown,  un des chercheurs travaillant à combler ce vide explicatif.

À un certain niveau, elle et ses collègues comprennent parfaitement le GPT (abréviation de generative pretrained transformer) et d'autres grands modèles de langage, ou LLM. Des modèles qui reposent sur un système d'apprentissage automatique appelé réseau de neurones. De tels réseaux ont une structure vaguement calquée sur les neurones connectés du cerveau humain. Le code de ces programmes est relativement simple et ne remplit que quelques pages. Il met en place un algorithme d'autocorrection, qui choisit le mot le plus susceptible de compléter un passage sur la base d'une analyse statistique laborieuse de centaines de gigaoctets de texte Internet. D'autres algorithmes auto-apprenants supplémentaire garantissant que le système présente ses résultats sous forme de dialogue. En ce sens, il ne fait que régurgiter ce qu'il a appris, c'est un "perroquet stochastique", selon les mots d'Emily Bender, linguiste à l'Université de Washington. Mais les LLM ont également réussi à réussir l'examen pour devenir avocat, à expliquer le boson de Higgs en pentamètre iambique (forme de poésie contrainte) ou à tenter de rompre le mariage d'un utilisateurs. Peu de gens s'attendaient à ce qu'un algorithme d'autocorrection assez simple acquière des capacités aussi larges.

Le fait que GPT et d'autres systèmes d'IA effectuent des tâches pour lesquelles ils n'ont pas été formés, leur donnant des "capacités émergentes", a surpris même les chercheurs qui étaient généralement sceptiques quant au battage médiatique sur les LLM. "Je ne sais pas comment ils le font ou s'ils pourraient le faire plus généralement comme le font les humains, mais tout ça mes au défi mes pensées sur le sujet", déclare Melanie Mitchell, chercheuse en IA à l'Institut Santa Fe.

"C'est certainement bien plus qu'un perroquet stochastique, qui auto-construit sans aucun doute une certaine représentation du monde, bien que je ne pense pas que ce soit  vraiment de la façon dont les humains construisent un modèle de monde interne", déclare Yoshua Bengio, chercheur en intelligence artificielle à l'université de Montréal.

Lors d'une conférence à l'Université de New York en mars, le philosophe Raphaël Millière de l'Université de Columbia a offert un autre exemple à couper le souffle de ce que les LLM peuvent faire. Les modèles avaient déjà démontré leur capacité à écrire du code informatique, ce qui est impressionnant mais pas trop surprenant car il y a tellement de code à imiter sur Internet. Millière est allé plus loin en montrant que le GPT peut aussi réaliser du code. Le philosophe a tapé un programme pour calculer le 83e nombre de la suite de Fibonacci. "Il s'agit d'un raisonnement en plusieurs étapes d'un très haut niveau", explique-t-il. Et le robot a réussi. Cependant, lorsque Millière a demandé directement le 83e nombre de Fibonacci, GPT s'est trompé, ce qui suggère que le système ne se contentait pas de répéter ce qui se disait sur l'internet. Ce qui suggère que le système ne se contente pas de répéter ce qui se dit sur Internet, mais qu'il effectue ses propres calculs pour parvenir à la bonne réponse.

Bien qu'un LLM tourne sur un ordinateur, il n'en n'est pas un lui-même. Il lui manque des éléments de calcul essentiels, comme sa propre mémoire vive. Reconnaissant tacitement que GPT seul ne devrait pas être capable d'exécuter du code, son inventeur, la société technologique OpenAI, a depuis introduit un plug-in spécialisé -  outil que ChatGPT peut utiliser pour répondre à une requête - qui remédie à cela. Mais ce plug-in n'a pas été utilisé dans la démonstration de Millière. Au lieu de cela, ce dernier suppose plutôt que la machine a improvisé une mémoire en exploitant ses mécanismes d'interprétation des mots en fonction de leur contexte -  situation similaire à la façon dont la nature réaffecte des capacités existantes à de nouvelles fonctions.

Cette capacité impromptue démontre que les LLM développent une complexité interne qui va bien au-delà d'une analyse statistique superficielle. Les chercheurs constatent que ces systèmes semblent parvenir à une véritable compréhension de ce qu'ils ont appris. Dans une étude présentée la semaine dernière à la Conférence internationale sur les représentations de l'apprentissage (ICLR), le doctorant Kenneth Li de l'Université de Harvard et ses collègues chercheurs en intelligence artificielle, Aspen K. Hopkins du Massachusetts Institute of Technology, David Bau de la Northeastern University et Fernanda Viégas , Hanspeter Pfister et Martin Wattenberg, tous à Harvard, ont créé leur propre copie plus petite du réseau neuronal GPT afin de pouvoir étudier son fonctionnement interne. Ils l'ont entraîné sur des millions de matchs du jeu de société Othello en alimentant de longues séquences de mouvements sous forme de texte. Leur modèle est devenu un joueur presque parfait.

Pour étudier comment le réseau de neurones encodait les informations, ils ont adopté une technique que Bengio et Guillaume Alain, également de l'Université de Montréal, ont imaginée en 2016. Ils ont créé un réseau de "sondes" miniatures pour analyser le réseau principal couche par couche. Li compare cette approche aux méthodes des neurosciences. "C'est comme lorsque nous plaçons une sonde électrique dans le cerveau humain", dit-il. Dans le cas de l'IA, la sonde a montré que son "activité neuronale" correspondait à la représentation d'un plateau de jeu d'Othello, bien que sous une forme alambiquée. Pour confirmer ce résultat, les chercheurs ont inversé la sonde afin d'implanter des informations dans le réseau, par exemple en remplaçant l'un des marqueurs noirs du jeu par un marqueur blanc. "En fait, nous piratons le cerveau de ces modèles de langage", explique Li. Le réseau a ajusté ses mouvements en conséquence. Les chercheurs ont conclu qu'il jouait à Othello à peu près comme un humain : en gardant un plateau de jeu dans son "esprit" et en utilisant ce modèle pour évaluer les mouvements. Li pense que le système apprend cette compétence parce qu'il s'agit de la description la plus simple et efficace de ses données pour l'apprentissage. "Si l'on vous donne un grand nombre de scripts de jeu, essayer de comprendre la règle qui les sous-tend est le meilleur moyen de les comprimer", ajoute-t-il.

Cette capacité à déduire la structure du monde extérieur ne se limite pas à de simples mouvements de jeu ; il apparaît également dans le dialogue. Belinda Li (aucun lien avec Kenneth Li), Maxwell Nye et Jacob Andreas, tous au MIT, ont étudié des réseaux qui jouaient à un jeu d'aventure textuel. Ils ont introduit des phrases telles que "La clé est dans le coeur du trésor", suivies de "Tu prends la clé". À l'aide d'une sonde, ils ont constaté que les réseaux encodaient en eux-mêmes des variables correspondant à "coeur" et "Tu", chacune avec la propriété de posséder ou non une clé, et mettaient à jour ces variables phrase par phrase. Le système n'a aucun moyen indépendant de savoir ce qu'est une boîte ou une clé, mais il a acquis les concepts dont il avait besoin pour cette tâche."

"Une représentation de cette situation est donc enfouie dans le modèle", explique Belinda Li.

Les chercheurs s'émerveillent de voir à quel point les LLM sont capables d'apprendre du texte. Par exemple, Pavlick et sa doctorante d'alors, l'étudiante Roma Patel, ont découvert que ces réseaux absorbent les descriptions de couleur du texte Internet et construisent des représentations internes de la couleur. Lorsqu'ils voient le mot "rouge", ils le traitent non seulement comme un symbole abstrait, mais comme un concept qui a une certaine relation avec le marron, le cramoisi, le fuchsia, la rouille, etc. Démontrer cela fut quelque peu délicat. Au lieu d'insérer une sonde dans un réseau, les chercheurs ont étudié sa réponse à une série d'invites textuelles. Pour vérifier si le systhème ne faisait pas simplement écho à des relations de couleur tirées de références en ligne, ils ont essayé de le désorienter en lui disant que le rouge est en fait du vert - comme dans la vieille expérience de pensée philosophique où le rouge d'une personne correspond au vert d'une autre. Plutôt que répéter une réponse incorrecte, les évaluations de couleur du système ont évolué de manière appropriée afin de maintenir les relations correctes.

Reprenant l'idée que pour remplir sa fonction d'autocorrection, le système recherche la logique sous-jacente de ses données d'apprentissage, le chercheur en apprentissage automatique Sébastien Bubeck de Microsoft Research suggère que plus la gamme de données est large, plus les règles du système faire émerger sont générales. "Peut-être que nous nous constatons un tel bond en avant parce que nous avons atteint une diversité de données suffisamment importante pour que le seul principe sous-jacent à toutes ces données qui demeure est que des êtres intelligents les ont produites... Ainsi la seule façon pour le modèle d'expliquer toutes ces données est de devenir intelligent lui-même".

En plus d'extraire le sens sous-jacent du langage, les LLM sont capables d'apprendre en temps réel. Dans le domaine de l'IA, le terme "apprentissage" est généralement réservé au processus informatique intensif dans lequel les développeurs exposent le réseau neuronal à des gigaoctets de données et ajustent petit à petit ses connexions internes. Lorsque vous tapez une requête dans ChatGPT, le réseau devrait être en quelque sorte figé et, contrairement à l'homme, ne devrait pas continuer à apprendre. Il fut donc surprenant de constater que les LLM apprennent effectivement à partir des invites de leurs utilisateurs, une capacité connue sous le nom d'"apprentissage en contexte". "Il s'agit d'un type d'apprentissage différent dont on ne soupçonnait pas l'existence auparavant", explique Ben Goertzel, fondateur de la société d'IA SingularityNET.

Un exemple de la façon dont un LLM apprend vient de la façon dont les humains interagissent avec les chatbots tels que ChatGPT. Vous pouvez donner au système des exemples de la façon dont vous voulez qu'il réponde, et il obéira. Ses sorties sont déterminées par les derniers milliers de mots qu'il a vus. Ce qu'il fait, étant donné ces mots, est prescrit par ses connexions internes fixes - mais la séquence de mots offre néanmoins une certaine adaptabilité. Certaines personnes utilisent le jailbreak à des fins sommaires, mais d'autres l'utilisent pour obtenir des réponses plus créatives. "Il répondra mieux aux questions scientifiques, je dirais, si vous posez directement la question, sans invite spéciale de jailbreak, explique William Hahn, codirecteur du laboratoire de perception de la machine et de robotique cognitive à la Florida Atlantic University. "Sans il sera un meilleur universitaire." (Comme son nom l'indique une invite jailbreak -prison cassée-, invite à  moins délimiter-verrouiller les fonctions de recherche et donc à les ouvrir, avec les risques que ça implique) .

Un autre type d'apprentissage en contexte se produit via l'incitation à la "chaîne de pensée", ce qui signifie qu'on demande au réseau d'épeler chaque étape de son raisonnement - manière de faire qui permet de mieux résoudre les problèmes de logique ou d'arithmétique en passant par plusieurs étapes. (Ce qui rend l'exemple de Millière si surprenant  puisque le réseau a trouvé le nombre de Fibonacci sans un tel encadrement.)

En 2022, une équipe de Google Research et de l'École polytechnique fédérale de Zurich - Johannes von Oswald, Eyvind Niklasson, Ettore Randazzo, João Sacramento, Alexander Mordvintsev, Andrey Zhmoginov et Max Vladymyrov - a montré que l'apprentissage en contexte suit la même procédure de calcul de base que l'apprentissage standard, connue sous le nom de descente de gradient". 

Cette procédure n'était pas programmée ; le système l'a découvert sans aide. "C'est probablement une compétence acquise", déclare Blaise Agüera y Arcas, vice-président de Google Research. De fait il pense que les LLM peuvent avoir d'autres capacités latentes que personne n'a encore découvertes. "Chaque fois que nous testons une nouvelle capacité que nous pouvons quantifier, nous la trouvons", dit-il.

Bien que les LLM aient suffisamment d'angles morts et autres défauts pour ne pas être qualifiés d'intelligence générale artificielle, ou AGI - terme désignant une machine qui atteint l'ingéniosité du cerveau animal - ces capacités émergentes suggèrent à certains chercheurs que les entreprises technologiques sont plus proches de l'AGI que même les optimistes ne l'avaient deviné. "Ce sont des preuves indirectes que nous en sommes probablement pas si loin", a déclaré Goertzel en mars lors d'une conférence sur le deep learning à la Florida Atlantic University. Les plug-ins d'OpenAI ont donné à ChatGPT une architecture modulaire un peu comme celle du cerveau humain. "La combinaison de GPT-4 [la dernière version du LLM qui alimente ChatGPT] avec divers plug-ins pourrait être une voie vers une spécialisation des fonctions semblable à celle de l'homme", déclare Anna Ivanova, chercheuse au M.I.T.

Dans le même temps, les chercheurs s'inquiètent de voir leur capacité à étudier ces systèmes s'amenuiser. OpenAI n'a pas divulgué les détails de la conception et de l'entraînement de GPT-4, en partie du à la concurrence avec Google et d'autres entreprises, sans parler des autres pays. "Il y aura probablement moins de recherche ouverte de la part de l'industrie, et les choses seront plus cloisonnées et organisées autour de la construction de produits", déclare Dan Roberts, physicien théoricien au M.I.T., qui applique les techniques de sa profession à la compréhension de l'IA.

Ce manque de transparence ne nuit pas seulement aux chercheurs, il entrave également les efforts qui visent à comprendre les répercussions sociales de l'adoption précipitée de la technologie de l'IA. "La transparence de ces modèles est la chose la plus importante pour garantir la sécurité", affirme M. Mitchell.

Auteur: Musser Georges

Info: https://www.scientificamerican.com,  11 mai 2023. *algorithme d'optimisation utilisé dans l'apprentissage automatique et les problèmes d'optimisation. Il vise à minimiser ou à maximiser une fonction en ajustant ses paramètres de manière itérative. L'algorithme part des valeurs initiales des paramètres et calcule le gradient de la fonction au point actuel. Les paramètres sont ensuite mis à jour dans la direction du gradient négatif (pour la minimisation) ou positif (pour la maximisation), multiplié par un taux d'apprentissage. Ce processus est répété jusqu'à ce qu'un critère d'arrêt soit rempli. La descente de gradient est largement utilisée dans la formation des modèles d'apprentissage automatique pour trouver les valeurs optimales des paramètres qui minimisent la différence entre les résultats prédits et les résultats réels. Trad et adaptation Mg

[ singularité technologique ] [ versatilité sémantique ]

 

Commentaires: 0

Ajouté à la BD par miguel

question

La conscience est-elle partie prenante de l'univers et de sa structure ?

Des physiciens et des philosophes se sont récemment rencontrés pour débattre d'une théorie de la conscience appelée panpsychisme.

Il y a plus de 400 ans, Galilée a montré que de nombreux phénomènes quotidiens, tels qu'une balle qui roule sur une pente ou un lustre qui se balance doucement au plafond d'une église, obéissent à des lois mathématiques précises. Pour cette intuition, il est souvent salué comme le fondateur de la science moderne. Mais Galilée a reconnu que tout ne se prêtait pas à une approche quantitative. Des choses telles que les couleurs, les goûts et les odeurs "ne sont rien de plus que de simples noms", a déclaré Galilée, car "elles ne résident que dans la conscience". Ces qualités ne sont pas réellement présentes dans le monde, affirmait-il, mais existent uniquement dans l'esprit des créatures qui les perçoivent. "Par conséquent, si l'on supprimait la créature vivante, écrivait-il, toutes ces qualités seraient effacées et anéanties.

Depuis l'époque de Galilée, les sciences physiques ont fait un bond en avant, expliquant le fonctionnement des plus petits quarks jusqu'aux plus grands amas de galaxies. Mais expliquer les choses qui résident "uniquement dans la conscience" - le rouge d'un coucher de soleil, par exemple, ou le goût amer d'un citron - s'est avéré beaucoup plus difficile. Les neuroscientifiques ont identifié un certain nombre de corrélats neuronaux de la conscience - des états cérébraux associés à des états mentaux spécifiques - mais n'ont pas expliqué comment la matière forme les esprits en premier lieu. Comme l'a dit le philosophe Colin McGinn dans un article publié en 1989, "d'une manière ou d'une autre, nous avons l'impression que l'eau du cerveau physique est transformée en vin de la conscience". Le philosophe David Chalmers a célèbrement surnommé ce dilemme le "problème difficile" de la conscience*.

Des chercheurs se sont récemment réunis pour débattre de ce problème au Marist College de Poughkeepsie, dans l'État de New York, à l'occasion d'un atelier de deux jours consacré à une idée connue sous le nom de panpsychisme. Ce concept propose que la conscience soit un aspect fondamental de la réalité, au même titre que la masse ou la charge électrique. L'idée remonte à l'Antiquité - Platon l'a prise au sérieux - et a eu d'éminents partisans au fil des ans, notamment le psychologue William James et le philosophe et mathématicien Bertrand Russell. Elle connaît depuis peu un regain d'intérêt, notamment à la suite de la publication en 2019 du livre du philosophe Philip Goff, Galileo's Error, qui plaide vigoureusement en sa faveur.

M. Goff, de l'université de Durham en Angleterre, a organisé l'événement récent avec le philosophe mariste Andrei Buckareff, et il a été financé par une subvention de la Fondation John Templeton. Dans une petite salle de conférence dotée de fenêtres allant du sol au plafond et donnant sur l'Hudson, environ deux douzaines d'universitaires ont examiné la possibilité que la conscience se trouve peut-être en bas de l'échelle.

L'attrait du panpsychisme réside en partie dans le fait qu'il semble apporter une solution à la question posée par M. Chalmers : nous n'avons plus à nous préoccuper de la manière dont la matière inanimée forme des esprits, car l'esprit était là depuis le début, résidant dans le tissu de l'univers. Chalmers lui-même a adopté une forme de panpsychisme et a même suggéré que les particules individuelles pourraient être conscientes d'une manière ou d'une autre. Il a déclaré lors d'une conférence TED qu'un photon "pourrait avoir un élément de sentiment brut et subjectif, un précurseur primitif de la conscience". Le neuroscientifique Christof Koch est également d'accord avec cette idée. Dans son livre Consciousness paru en 2012, il note que si l'on accepte la conscience comme un phénomène réel qui ne dépend d'aucune matière particulière - qu'elle est "indépendante du substrat", comme le disent les philosophes - alors "il est facile de conclure que le cosmos tout entier est imprégné de sensibilité".

Pourtant, le panpsychisme va à l'encontre du point de vue majoritaire dans les sciences physiques et en philosophie, qui considère la conscience comme un phénomène émergent, quelque chose qui apparaît dans certains systèmes complexes, tels que le cerveau humain. Selon ce point de vue, les neurones individuels ne sont pas conscients, mais grâce aux propriétés collectives de quelque 86 milliards de neurones et à leurs interactions - qui, il est vrai, ne sont encore que mal comprises - les cerveaux (ainsi que les corps, peut-être) sont conscients. Les enquêtes suggèrent qu'un peu plus de la moitié des philosophes universitaires soutiennent ce point de vue, connu sous le nom de "physicalisme" ou "émergentisme", tandis qu'environ un tiers rejette le physicalisme et penche pour une alternative, dont le panpsychisme est l'une des nombreuses possibilités.

Lors de l'atelier, M. Goff a expliqué que la physique avait manqué quelque chose d'essentiel en ce qui concerne notre vie mentale intérieure. En formulant leurs théories, "la plupart des physiciens pensent à des expériences", a-t-il déclaré. "Je pense qu'ils devraient se demander si ma théorie est compatible avec la conscience, car nous savons qu'elle est réelle.

De nombreux philosophes présents à la réunion ont semblé partager l'inquiétude de M. Goff quant à l'échec du physicalisme lorsqu'il s'agit de la conscience. "Si vous connaissez les moindres détails des processus de mon cerveau, vous ne saurez toujours pas ce que c'est que d'être moi", déclare Hedda Hassel Mørch, philosophe à l'université des sciences appliquées de Norvège intérieure. "Il existe un fossé explicatif évident entre le physique et le mental. Prenons l'exemple de la difficulté d'essayer de décrire la couleur à quelqu'un qui n'a vu le monde qu'en noir et blanc. Yanssel Garcia, philosophe à l'université du Nebraska Omaha, estime que les faits physiques seuls sont inadéquats pour une telle tâche. "Il n'y a rien de physique que l'on puisse fournir [à une personne qui ne voit qu'en nuances de gris] pour qu'elle comprenne ce qu'est l'expérience de la couleur ; il faudrait qu'elle en fasse elle-même l'expérience", explique-t-il. "La science physique est, en principe, incapable de nous raconter toute l'histoire. Parmi les différentes alternatives proposées, il estime que "le panpsychisme est notre meilleure chance".

Mais le panpsychisme attire également de nombreuses critiques. Certains soulignent qu'il n'explique pas comment de petits morceaux de conscience s'assemblent pour former des entités conscientes plus substantielles. Ses détracteurs affirment que cette énigme, connue sous le nom de "problème de la combinaison", équivaut à une version du problème difficile propre au panpsychisme. Le problème de la combinaison "est le défi majeur de la position panpsychiste", admet M. Goff. "Et c'est là que se concentre la majeure partie de notre énergie.

D'autres remettent en question le pouvoir explicatif du panpsychisme. Dans son livre Being You (2021), le neuroscientifique Anil Seth écrit que les principaux problèmes du panpsychisme sont qu'"il n'explique rien et qu'il ne conduit pas à des hypothèses vérifiables. C'est une échappatoire facile au mystère apparent posé par le problème difficile".

Si la plupart des personnes invitées à l'atelier étaient des philosophes, les physiciens Sean Carroll et Lee Smolin, ainsi que le psychologue cognitif Donald Hoffman, ont également pris la parole. Carroll, un physicaliste pur et dur, a joué le rôle de chef de file officieux de l'opposition pendant le déroulement de l'atelier. (Lors d'un débat public très suivi entre Goff et Carroll, la divergence de leurs visions du monde est rapidement devenue évidente. Goff a déclaré que le physicalisme ne menait "précisément nulle part" et a suggéré que l'idée même d'essayer d'expliquer la conscience en termes physiques était incohérente. M. Carroll a affirmé que le physicalisme se porte plutôt bien et que, bien que la conscience soit l'un des nombreux phénomènes qui ne peuvent être déduits des phénomènes microscopiques, elle constitue néanmoins une caractéristique réelle et émergente du monde macroscopique. Il a présenté la physique des gaz comme un exemple parallèle. Au niveau micro, on parle d'atomes, de molécules et de forces ; au niveau macro, on parle de pression, de volume et de température. Il s'agit de deux types d'explications, en fonction du "niveau" étudié, mais elles ne présentent pas de grand mystère et ne constituent pas un échec pour la physique. En peu de temps, Goff et Carroll se sont enfoncés dans les méandres de l'argument dit de la connaissance (également connu sous le nom de "Marie dans la chambre noire et blanche"), ainsi que de l'argument des "zombies". Tous deux se résument à la même question clé : Y a-t-il quelque chose à propos de la conscience qui ne peut être expliqué par les seuls faits physiques ? Une grande partie du ping-pong rhétorique entre Goff et Carroll a consisté pour Goff à répondre oui à cette question et pour Carroll à y répondre non.

Une autre objection soulevée par certains participants est que le panpsychisme n'aborde pas ce que les philosophes appellent le problème des "autres esprits". (Vous avez un accès direct à votre propre esprit, mais comment pouvez-vous déduire quoi que ce soit de l'esprit d'une autre personne ?) "Même si le panpsychisme est vrai, il y aura toujours un grand nombre de choses - notamment des choses liées à l'expérience des autres - que nous ne connaîtrons toujours pas", déclare Rebecca Chan, philosophe à l'université d'État de San José. Elle craint que l'invocation d'une couche sous-jacente d'esprit ne revienne à invoquer Dieu. Je me demande parfois si la position panpsychiste n'est pas similaire aux arguments du "dieu des lacunes"", dit-elle, en référence à l'idée que Dieu est nécessaire pour combler les lacunes de la connaissance scientifique.

D'autres idées ont été évoquées. L'idée du cosmopsychisme a été évoquée - en gros, l'idée que l'univers lui-même est conscient. Paul Draper, philosophe à l'université de Purdue qui a participé via Zoom, a parlé d'une idée subtilement différente connue sous le nom de "théorie de l'éther psychologique", à savoir que les cerveaux ne produisent pas la conscience mais l'utilisent plutôt. Selon cette théorie, la conscience existait déjà avant que les cerveaux n'existent, comme un ether omniprésent. Si cette idée est correcte, écrit-il, "alors (selon toute vraisemblance) Dieu existe".

M. Hoffman, chercheur en sciences cognitives à l'université de Californie à Irvine, qui s'est également adressé à l'atelier via Zoom, préconise de rejeter l'idée de l'espace-temps et de rechercher quelque chose de plus profond. (Il a cité l'idée de plus en plus populaire en physique ces derniers temps selon laquelle l'espace et le temps ne sont peut-être pas fondamentaux, mais constituent plutôt des phénomènes émergents). L'entité plus profonde liée à la conscience, suggère Hoffman, pourrait consister en "sujets et expériences" qui, selon lui, "sont des entités au-delà de l'espace-temps, et non dans l'espace-temps". Il a développé cette idée dans un article de 2023 intitulé "Fusions of Consciousness" (Fusions de conscience).

M. Smolin, physicien à l'Institut Perimeter pour la physique théorique en Ontario, qui a également participé via Zoom, a également travaillé sur des théories qui semblent offrir un rôle plus central aux agents conscients. Dans un article publié en 2020, il a suggéré que l'univers "est composé d'un ensemble de vues partielles de lui-même" et que "les perceptions conscientes sont des aspects de certaines vues" - une perspective qui, selon lui, peut être considérée comme "une forme restreinte de panpsychisme".

Carroll, qui s'est exprimé après la session à laquelle participaient Hoffman et Smolin, a noté que ses propres opinions divergeaient de celles des intervenants dès les premières minutes (au cours du déjeuner, il a fait remarquer que participer à l'atelier donnait parfois l'impression d'être sur un subreddit pour les fans d'une série télévisée qui ne vous intéresse tout simplement pas). Il a admis que les débats interminables sur la nature de la "réalité" le laissaient parfois frustré. Les gens me demandent : "Qu'est-ce que la réalité physique ? C'est la réalité physique ! Il n'y a rien qu'elle 'soit'. Que voulez-vous que je dise, qu'elle est faite de macaronis ou d'autre chose ?" (Même Carroll admet cependant que la réalité est plus complexe qu'il n'y paraît. Il est un fervent partisan de l'interprétation "multi-mondes" de la mécanique quantique, selon laquelle notre univers n'est qu'une facette d'un vaste multivers quantique).

Si tout cela semble n'avoir aucune valeur pratique, M. Goff a évoqué la possibilité que la façon dont nous concevons les esprits puisse avoir des implications éthiques. Prenons la question de savoir si les poissons ressentent la douleur. La science traditionnelle ne peut étudier que le comportement extérieur d'un poisson, et non son état mental. Pour M. Goff, se concentrer sur le comportement du poisson n'est pas seulement une erreur, c'est aussi une "horreur", car cela laisse de côté ce qui est en fait le plus important : ce que le poisson ressent réellement. "Nous allons cesser de nous demander si les poissons sont conscients et nous contenter de regarder leur comportement ? Qui se soucie du comportement ? Je veux savoir s'il a une vie intérieure, c'est tout ce qui compte ! Pour les physicalistes comme Carroll, cependant, les sentiments et le comportement sont intimement liés, ce qui signifie que nous pouvons éviter de faire souffrir un animal en ne le plaçant pas dans une situation où il semble souffrir en raison de son comportement. "S'il n'y avait pas de lien entre eux [comportement et sentiments], nous serions en effet dans le pétrin", déclare Carroll, "mais ce n'est pas notre monde".

Seth, le neuroscientifique, n'était pas présent à l'atelier, mais je lui ai demandé quelle était sa position dans le débat sur le physicalisme et ses différentes alternatives. Selon lui, le physicalisme offre toujours plus de "prise empirique" que ses concurrents, et il déplore ce qu'il considère comme une crispation excessive sur ses prétendus échecs, y compris la difficulté supposée due à un problème complexe. Critiquer le physicalisme au motif qu'il a "échoué" est une erreur volontaire de représentation", déclare-t-il. "Il se porte très bien, comme l'attestent les progrès de la science de la conscience. Dans un article récemment publié dans le Journal of Consciousness Studies, Seth ajoute : "Affirmer que la conscience est fondamentale et omniprésente n'éclaire en rien la raison pour laquelle l'expérience du bleu est telle qu'elle est, et pas autrement. Cela n'explique pas non plus les fonctions possibles de la conscience, ni pourquoi la conscience est perdue dans des états tels que le sommeil sans rêve, l'anesthésie générale et le coma".

Même ceux qui penchent pour le panpsychisme semblent parfois hésiter à plonger dans le grand bain. Comme le dit Garcia, malgré l'attrait d'un univers imprégné de conscience, "j'aimerais qu'on vienne m'en dissuader".

 

Auteur: Internet

Info: Dan Falk, September 25, 2023

[ perspectiviste ] [ atman ] [ interrogation ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste