Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 332
Temps de recherche: 0.0596s

homme-machine

Les Grands Modèles de Langage  s’attaquent à l’émergence !  Un éloge intolérable de … l’obésité !

Le mois dernier j’ai proposé  ici une série de 6 billets où je quadriloguais avec GPT-4 et une version dédoublée de Claude 3 à propos de la conjecture P vs NP, une question classique d’informatique théorique relative à la relation – pour autant qu’il en existe une – entre la complexité de la solution d’un problème et la complexité de la vérification qu’une solution a bien été trouvée.

Vous avez sans doute vu ce qui s’est passé : " M. PJ, votre blog était le lieu de rendez-vous de personnes s’efforçant de résoudre de grands problèmes de société (je vous en remercie !) mais il s’est métamorphosé en un club restreint de mathématiciens fascinés par des casse-têtes abscons. Je vous ai accompagné·e jusqu’ici mais je suis forcé·e aujourd’hui de vous dire adieu : bonne chance à vous dans vos coupages de cheveux en quatre ! ".

J’ai été décontenancé par ces paroles de bon sens, et je n’ai pas publié la suite.

Mal m’en a pris : c’est à ce moment-là que j’ai commencé à recevoir des mails du genre : " M. Jorion, où ailleurs croyez-vous que l’on trouve des discussions – et des avancées – sur des questions véritablement fondamentales comme sur votre blog ? Que vous ont dit ensuite GPT-4 et Claude 3 (je bous d’impatience de l’apprendre !) ? ".

Tout cela pour vous annoncer que je suis allé asticoter mes comparses sur la question de l’émergence.

Vous avez dû comprendre que la chose qui nous sidère dans les progrès des Grands Modèles de Langage (LLM) est le fait que des tas de choses qui nous semblaient absolument distinctes (par exemple : comprendre le sens d’un mot, maîtriser la syntaxe d’une phrase, comprendre le sens global d’une phrase, respecter les règles de la logique, se mettre à la place d’un interlocuteur, exprimer ses sentiments), et pour lesquelles nous avons découvert des règles claires rendant compte de leur fonctionnement séparé, sont en fait acquises " les doigts dans le nez ", l’une après l’autre, par ces LLM, pour nulle autre raison que la croissance en taille de leur système.

Toutes ces remarquables capacités émergent, l’une après l’autre, quand on augmente, tout simplement, les moyens à la disposition du système. Nous n’étions pas préparés à penser que l’intelligence émerge spontanément d’un système dès qu’il a atteint une certaine grosseur, nous pensions qu’un ingrédient supplémentaire était indispensable, que nous appelions " complexité ". Que l’intelligence apparaisse comme sous-produit de la complexité, pourquoi pas ? mais de la simple grosseur ! il y avait là comme un éloge intolérable de … l’obésité, qui constituerait une qualité en soi !

Comprenons-nous pourquoi la taille change tout ? Non. Et il n’y a pas de raison de s’en offusquer : quand on passe d’un milliard de données à 100 milliards, on a besoin d’un télescope pour regarder ce qui se passe, et s’armer alors d’un microscope apparaît très logiquement, hors de propos. Claude Roux écrivait ici tout à l’heure : " C’est là qu’est le hic… Personne ne le sait vraiment. "

Mais c’est là aussi que Pribor.io trouve toujours sa raison d’être. Si l’on adopte une approche " bottom-up ", du bas vers le haut, par opposition à l’approche " top-down ", du haut vers le bas, des LLM, on évite d’être aux abonnés absents quand un effet d’émergence a lieu : il a opéré sous nos yeux et l’on peut dire ce qui s’est passé.

Le logiciel d’IA que j’avais programmé de 1987 à 1990 pour British Telecom s’appelait ANELLA, pour Associative Network with Emergent Logical and Learning Abilities : " … à capacités émergentes de logique et d’apprentissage ". Il m’a fallu les 34 années qui séparent 1990 de 2024 pour comprendre exactement comment la logique émergeait d’une simple suite de mots. C’est qu’il s’agissait du produit d’une alchimie complexe entre l’univers des mots et celui du monde tel qu’il est.

Je vous expliquerai cela un jour prochain, je me contente de vous le résumer aujourd’hui sous une formule sibylline : " Les faits d’émergence ont lieu dans la langue quand nous contraignons tout ce qu’elle permet par ce que le monde interdit lui de son côté ". Exemple : la langue n’interdit pas aux objets de tomber du bas vers le haut, mais le monde lui : Oui ! Lacan (qui se payait notre pomme avec délectation mais avait cependant compris beaucoup de choses) appelait cela " points de capiton ", comme dans un matelas : pour que la chaîne des signifiants, les mots mis à la queue-leu-leu, servent à quelque chose, il faut qu’ici et là, ils collent au Réel, à la réalité profonde des choses. Il n’est pas nécessaire que cela ait lieu souvent (le monde étant très généreux envers nous : il nous a offert cette facilité que nous vivions la plupart du temps confortablement dans un nuage), mais il faut que cela ait lieu de temps à autre ici et là.

Ne vous étonnez donc pas si dans la suite de cette nouvelle série, GPT-4, Claude 3, LLaMA 3 et moi, nous nous interrogeons sur l’émergence, en vue de craquer ses mystères. Faites-nous confiance : cela participe de la Singularité et non du coupage de cheveux en quatre dans laquelle l’humanité se complaît depuis qu’ayant inventé le langage, elle ne cesse de… se saouler de mots !

Auteur: Jorion Paul

Info: Sur son blog, 12 mai 2024

[ abstraction ouverture ] [ langage quasi-esprit ] [ codage priméité tiercité ] [ émersion ]

 
Commentaires: 3
Ajouté à la BD par miguel

prestige intellectuel

Le génie verbal de Lacan n'a pas d'héritier
Une intelligence hors du commun et une curiosité intellectuelle hardie servies par l'élégance de la formulation ne suffisent pas à faire du psychanalyste français le successeur obligé de Freud.

Il serait vain de nier l'importance de Lacan pour la pensée française. Je dis bien la pensée, et non seulement la psychanalyse, tant il est vrai que l'influence de Lacan a débordé le domaine qui était le sien. Il en allait de même, dira-t-on, de l'œuvre de Freud dont Lacan n'a cessé de se réclamer, au point de faire de son "retour à Freud" un des mots d'ordre de son œuvre. Et, à la réflexion, il n'y a rien là d'étonnant: la prise en compte des phénomènes inconscients, ou, si l'on préfère, de l'irrationnel, appartient à une manière de voir qui balaie, bien plus que les seuls problèmes psychiques individuels, une grande partie des phénomènes de société.

La psychopathologie de la vie quotidienne concerne tous et chacun. Pour autant, il est loin d'être sûr que ce parallèle entre l'œuvre du fondateur de la psychanalyse et celle de son descendant français soit justifié. Freud appartient à la grande lignée des anthropologues rationalistes, de ceux qui ont pensé, comme Œdipe, qu'on pouvait, qu'il fallait même, résoudre l'énigme du sphinx, que c'était en tout cas la gloire de l'humanité d'y travailler. Son esprit était un esprit des Lumières, animé par la conviction que la rigueur intellectuelle pouvait se mettre au service d'une compréhension de l'humain, jusque dans ses aspects les plus aberrants, et que la clarté ainsi gagnée pouvait servir à contrecarrer, parfois, la part, toujours si envahissante, de la destructivité. Il y a, en même temps qu'une volonté de comprendre, une visée éthique sous-jacente à l'œuvre freudienne, celle du médecin et philosophe auquel, en effet, rien de ce qui est humain n'avait à rester étranger.

Combien différente la visée lacanienne! A relire les Autres Ecrits que son gendre, Jacques-Alain Miller, a recueillis en un volume publié à l'occasion du centenaire de sa naissance et du vingtième anniversaire de sa mort, ce qui frappe peut-être le plus est le ton de mépris qui se dégage de ces textes. Mépris pour le lecteur, mépris pour les psychanalystes, mépris, en un mot, pour tous ceux qui ne sont pas lacaniens, qui ne jouent pas, du moins, le jeu de se dire lacaniens.

Freud, qui pourtant n'avait jamais été lent à dénoncer ce qu'il ressentait comme des déviations ou des perversions de sa théorie, argumentait toujours sa position: il expliquait en quoi le déviant lui paraissait dévier, et justifiait sa condamnation. Lacan, lui, se sert plus volontiers du sarcasme. Quand il argumente, c'est en se fondant sur une conceptualité qui n'est jamais exposée dans le respect des règles de la discussion intellectuelle et surtout sur un langage dont le maniérisme et l'obscurité, destinés, paraît-il, à décourager les intrus, servent à couvrir les impasses d'une pensée qui perd de plus en plus le sens des réalités. La virtuosité avec laquelle Lacan utilise le français confine au charlatanisme.

Pourquoi a-t-il donc tant séduit? J'y verrai pour ma part trois raisons, au moins. La première est le brio d'une intelligence hors du commun. Lacan avait des capacités d'abstraction, de logique et de théorisation exceptionnelles. La deuxième est la place qu'il a occupée dans les sciences humaines de son temps. Sa curiosité intellectuelle passionnée l'a conduit à savoir placer la psychanalyse à un carrefour où la linguistique (Saussure, Jakobson), l'anthropologie (Lévi-Strauss) et la philosophie (Heidegger), puis les mathématiques se rencontraient pour déployer le substrat d'un structuralisme généralisé qui avait toute la séduction d'un système explicatif universel.

La troisième enfin est son style. Que Lacan ait eu le sens de la formule est un euphémisme. Ses jeux de mots ont parfois du génie. Parler de l'hainamoration par exemple permet de cerner, en un mot-valise, un phénomène aussi remarquable que paradoxal. Surtout, son style volontiers elliptique semble ressaisir en très peu de termes une matière parfois infiniment complexe. C'est le cas de ses formules les plus célèbres: "L'inconscient est structuré comme un langage", notamment. Comment résister à l'élégance d'une telle définition, qui semble de surcroît s'autoriser de tout ce que Freud a écrit sur le Witz. Or c'est précisément là que se situe la faille. Car l'élégance, si elle confirme l'économie des moyens, recouvre en vérité des abîmes. Lacan, sous prétexte qu'une analyse est surtout une affaire de parole entre deux êtres, dont l'un exprime en effet son inconscient en parlant, ramène cet inconscient à ces seuls mots. Il aplatit autrement dit la chose sur son véhicule. Encore pourrait-on argumenter qu'en effet l'inconscient, c'est-à-dire l'ensemble des représentations que nous avons refoulées, s'organise en fonction des exclusions que notre parole opère à chaque moment. Mais le Ça, le Es, le fonds sauvage et incontrôlé dont Freud dit qu'il n'est fait que de pulsions qui cherchent à se décharger, en quoi serait-il structuré, pis même structuré comme un langage? Quel langage? Une telle idée n'a guère de sens.

Il n'y a pas à regretter Lacan. L'inexistence de tout héritage psychanalytique lacanien le prouve: ses formules ont fait mouche, certes, mais elles sont restées stériles. Les lacaniens n'ont fait qu'ânonner tant bien que mal la leçon de leur maître, sans faire avancer d'un pas la compréhension des pathologies psychiques caractéristiques de notre temps (celles des borderline, des cas limites notamment). Si un "retour à Freud" est toujours d'actualité, il n'a nul besoin de la médiation de Lacan.

Auteur: Jackson John Edwin

Info: https://www.letemps.ch. A l'occasion de la sortie de "Autres Ecrits". Seuil, 609 pages. Mai 2001

[ Gaule ] [ réputation littéraire ] [ vacherie ]

 
Commentaires: 2
Ajouté à la BD par miguel

spéculations

Les expériences d'Alain Aspect ont confirmé la réalité du phénomène d'intrication quantique (expériences sur photons intriqués). Celles-ci montrent qu'au niveau quantique la notion d'espace n'a plus de sens puisque quelle que soit la "distance", l'action sur un photon A se communique instantanément à son photon intriqué B (en violation de la limite de c = vitesse de la lumière). Cette propriété explique pourquoi les mécaniciens quantiques affirment que la physique quantique est une PHYSIQUE NON LOCALE (elle exclut la réalité objective de l'espace).

Mais cela va encore plus loin: l'intrication nie aussi le temps et les schémas de causalité classique : l'action sur un photon A modifie par "rétroaction" les propriétés du photon B intriqué, dans le passé. Cela signifie que la physique quantique ne prend pas en compte le temps et les schémas de consécution de la mécanique classique (causalité présent-futur). Comment une physique qui n’intègre pas l'espace et le temps est-elle possible ?

La réponse tient en ces termes: NOUS sommes les "porteurs" de l'espace et du temps en tant que conscience, et ceux-ci n'ont aucune réalité objective. C'est là un magnifique triomphe rétrospectif de ce que Kant avait déjà affirmé au XVIIIe siècle dans La Critique de la raison pure. Mais la nouvelle physique gravit une marche de plus: outre la "conscience transcendantale" dont parlait Kant, il faut ajouter l'information, c'est-à-dire un univers d'objets mathématiques purement intelligibles qui, dans leurs rapports à la conscience, produisent le "monde phénoménal", celui que nous percevons. La "réalité perçue" est un vaste simulacre ou comme l'écrivait David Bohm, le lieu d'une fantastique "magie cosmique".

Des consciences exogènes l'ont déjà compris et utilisent leur maîtrise de l'information pour interférer avec notre monde. La science informatique, en digitalisant la matière (c'est-à-dire en remontant aux sources mathématiques de la réalité) a, sans le savoir, reproduit via la technologie de nos ordinateurs, le mode de production "phénoménal" de notre monde.

Ces indications sont en mesure, me semble-t-il, d’aider le lecteur à investir les thèses de mon ami Philippe Guillemant qui sont d’une importance considérable. Il ne s’agit nullement de résumer sa pensée, ni de jouer au physicien que je ne suis pas, mais de fournir quelques degrés de l’escalier qui mènent à la compréhension de ses travaux. En tant que philosophe, il m’apparaît aussi légitime de mettre ces nouvelles connaissances en lien avec des doctrines philosophiques du passé, spécialement celles de Platon et de Kant. Philippe Guillemant ne se contente pas de nous dire que l’espace et le temps sont des cadres de la conscience puisqu’il montre que la conscience est active et se révèle capable de réécrire ou de modifier les données qui constituent la trame la plus intime de la réalité. Il rejette l’idée d’un "ordinateur quantique géant" qui produirait le réel phénoménal et relie cette production à l’activité de la conscience. Il ne m’appartient ici de discuter les raisons de ce "basculement", mais celui-ci me paraît décisif et permet de trancher le débat qui consiste à savoir si l’étoffe de la réalité est de nature algorithmique ou mathématique.

Si on rejette le modèle de l’ordinateur quantique, on ne peut se rallier qu’à la seconde hypothèse qui permet de résoudre un des plus anciens problèmes de l’épistémologie depuis la naissance de la physique mathématique : comment se fait-il que nos opérations sur des objets mathématiques soient en si grande "adhérence" avec le monde de la physique ? Comment expliquer que le travail sur une "écriture mathématique" puisse, bien avant sa confirmation expérimentale, "découvrir" des objets du monde physique comme l’antimatière, les trous noirs, le boson de Higgs, etc. ? Cette question, qu’Albert Einstein, avait appelé le "mystère du miracle des mathématiques" trouve ici un début de résolution si nous posons que la réalité est d’essence mathématique.

L’information pure que Pythagore, Platon et plus tard John Dee avaient identifiée à des formes intelligibles de type mathématique est cette "brique" fondamentale qui rend possible, par sa manipulation, toutes les apparences de notre monde. Certes, nous ne sommes pas au bout de nos peines car entre cette base ontologique (le réel est constitué d’essences mathématiques en interaction avec des consciences actives) et la mise en lumière du modus operandi de cette maîtrise de l’information pour produire un monde phénoménal ou interférer avec lui (comme le font à mon sens les OVNIS), il reste encore du chemin à parcourir. Je n’oublie pas cependant que Philippe Guillemant propose une solution à cette question en centrant son analyse sur la capacité pour la conscience, par excitation du vide quantique (véritable "mer d’informations"), de "travailler" sur l’information et sur les manifestations phénoménales qu’elles permettent de produire.

Mais quel prodigieux changement de perspective nous offre ce nouveau cadre ! La cosmologie antique nous parlait de mondes emboîtés dans des sphères physiques (mondes sublunaire, supralunaire, cercles concentriques décrivant des régions dans les espaces éthérés) ; le physique "classique" nous a ensuite parlé d’échelles physiques de plus en plus petites jusqu’au mur de Planck. Avec cette nouvelle approche, le véritable "emboîtement" est celui par lequel on décrit des niveaux de densité de l’information plus ou moins élevés selon une échelle qui n’est plus physique mais informationnelle : J’ai l’intime conviction que la résolution du mystère des OVNIS se trouve dans la considération de cette échelle des densités. Nous occupons, en tant que conscience humaine, un certain étage sur cette échelle, et nos "visiteurs" sont en mesure de pénétrer à notre étage tout en jouant à l’envi avec les paramètres qui définissent la structure de notre monde.

Auteur: Solal Philippe

Info: Les ovnis, la conscience et les mathématiques, 18/03/2015

[ niveaux de réalité ] [ extraterrestres ] [ inconscient ] [ projectionnistes ] [ paranormal ] [ mondes vibratoires ] [ astral ]

 

Commentaires: 0

Ajouté à la BD par miguel

extraterrestres

Q - Revenons sur les recherches faisant intervenir le dédoublement. Comment travaillez-vous et à partir de quelles hypothèses ?
R - Nous travaillons avec des sensitifs accoutumés à cette pratique. Il arrive fréquemment que plusieurs d'entre eux se projettent simultanément sur un même lieu ou vers une même époque pour nous permettre de vérifier les informations par recoupement. Un sensitif comme Raymond Réant, qui est un des membres actifs de la Fondation Ark'All, emploie le dédoublement physique, c'est-à-dire s'extériorise sous la forme d'une substance qui reste toutefois reliée au corps par une sorte de filament dont la rupture entraînerait la mort immédiate. C'est ce que les occultistes appellent le corps astral et le " cordon d'argent ". Le dédoublement mental, qu'emploient par exemple David et Samuel Franeric, est moins dangereux puisqu'il repose sur la clairvoyance.
Mais qu'est-ce que le dédoublement lui-même ? Nous retrouvons la notion d'Objet Fractal. L'être humain appartient à deux univers : celui où les formes apparaissent et celui où elles s'engendrent. Ces deux univers sont en dualité dynamique, à la manière du Yin/Yang de la pensée chinoise. Mais notre pensée scientifique brise cette dualité dynamique en ne considérant que les formes apparentes au détriment des Formes constituantes. Le dédoublement rétablit la relation entre les deux univers. Le sensitif passe de l'un à l'autre et les structures qui s'échangent ainsi entre l'univers apparent et celui des Formes constituent un Objet Fractal, dont nous avons vu les propriétés en matière de délocalisation et de dé temporalisation. Nous pouvons donner à l'Objet Fractal ainsi créé des propriétés plus précises grâce aux arithmétiques dont j'ai parlé : il suffit de transposer les propriétés de Champ ou d'État du système que nous voulons étudier pour construire le modèle de notre Objet Fractal. Le sensitif qui se projette au moyen de cet Objet Fractal atteindra ainsi les domaines, lieux ou époques, planètes ou galaxies, qui nous intéressent.
(...)
Q - Vous tenez là une méthode qui pourrait résoudre bien des polémiques entre historiens ou archéologues. Ainsi d'ailleurs qu'entre partisans et détracteurs du phénomène par exemple...
R - On peut comprendre ce que sont les OVNIS à partir des notions que je viens de développer. Nous avons vu que dans certaines conditions, le passage par un Objet Fractal notamment, l'être humain peut se projeter du Local dans le Global ou faire éclater le Global pour en faire surgir certaines réalités, personnalisées ou non.
Allons un peu plus loin. A toute réalité de notre monde local, correspond dans le Global un modèle qui est à la fois ensemble et élément : c'est ce que nous appelons un Enel. Les choses localisées sont des répliques de l'Enel qui existe pour elles dans le Global.
Q - Les Enel seraient des sortes d'archétypes ou d'hyper-objets dont le Local ne détiendrait que des copies plus ou moins fidèles ?
R - Et parfois même de véritables caricatures ! C'est exactement ce que sont les OVNIS, comme nous l'ont montré nos recherches aussi bien sur des photos que sur des lieux ou des personnes " contactées ". Le phénomène OVNIS s'accompagne d'ailleurs d'États du type " K Sh Ph " extrêmement dangereux et les brûlures, troubles psychiques et autres symptômes chez ceux qui ont approché un OVNIS procèdent d'Émissions dues aux Formes et de Champs de Taofel que nous connaissons bien. Vous remarquerez d'ailleurs le nombre de témoignages faisant état de délocalisations. Les sujets disent avoir été entraînés à l'intérieur de l'OVNIS et transportés " sur une autre planète ", etc. En fait ils ont tout simplement été pris dans la structure d'Objet Fractal de l'OVNIS
Q - Mais qui manipule l'Objet Fractal et de quoi les OVNIS sont-ils la caricature ?
R - Le manipulateur inconscient n'est autre que la collectivité humaine et les OVNIS sont les répliques déformées des Objets techniques de notre civilisation.
Chaque époque connaît des OVNIS différents qui " Imitent " la civilisation elle-même. (Gravure de Gavarni pour les " Voyages de Gulliver ", de Swift). Les Objets techniques sont, par définition, des Formes non-naturelles, voire parfois anti-naturelles. L'accumulation de ces objets crée dans notre espace des cumulo-décalaires par lesquels certaines de nos réalisations technologiques se délocalisent et sont projetées dans le Global. Par ébranlement de l'Enel correspondant à l'Objet Technique délocalisé, le Global renvoie dans notre espace, cette fois en passant par des anti-décalaires, des " singeries " de notre technologie actuelle : ces OVNIS dont les caractéristiques et les performances sont celles de nos propres engins mais amplifiées et même outrées. De même que les Grands Initiés obtenaient du Global des entités surhumaines, divines ou infernales selon l'esprit de celui qui activait les Champs de Taofel et passait dans l'Objet Fractal, de même la saturation technologique de notre époque fait surgir du Global ces phénomènes dangereux et ironiques que sont les OVNIS
Q - Chaque époque connaît d'ailleurs des OVNIS différents, qui " imitent " les Objets Techniques du moment, mais en transforment les fonctionnalités. Si les OVNIS reflètent la finalité de notre technologie, les caractéristiques d'Émissions et d'État que vous leur prêtez ne sont guère rassurants...
R - Nous connaissons suffisamment cet État " K Sh Ph " avec Shin renversé, qui est celui des OVNIS, pour que le doute ne soit plus permis.
Mais je dois préciser que ce n'est pas l'Objet Technique en lui-même qui est à remettre en question. Ce sont les fonctionnalités antinaturelles que nous assignons à ces objets, leur surnombre aussi, qui rendent impossible leur intégration aux cycles et aux systèmes de la Nature. Les fonctionnalités qui ne peuvent être intégrées et harmonisées dans le monde naturel sont projetées dans le Global qui nous renvoie...

Auteur: Ravatin Jacques

Info: entretien en 1978, revue3emillenaire.com/blog/les-emissions-dues-aux-formes

[ ésotérisme ] [ sciences ] [ spéculation ] [ parapsychologie ]

 

Commentaires: 0

omniprésent sapiens

(FLP) quels sont les exemples, s'ils existent, d'une espèce qui, comme les humains, s'est adaptée à tous les biotopes ?

(Gemini) -  il n'existe pas d'espèce animale qui ait réussi à s'adapter à tous les biotopes de la planète avec le même niveau de succès que les humains.

Cependant, plusieurs espèces animales présentent une remarquable capacité d'adaptation et peuvent coloniser une large variété d'environnements comme

- le rat brun (Rattus norvegicus) rongeur cosmopolite qui se rencontre dans presque tous les continents et habitats, des villes aux déserts en passant par les forêts. Son succès repose sur sa grande intelligence, sa capacité à s'adapter à différents régimes alimentaires et sa reproduction rapide.

- Le faucon pèlerin (Falco peregrinus),  rapace e plus rapide du monde qu'on trouve sur tous les continents sauf l'Antarctique. Sa rapidité et sa vue perçante lui permettent de capturer des proies dans des environnements très différents.

- La mouette rieuse (Larus ridibundus), oiseau marin qui est présent sur toutes les côtes du monde et qui s'adapte facilement aux milieux artificiels comme les ports et les décharges publiques. Son opportunisme alimentaire lui permet de se nourrir de déchets et d'autres sources de nourriture facilement accessibles.

- L'ours brun, dans l'hémisphère nord...

Ces exemples illustrent la capacité remarquable de certaines espèces animales à s'adapter à des environnements très différents. Cependant, il est important de noter que aucune d'entre elles n'a le même niveau de succès d'adaptation que les humains, qui ont réussi à coloniser et à modifier presque tous les biotopes de la planète.

(FLP) Pas même les fourmis, d'autres petits animaux ou certains insectes ?

(Gemini) Il est vrai que certaines petites espèces animales, comme les fourmis, les cafards et certains insectes, présentent une grande capacité d'adaptation et peuvent coloniser une large variété d'environnements.

- Les fourmis, par exemple, sont présentes sur presque tous les continents et dans de nombreux habitats, des forêts tropicales aux déserts en passant par les villes. Elles ont développé des structures sociales complexes, des techniques de communication sophistiquées et la capacité à exploiter une grande variété de ressources alimentaires. 

- Les cafards sont également connus pour leur résilience et leur capacité à s'adapter à des environnements difficiles. Ils peuvent survivre dans des conditions de manque de nourriture et d'eau et sont résistants à de nombreux pesticides.

- Certains insectes, comme les mouches et les moustiques, ont également une grande capacité d'adaptation et peuvent coloniser des environnements très variés. Ils sont souvent vecteurs de maladies et peuvent poser des problèmes de santé publique.

Cependant même ces petites espèces n'ont pas le même niveau de succès d'adaptation que les humains.

(FLP) - Et le tardigrade ?

(GEMINI) Effectivement, le tardigrade, aussi appelé ours d'eau, est un animal microscopique connu pour sa résistance extrême aux conditions extrêmes. Il peut survivre à des températures allant de -459 degrés Celsius à 151 degrés Celsius, à des radiations intenses, à des pressions immenses et même au vide spatial.

On trouve cet extrémophile, (organisme capable de vivre dans des environnements que la plupart des autres espèces ne pourraient pas supporter) se trouve dans presque tous les milieux aquatiques et terrestres, y compris dans les sources chaudes, les glaciers et les mousses.

Cependant, il est important de noter que le tardigrade n'a pas le même niveau de succès d'adaptation que les humains car il ne sont pas capables, contrairement aux humains,  de coloniser et de modifier tous les biotopes de la planète. Ils sont limités à des environnements extrêmes où peu d'autres espèces peuvent survivre.Car les tardigrades n'ont pas les mêmes capacités cognitives que sapiens. Ils ne sont pas capables de résoudre des problèmes complexes, d'apprendre de nouvelles choses ou de développer des technologies.

(FLP) - Au niveau bactériel il y a ou il y a eu une complète diffusion sur terre, non ?

(Gemini)  Oui, c'est exact. Les bactéries sont les organismes les plus répandus sur Terre. On les trouve dans presque tous les environnements, des sources chaudes aux glaciers, en passant par le corps humain. Leur capacité d'adaptation exceptionnelle leur a permis de coloniser l'ensemble de la planète.

(FLP ) - Et les humains, on peut dire la même chose ?

(Gemini) - Non, pas du tout. Les humains sont certes présents sur tous les continents, mais leur répartition est beaucoup plus inégale que celle des bactéries. Il existe des zones densément peuplées, comme les grandes villes d'Asie, et d'autres zones très peu peuplées, comme les régions polaires. De plus, les humains ont un impact important sur leur environnement, ce qui peut limiter leur diffusion dans certains endroits.

(FLP) - Donc, on ne peut pas vraiment parler d'une diffusion complète des humains sur Terre ?

(Gemini) - Non, en effet. L'utilisation du terme "diffusion" n'est pas tout à fait appropriée dans le cas des humains. Il serait plus juste de parler de dispersion ou de colonisation. Les humains se sont dispersés à travers le monde au cours de l'histoire, mais leur répartition n'est pas homogène et ils continuent de modifier leur environnement de manière significative.

(FLP) - Donc, il y a une grande différence entre la diffusion des bactéries et celle des humains ?

Gemini - oui, les bactéries sont des organismes microscopiques qui se dispersent naturellement par le vent, l'eau et les animaux. Les humains, en revanche, sont des organismes beaucoup plus complexes qui ont développé des technologies et des modes de vie qui leur permettent de contrôler leur dispersion et de modifier leur environnement.



 

Auteur: Google Bard chatbot

Info: 19 mai 2024

[ ubiquité humaine ] [ homme-animal ] [ dialogue homme-machine ] [ évolution du vivant ]

 

Commentaires: 0

Ajouté à la BD par miguel

rationalisme

... L’étouffement de la contemplation représente la fin de la mystique, de la métaphysique, de l’esthétique qui sont le sommet et la floraison de la culture. La civilisation actuelle asservit la science et les arts en processus industriel et technique. Nous en voyons l’exemple dans la conception culturelle du communisme soviétique. C’est une crise culturelle profonde. L’avenir de l’homme dépend de son désir de se libérer, ne serait-ce que pour un instant, pour prendre conscience de soi et de sa vie, pour tourner ses regards vers le ciel. L’idée du travail et d’une société laborieuse est vraiment une grande idée parfaitement chrétienne. La contemplation aristocratique de l’élite privilégiée affranchie de la coopération au travail était trop souvent une fausse contemplation, et c’est pourquoi elle a peu de chance de reprendre sa place dans l’avenir. Mais chaque travailleur, chaque homme, en général, a ses moments de concentration intérieure, d’oraison et d’actions de grâce, de contemplation esthétique ou autre. Contemplation et action peuvent et doivent se rejoindre, seule leur union affirme et fortifie l’intégrité de la personne humaine. En se dépensant entièrement en action temporelle, l’homme se vide et la source d’énergie spirituelle en lui tarit. Dans son acceptation courante, l’activité n’est plus au service du prochain selon l’Évangile, mais plutôt au service des idoles. Le cycle liturgique de la vie religieuse représente l’alliance originale de la contemplation et de l’action, l’homme peut y puiser force et énergie.

Nous assistons à la transformation fatale de la personne, image de l’Être suprême, en un être absorbé par le collectif évoluant dans le temps et réclamant une activité accélérée. L’homme est un être créateur, mais la civilisation moderne lui demande une activité qui signifie une négation de sa nature humaine. L’acte créateur présuppose l’alliance de l’action et de la contemplation. Leur distinction même est relative, l’esprit étant essentiellement un élément actif et dynamique agissant encore dans la contemplation. Nous abordons ici le dernier problème de la situation spirituelle du monde contemporain, celui de l’homme en tant que problème religieux. La crise que nous traversons est celle de l’homme dont l’avenir est devenu problématique. Cette crise, il faut lui donner une interprétation spirituelle du dedans du christianisme. Ce n’est qu’ainsi qu’on saura comprendre la portée de ce qui se passe. La notion chrétienne de l’homme, que l’humanisme a gardée intacte, est ébranlée par la civilisation moderne. Le christianisme est fondé sur le mythe humano-divin théandrique, je n’use pas du mot mythe dans un sens qui l’opposerait à la réalité ; au contraire, le mythe correspond mieux à la réalité spirituelle que le concept, le mythe de Dieu et de l’homme, de la ressemblance divine dans l’homme, et de l’incarnation du Fils de Dieu. De là dérive la dignité de l’homme, mais l’homme déchu assimilait péniblement la révélation chrétienne dans sa plénitude et la doctrine humano-divine trop peu développée n’était pas assez actualisée dans la vie. C’est la raison pour laquelle un humanisme, à base chrétienne, fut inévitable. Une évolution commença fatalement, celle de la destruction du mythe chrétien intégral. On rejeta d’abord Dieu de ce mythe, restait toujours l’homme, son concept chrétien, comme nous le trouvons dans la pensée de L. Feuerbach. Il rejetait Dieu, mais gardait encore la ressemblance divine chez l’homme, en professant sa nature éternelle, comme tant d’autres humanistes. Mais la démolition du mythe théandrique allait son train, on atteignait maintenant le mythe de l’homme, l’apostasie touchait à l’homme et à Dieu. C’est l’homme qu’attaquèrent Marx et Nietzsche. Pour Marx, ce n’est plus l’homme, c’est le collectif social qui représente la valeur suprême. L’homme est évincé par la classe et le mythe nouveau du messianisme prolétarien. Marx et Nietzsche se rattachent à l’humanisme. Pour Nietzsche, l’homme doit être surmonté par le surhomme, une race plus haute. Ainsi l’homme – dernière valeur chrétienne jusque-là épargnée – est désavoué et les courants sociaux contemporains en témoignent. Après l’apostasie de Dieu, la civilisation moderne en est à la phase de l’apostasie de l’homme. Voilà l’essence de la crise contemporaine.

La technisation et la collectivisation de la personne se rattachent à cette crise. Toutes les hérésies et les défections de la vérité intégrale dans le christianisme historique posaient des problèmes importants qui n’ont pas encore trouvé de solution et qu’il faut résoudre du dedans du christianisme. Mais les hérésies contemporaines diffèrent des hérésies des premiers siècles chrétiens, elles ne sont pas théologiques, mais vitales. Elles prouvent l’urgence d’une réponse chrétienne aux problèmes existants de la technique, d’une juste organisation sociale, de la collectivisation par rapport à la valeur éternelle de la personne humaine, tous ces problèmes nécessitant la lumière de la vérité humano-divine. L’activité créatrice de l’homme dans le monde n’est pas sanctifiée. La crise mondiale rappelle aux chrétiens les tâches non accomplies, elle constitue donc un jugement non seulement sur le monde athée, mais aussi sur le christianisme lui-même. Le problème essentiel de nos jours n’est pas celui de Dieu, comme le croient beaucoup de chrétiens, qui invoquent l’urgence d’une renaissance religieuse. C’est avant tout le problème de l’homme qui importe aujourd’hui. Le problème de Dieu est éternel, c’est le premier et le dernier problème de tous les temps, mais celui de notre époque concerne le salut de la personne humaine qui se désagrège, sa vocation et sa mission, ainsi que les questions sociales et culturelles nécessitant une solution chrétienne. Ayant rejeté Dieu, on porte moins atteinte à la dignité de Dieu qu’à celle de l’homme qui, sans Dieu, ne peut se maintenir. Dieu est pour l’homme l’idée suprême et la réalité qui l’a formé. D’autre part, l’homme est l’idée suprême de Dieu. Ce n’est que le christianisme qui résout le problème des rapports de Dieu et de l’homme, ce n’est qu’en Christ que la race humaine peut être sauvée, seul l’esprit chrétien peut construire une société et une culture qui ne détruisent pas l’homme. Or, il faut que la vérité soit réalisée dans la vie...

Auteur: Berdiaev Nicolas

Info: De l’esprit bourgeois

[ consumérisme ] [ capitalisme ] [ antispiritualistes ]

 

Commentaires: 0

Ajouté à la BD par miguel

linguistique de masse

L'intelligence artificielle travaille-t-elle en anglais ? 

Des scientifiques de l’EPFL ont montré que les grands modèles de langage semblent utiliser l’anglais en interne même lorsqu’ils sont sollicités dans une autre langue, ce qui pourrait avoir des conséquences en termes de biais linguistiques et culturels.

Les grands modèles de langage (LLM), tels que ChatGPT d’Open AI et Gemini de Google, ont conquis le monde et surprennent par leur capacité à comprendre les utilisatrices et utilisateurs et à leur répondre avec un discours en apparence naturel.

Bien qu’il soit possible d’interagir avec ces LLM dans n’importe quelle langue, ces derniers sont entraînés avec des centaines de milliards de paramètres textuels, principalement en anglais. Certaines personnes ont émis l’hypothèse qu’ils effectuaient la majeure partie de leur traitement interne en anglais et traduisaient ensuite dans la langue cible au tout dernier moment. Mais il y avait peu de preuves de cela, jusqu’à aujourd’hui.

Tests de Llama

Des chercheuses et chercheurs du Laboratoire de science des données (DLAB) de la Faculté informatique et communications de l’EPFL ont étudié le LLM open source Llama-2 (grand modèle de langage IA développé par Meta) pour essayer de déterminer quelles langues étaient utilisées à quels stades de la chaîne informatique.

" Les grands modèles de langage sont entraînés pour prédire le mot suivant. Pour cela, ils font correspondre chaque mot à un vecteur de nombres, c’est-à-dire à un point de données multidimensionnel. Par exemple, l’article le se trouvera toujours exactement à la même coordonnée fixe des nombres ", explique le professeur Robert West, responsable du DLAB.

" Les modèles enchaînent environ 80 couches de blocs de calcul identiques, chacun transformant un vecteur qui représente un mot en un autre vecteur. À la fin de cette séquence de 80 transformations, on obtient un vecteur représentant le mot suivant. Le nombre de calculs est déterminé par le nombre de couches de blocs de calcul. Plus il y a de calculs, plus votre modèle est puissant et plus le mot suivant a de chances d’être correct. "

Comme l’explique la prépublication intitulée Do Llamas Work in English? On the Latent Language of Multilingual TransformersRobert West et son équipe ont forcé le modèle à répondre après chaque couche chaque fois qu’il essayait de prédire le mot suivant au lieu de le laisser effectuer les calculs à partir de ses 80 couches. Ils ont ainsi pu voir quel mot le modèle aurait prédit à ce moment-là. Ils ont mis en place différentes tâches telles que demander au modèle de traduire une série de mots français en chinois.

" Nous lui avons donné un mot français, puis la traduction en chinois, un autre mot français et la traduction en chinois, etc., de sorte que le modèle sache qu’il est censé traduire le mot français en chinois. Idéalement, le modèle devrait donner une probabilité de 100% pour le mot chinois. Mais lorsque nous l’avons forcé à faire des prédictions avant la dernière couche, nous avons remarqué que la plupart du temps, il prédisait la traduction anglaise du mot français, bien que l’anglais n’apparaisse nulle part dans cette tâche. Ce n’est qu’au cours des quatre ou cinq dernières couches que le chinois est en fait plus probable que l’anglais ", affirme Robert West.

Des mots aux concepts

Une hypothèse simple serait que le modèle traduit la totalité de l’entrée en anglais et la traduit à nouveau dans la langue cible juste à la fin. Mais en analysant les données, les chercheuses et chercheurs sont parvenus à une théorie bien plus intéressante.

Dans la première phase des calculs, aucune probabilité n’est attribuée à l’un ou l’autre mot. Selon eux, le modèle s’attache à résoudre les problèmes d’entrée. Dans la seconde phase, où l’anglais domine, les chercheuses et chercheurs pensent que le modèle se trouve dans une sorte d’espace sémantique abstrait où il ne raisonne pas sur des mots isolés mais sur d’autres types de représentations qui concernent davantage des concepts, sont universels dans toutes les langues et représentent plus un modèle du monde. C’est important car, pour bien prédire le mot suivant, le modèle doit en savoir beaucoup sur le monde et l’un des moyens d’y parvenir est d’avoir cette représentation des concepts.

" Nous supposons que cette représentation du monde en termes de concepts est biaisée en faveur de l’anglais, ce qui serait très logique car les données utilisées pour entraîner ces modèles sont à environ 90% en anglais. Ils cartographient les mots en entrée à partir d’un espace de mots superficiel, dans un espace de signification plus profond avec des représentations de la façon dont ces concepts sont liés les uns aux autres dans la réalité – et les concepts sont représentés de la même manière que les mots anglais, plutôt que les mots correspondants dans la langue d’entrée réelle ", déclare Robert West.

Monoculture et biais

Cette domination de l’anglais amène à se poser la question suivante: " est-ce important "? Les chercheuses et chercheurs pensent que oui. D’après de nombreuses recherches, les structures qui existent dans le langage influencent la manière dont nous construisons la réalité et les mots que nous employons sont profondément liés à la façon dont nous pensons le monde. Robert West suggère de commencer à étudier la psychologie des modèles de langage en les traitant comme des êtres humains et, dans différentes langues, en les interrogeant, en les soumettant à des tests de comportement et en évaluant leurs biais.

" Je pense que cette recherche a vraiment touché un point sensible, car les gens s’inquiètent de plus en plus de ce genre de problème de monoculture potentielle. Les modèles étant meilleurs en anglais, bon nombre de chercheuses et chercheurs étudient aujourd’hui la possibilité d’introduire un contenu en anglais et de le traduire dans la langue souhaitée. D’un point de vue technique, cela pourrait fonctionner, mais je pense que nous perdons beaucoup de nuances, car ce que vous ne pouvez pas exprimer en anglais ne sera pas exprimé ", conclut Robert West.

Auteur: Internet

Info: https://actu.epfl.ch/news/l-intelligence-artificielle-travaille-t-elle-en--2/#:~:text=Les%20chercheuses%20et%20chercheurs%20pensent%20que%20oui.,dont%20nous%20pensons%20le%20monde.

[ anglocentrisme ] [ spécificités des idiomes ] [ homme-machine ] [ symboles univers ] [ ethnocentrisme ]

 

Commentaires: 0

Ajouté à la BD par miguel

Intelligence artificielle

OpenAI présente Super Alignment : Ouvrir la voie à une IA sûre et alignée

La présentation par OpenAI de son développement du super alignement est extrêmement prometteuse pour l'humanité. Grâce à ses capacités étendues, il est en mesure de répondre à certains des problèmes les plus urgents auxquels notre planète est confrontée. Le risque de déresponsabilisation, voire d'anéantissement de l'humanité, est l'un des graves dangers associés à l'émergence de la superintelligence.

L'arrivée du super-alignement

Le super-alignement peut sembler une possibilité lointaine, mais il pourrait se matérialiser dans les dix prochaines années. Nous devons créer de nouvelles structures de gouvernance et traiter le problème de l'alignement des superintelligences afin de maîtriser efficacement les risques qui y sont associés.

Superalignement de l'IA et de l'homme : Le défi actuel

Garantir que les systèmes d'IA, qui sont beaucoup plus intelligents que les humains, s'alignent sur les intentions de ces derniers constitue un obstacle de taille. Actuellement, nos techniques d'alignement de l'IA, telles que l'apprentissage par renforcement à partir du retour d'information humain, reposent sur la supervision humaine. Cependant, lorsqu'il s'agit de systèmes d'IA dépassant l'intelligence humaine, nos méthodes d'alignement actuelles deviennent inadéquates. Pour y remédier, nous avons besoin de nouvelles percées scientifiques et techniques.

OpenAI a mis à disposition ses modèles de cohérence pour la génération d'œuvres d'art par l'IA

Surmonter les hypothèses et intensifier les efforts d'alignement

Plusieurs hypothèses qui guident actuellement le développement de l'IA risquent d'échouer lorsque nous entrerons dans l'ère de la superintelligence. Il s'agit notamment de la capacité de nos modèles à identifier et à contourner la supervision au cours de la formation, ainsi que de leurs caractéristiques de généralisation favorables au cours du déploiement.

Un chercheur d'alignement automatique doté d'une intelligence proche de celle de l'homme, c'est ce que l'OpenAI vise à construire. L'objectif est d'intensifier les efforts et d'aligner itérativement la superintelligence en utilisant une grande puissance de calcul.

Construire les bases d'un super-alignement

Pour atteindre son objectif de chercheur en alignement automatisé, l'OpenAI a identifié trois étapes clés :

Se transformer en expert et avoir un impact significatif sur le monde de la science des données.

1. Développer une méthode de formation évolutive

OpenAI se concentrera sur la création d'une stratégie de formation qui s'adapte bien. Cette méthode sera essentielle pour apprendre aux systèmes d'IA à effectuer des activités difficiles à évaluer pour les humains.

2. Validation du modèle résultant

Il est essentiel de valider l'efficacité du chercheur d'alignement après sa construction. Pour s'assurer que le modèle est conforme aux intentions humaines et qu'il fonctionne comme prévu, l'OpenAI le soumettra à des tests rigoureux.

3. Test de stress du pipeline d'alignement

OpenAI soumettra son pipeline d'alignement à des tests de stress approfondis pour s'assurer de sa durabilité. En soumettant ses systèmes à des situations difficiles, elle pourra trouver d'éventuelles failles et les corriger.

Exploiter les systèmes d'IA pour la supervision et la généralisation

L'OpenAI utilisera des systèmes d'IA pour aider à l'évaluation d'autres systèmes d'IA afin de résoudre la difficulté de superviser des tâches qui sont difficiles à juger pour les humains. Cette méthode de supervision évolutive vise à garantir la réussite de l'alignement. Les chercheurs se pencheront également sur la généralisation de la surveillance, qui permettra aux systèmes d'IA de gérer des activités qui ne sont pas sous le contrôle de l'homme.

Validation de l'alignement : Robustesse et interprétabilité

Pour garantir l'alignement des systèmes d'IA, il est nécessaire de se concentrer sur deux facteurs essentiels : la robustesse et l'interprétabilité. Afin de découvrir d'éventuels problèmes d'alignement, l'OpenAI examinera les éléments internes de ses systèmes et automatisera la recherche de comportements problématiques.

Tests adverses : Détection des désalignements

OpenAI entraînera délibérément des modèles mal alignés pour évaluer l'efficacité de ses méthodes d'alignement. Elle peut évaluer l'efficacité de ses stratégies d'identification et de résolution des désalignements en testant ces modèles de manière rigoureuse et contradictoire.

Évolution des priorités de recherche et collaboration

L'OpenAI est consciente qu'à mesure qu'elle en apprendra davantage sur la question de l'alignement des superintelligences, ses objectifs de recherche évolueront. Les meilleurs chercheurs et ingénieurs en apprentissage automatique seront réunis pour travailler sur ce projet. Afin de créer de nouvelles techniques et de les déployer à grande échelle, l'OpenAI encourage les contributions d'autres équipes et souhaite publier plus d'informations sur sa feuille de route à l'avenir.

L'OpenAI est néanmoins optimiste, même si le défi de l'alignement de la superintelligence est ambitieux et que le succès n'est pas garanti. Elle a réalisé des tests préliminaires encourageants et dispose de mesures utiles pour suivre le développement. L'OpenAI est d'avis qu'un effort ciblé et coopératif peut aboutir à une résolution.

L'équipe dédiée de l'OpenAI : Leaders et collaboration

Le cofondateur et scientifique en chef d'OpenAI, Ilya Sutskever, a fait de l'alignement de la superintelligence le principal sujet de son étude. Il codirigera le groupe avec Jan Leike, responsable de l'alignement. L'équipe est composée de chercheurs et d'ingénieurs talentueux issus de l'ancienne équipe d'alignement de l'OpenAI ainsi que de chercheurs d'autres équipes de l'entreprise.

OpenAI recherche activement des universitaires et des ingénieurs de haut niveau pour se joindre à ses efforts. Ils souhaitent diffuser largement les résultats de leurs travaux, qu'ils considèrent comme essentiels à leur objectif d'aider à l'alignement et à la sécurité des modèles non-OpenAI.

Notre avis

Les efforts de la nouvelle équipe Superalignment complètent ceux d'OpenAI pour rendre les modèles existants comme ChatGPT plus sûrs. Les différents problèmes posés par l'IA, tels que les abus, les perturbations économiques, la désinformation, les préjugés, la discrimination, la dépendance et la surdépendance, sont également au centre des préoccupations de l'OpenAI. Elle collabore avec des professionnels pluridisciplinaires pour s'assurer que ses solutions techniques répondent à des problèmes sociétaux et humains plus importants.

En se consacrant à la création de systèmes d'IA sûrs et compatibles, OpenAI est à l'origine de technologies révolutionnaires qui influenceront la manière dont l'humanité fonctionnera à l'avenir.

Auteur: Sakshi Khanna

Info: https://www.analyticsvidhya.com/blog/author/sakshi_raheja/ - Publié le 8 juillet 2023

[ homme-machine ] [ machine-homme ] [ conservation du pouvoir ] [ prépondérance de l'humain ]

 

Commentaires: 0

Ajouté à la BD par miguel

polypeptides

Les biologistes dévoilent les formes moléculaires de la vie

On vous décrit la quête visant à comprendre comment les protéines se plient rapidement et élégamment pour prendre des formes qui leur permettent d'effectuer des tâches uniques.

Pour le hula hoop, vous vous levez et faites pivoter vos hanches vers la droite et vers la gauche. Pour faire du vélo, on s'accroupit, on tend les bras et on pédale sur les jambes. Pour plonger dans une piscine, vous étendez les bras, rentrez le menton et vous penchez en avant. Ces formes corporelles nous permettent d’entreprendre certaines actions – ou, comme pourrait le dire un biologiste, notre structure détermine notre fonction.

Cela est également vrai au niveau moléculaire. Chaque tâche imaginable effectuée par une cellule possède une protéine conçue pour l'exécuter. Selon certaines estimations, il existe 20 000 types différents de protéines dans le corps humain : certaines protéines des cellules sanguines sont parfaitement conçues pour capter les molécules d'oxygène et de fer, certaines protéines des cellules cutanées fournissent un soutien structurel, etc. Chacun a une forme adaptée à son métier. 

Cependant, si une protéine se replie mal, elle ne peut plus fonctionner, ce qui peut entraîner un dysfonctionnement et une maladie. En comprenant comment les protéines se replient, les biologistes gagneraient non seulement une compréhension plus approfondie des protéines elles-mêmes, mais pourraient également débloquer de nouvelles façons de cibler les protéines liées à la maladie avec de nouveaux médicaments.

Cela s’est avéré être un formidable défi scientifique. Chaque protéine commence par une chaîne de molécules plus petites liées appelées acides aminés. Lorsque les acides aminés s'alignent dans l'ordre dicté par un gène, ils se plient et prennent la forme appropriée de la protéine en quelques microsecondes – un phénomène qui a stupéfié les scientifiques du XXe siècle lorsqu'ils l'ont découvert. 

Dans les années 1950, le biochimiste Christian Anfinsen a émis l’hypothèse qu’il devait y avoir un code interne intégré à la chaîne d’acides aminés qui détermine la manière dont une protéine doit se replier. Si tel était le cas, pensait-il, il devrait exister un moyen de prédire la structure finale d'une protéine à partir de sa séquence d'acides aminés. Faire cette prédiction est devenu connu sous le nom de problème de repliement des protéines. Depuis, certains scientifiques ont redéfini le problème en trois questions liées : Qu'est-ce que le code de pliage ? Quel est le mécanisme de pliage ? Pouvez-vous prédire la structure d’une protéine simplement en regardant sa séquence d’acides aminés ? 

Les biologistes ont passé des décennies à tenter de répondre à ces questions. Ils ont expérimenté des protéines individuelles pour comprendre leurs structures et construit des programmes informatiques pour déduire des modèles de repliement des protéines. Ils ont étudié la physique et la chimie des molécules d’acides aminés jusqu’au niveau atomique pour découvrir les règles du repliement des protéines. Malgré cela, les biologistes n'ont fait que des progrès hésitants dans la compréhension des règles de repliement internes d'une protéine depuis qu'Anfinsen a exposé le problème.

Il y a quelques années, ils ont réalisé une avancée décisive lorsque de nouveaux outils d’intelligence artificielle ont permis de résoudre une partie du problème. Les outils, notamment AlphaFold de Google DeepMind, ne peuvent pas expliquer comment une protéine se replie à partir d'une chaîne d'acides aminés. Mais étant donné une séquence d’acides aminés, ils peuvent souvent prédire la forme finale dans laquelle elle se replie. 

Ce n’est que dans les décennies à venir qu’il deviendra clair si cette distinction – savoir comment une protéine se replie par rapport à ce en quoi elle se replie – fera une différence dans des applications telles que le développement de médicaments. Le magicien doit-il révéler le tour de magie ?

Quoi de neuf et remarquable

Début mai, Google DeepMind a annoncé la dernière itération de son algorithme de prédiction des protéines, appelé AlphaFold3, qui prédit les structures non seulement de protéines individuelles, mais également de protéines liées les unes aux autres et d'autres biomolécules comme l'ADN et l'ARN. Comme je l’ai signalé pour Quanta, cette annonce est intervenue quelques mois seulement après qu’un algorithme concurrent de prédiction des protéines – RosettaFold All-Atom, développé par le biochimiste David Baker de la faculté de médecine de l’Université de Washington et son équipe – a annoncé une mise à niveau similaire. " Vous découvrez désormais toutes les interactions complexes qui comptent en biologie ", m'a dit Brenda Rubenstein, professeure agrégée de chimie et de physique à l'Université Brown. Il reste néanmoins un long chemin à parcourir avant que ces algorithmes puissent déterminer les structures dynamiques des protéines lors de leur déplacement dans les cellules. 

Parfois, les protéines agissent de manière imprévisible, ce qui ajoute une autre difficulté au problème du repliement. La plupart des protéines se replient en une seule forme stable. Mais comme Quanta l’a rapporté en 2021, certaines protéines peuvent se replier sous plusieurs formes pour remplir plusieurs fonctions. Ces protéines à commutation de plis ne sont pas bien étudiées et personne ne sait quelle est leur abondance. Mais grâce aux progrès technologiques tels que la cryomicroscopie électronique et la résonance magnétique nucléaire à l’état solide, les chercheurs y voient plus clairement. De plus, certaines protéines possèdent des régions qui ne se plient pas selon une forme discrète mais qui bougent de manière dynamique. Comme Quanta l'a rapporté en février, ces protéines intrinsèquement désordonnées peuvent avoir des fonctions importantes, comme l'amélioration de l'activité des enzymes, la classe de protéines qui provoquent des réactions chimiques. 

Lorsque les protéines se replient mal, elles peuvent se regrouper et causer des ravages dans l’organisme. Les agrégats de protéines sont caractéristiques des maladies neurodégénératives comme la maladie d'Alzheimer, dans lesquelles des agrégats de protéines potentiellement toxiques appelés plaques amyloïdes s'accumulent entre les neurones et compromettent la signalisation du cerveau. Comme Quanta l’a rapporté en 2022 , l’agrégation des protéines pourrait être répandue dans les cellules vieillissantes ; comprendre pourquoi les protéines se replient mal et s’accumulent pourrait aider au développement de traitements pour les problèmes liés au vieillissement. Parfois, des protéines mal repliées peuvent également favoriser le mauvais repliement et l’agrégation d’autres protéines, déclenchant une cascade d’effets néfastes qui illustrent à quel point il est essentiel qu’une protéine se plie pour prendre sa forme appropriée.



 

Auteur: Internet

Info: https://www.quantamagazine.org/ mai 2024, Mme Yasemin Saplakoglu

[ tridimensionnelles ] [ conformation protéique ]

 

Commentaires: 0

Ajouté à la BD par miguel

intelligence artificielle

La vérité sur la soupe acronymique de l'IA (ANI, AGI, ASI)

(désambiguïser le jargon et les mythes qui entourent l'IA.)

L'IA est souvent expliquée à l'aide des catégories suivantes : intelligence artificielle étroite (ANI), intelligence artificielle générale (AGI) et superintelligence artificielle (ASI)[1]. Bien que ce cadre conceptuel étrange n'apporte aucune valeur réelle, il se retrouve dans de nombreuses discussions[2]. Si vous n'êtes pas familier avec ces catégories, considérez-vous chanceux et passez à un autre article, plus conséquent. Sinon, je vous invite à poursuivre votre lecture.

Tout d'abord, déplorer les catégorisations - comme je m'apprête à le faire - n'a qu'une valeur limitée car les catégories sont arbitrairement similaires et distinctes, en fonction de la manière dont nous classons les choses. Par exemple, le théorème du vilain petit canard démontre que les cygnes et les canetons sont identiques si l'on souhaite manipuler les propriétés à des fins de comparaison. Toutes les différences n'ont pas de sens si nous n'avons pas de connaissances préalables sur ces différences. Hélas, cet article décortique ces catégories suspectes d'un point de vue commercial.

L'intelligence artificielle étroite (ANI) est souvent confondue avec l'intelligence artificielle faible. John Searle, philosophe et professeur à l'université de Californie, a expliqué dans son article fondateur de 1980, "Minds, Brains, and Programs", que l'intelligence artificielle faible serait toute solution à la fois étroite et ressemblant superficiellement à l'intelligence. Searle explique qu'une telle recherche serait utile pour tester des hypothèses sur des segments d'esprits mais ne serait pas des esprits[3]. L'ANI réduit cela de moitié et permet aux chercheurs de se concentrer sur l'étroitesse et la superficialité et d'ignorer les hypothèses sur les esprits. En d'autres termes, l'ANI purge l'intelligence et les esprits et rend l'intelligence artificielle "possible" sans rien faire. Après tout, tout est étroit, et si l'on louche suffisamment, tout peut ressembler superficiellement à de l'intelligence.

L'intelligence artificielle générale (AGI) est la solution idéalisée que beaucoup imaginent lorsqu'ils pensent à l'IA. Alors que les chercheurs travaillent plus sur l'étroitesse et la superficialité, ils parlent de l'AGI, comme une représentation histoirique, d'une IA unique qui remonte aux années 1950, avec un renouveau au cours de la dernière décennie. L'AGI implique deux choses à propos d'une solution qui ne devraient pas s'appliquer à la résolution de problèmes centrés sur l'entreprise. Primo, un tel programme possède l'aptitude générale à l'intelligence humaine (voire toute l'intelligence humaine). Deuxio l'AGI peut résoudre des problèmes généraux ou remplir une ardoise vierge, ce qui signifie que toute connaissance d'un problème est rhétorique et indépendante d'une stratégie de résolution de ce problème[4]. Au lieu de cela, la connaissance dépend d'une aptitude vague et mal définie liée à la structure multidimensionnelle de l'intelligence naturelle. Si cela semble ostentatoire, c'est parce que c'est le cas.

La superintelligence artificielle (ASI) est un sous-produit de la réalisation de l'objectif de l'AGI. L'idée communément admise est que l'intelligence générale déclenchera une "explosion de l'intelligence" qui entraînera rapidement l'apparition de la superintelligence. On pense que l'ASI est "possible" en raison de l'auto-amélioration récursive, dont les limites ne sont limitées que par l'imagination débridée d'un programme. L'ASI s'accélère pour atteindre et dépasser rapidement l'intelligence collective de l'humanité. Le seul problème pour ASI est qu'il n'y a plus de problèmes. Quand ASI résout un problème, elle en demande un autre avec le dynamisme d'un Newton au berceau. Une accélération de ce type se demandera quelle est la prochaine étape à l'infini, jusqu'à ce que les lois de la physique ou de l'informatique théorique s'imposent.

Nick Bostrom, chercheur à l'Université d'Oxford, affirme que nous aurons atteint l'ASI lorsque les machines sont plus intelligentes que les meilleurs humains dans tous les domaines, y compris la créativité scientifique, la sagesse générale et les compétences sociales[5]. La description de l'ASI par Bostrom a une signification religieuse. Comme leurs homologues religieux, les adeptes de l'ASI prédisent même des dates précises auxquelles le second avènement révélera notre sauveur. Curieusement, Bostrom n'est pas en mesure d'expliquer comment créer une intelligence artificielle. Son argument est régressif et dépend de lui-même pour son explication. Qu'est-ce qui créera l'ASI ? Eh bien, l'AGI. Qui créera l'AGI ? Quelqu'un d'autre, bien sûr. Les catégories d'IA suggèrent un faux continuum à l'extrémité duquel se trouve l'ASI, et personne ne semble particulièrement contrarié par son ignorance. Cependant, le fanatisme est un processus d'innovation douteux.

Une partie de notre problème collectif lorsque nous parlons d'IA est que nous ancrons notre pensée dans des dichotomies prévalentes mais inutiles[6]. Les fausses dichotomies créent un sentiment artificiel qu'il existe une alternative. L'ANI, l'AGI et l'ASI suggèrent un faux équilibre entre diverses technologies en présentant plusieurs aspects d'un argument qui n'existe pas. Même si nous acceptons la définition de l'ANI et ignorons sa trivialité, l'AGI et l'ASI n'ont rien de convaincant. Mentionner quelque chose qui n'existera pas pour évaluer la technologie d'aujourd'hui avec un nom plus accrocheur comme ANI est étrange. Nous ne comparons pas les oiseaux aux griffons, les chevaux aux licornes ou les poissons aux serpents de mer. Pourquoi comparerions-nous (ou mettrions-nous à l'échelle) l'informatique à l'intelligence humaine ou à l'intelligence de tous les humains ?

Toute explication qui inclut l'AGI ou l'ASI déforme la réalité. L'ancrage est un biais cognitif dans lequel un individu se fie trop à un élément d'information initial (connu sous le nom d'"ancre") lorsqu'il prend des décisions. Des études ont montré qu'il est difficile d'éviter l'ancrage, même en le recherchant[7]. Même si nous reconnaissons que l'AGI et l'ASI sont significativement erronées ou mal placées, elles peuvent encore déformer la réalité et créer des désalignements. Nous ne devons pas nous laisser abuser par une fausse dichotomie et un faux équilibre.

L'IA ne se résume pas à trois choses. Ce n'est pas quelque chose qui s'échelonne en fonction de l'"intelligence" ou qui se range proprement dans trois catégories. Ces catégories ne délimitent pas des technologies spécifiques, ne mettent pas en évidence des domaines de recherche ou ne représentent pas un continuum où l'on commence par travailler sur l'ANI et où l'on termine avec l'ASI. Elles sont absurdes. L'IA est une chose : un objectif singulier et sans précédent de recréer l'intelligence ex nihilo. Cependant, cet objectif est en décalage permanent avec le monde des affaires.

Les objectifs commerciaux ne peuvent pas être totalisés et absorber tout ce qui les entoure, car la communication d'entreprise, qui comprend toutes les stratégies, n'est efficace que lorsqu'elle ne peut pas être mal comprise. À moins que vous n'envisagiez d'aligner votre entreprise sur l'objectif unique et sans précédent de l'IA, vous devez faire attention lorsque vous appelez vos objectifs "IA", car vous ne pouvez pas dire "IA" de nos jours si vous voulez être compris. Comme nous appelons de plus en plus de choses "IA", la tâche de communiquer un but et une direction devient encore plus difficile. Cependant, dire ANI, AGI ou ASI n'arrange pas les choses. Cela nuit à la communication. Le meilleur conseil que l'on puisse donner aux responsables techniques est d'éviter les faux continuums, les fausses dichotomies et les faux équilibres. Comme l'explique Jay Rosen, critique des médias, en empruntant une phrase au philosophe américain Thomas Nagel, "le faux équilibre est un point de vue de nulle part'".

Auteur: Heimann Richard

Info: 3 novembre 2022

[ limitation consumériste ] [ rationalisation restrictive ] [ normalisation commerciale ] [ délimitation normative ] [ bridage marchand ] [ chambre chinoise mercantile ] [ impossibilité holistique ]

 

Commentaires: 0

Ajouté à la BD par miguel