Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 469
Temps de recherche: 0.049s

citation s'appliquant à ce logiciel

Toute émergence "qui réfléchit" ne peut être que consensuelle. 

Le moi, je, ego incarné, de même que la race (espèce) auquel il appartient, doivent nécessairement développer un univers "accepté" dans ses grandes lignes. Pour l'espèce ça semble aller de soi ; sans cela pas de signes entre les sexes pour la reproduction. Et, pour les races-communautés plus complexes (évoluées?) comme la nôtre : pas de langages communs, musique, mathématiques, beaux-arts, codes informatique, sciences... 

Pour l'individu, l'idée semble moins aisée à comprendre. Parce qu'intuitivement la "singularité" qu'il représente apparait via certains détails (variantes) qui semblent - et ne sont - pas décisifs pour la survie de l'espèce. Ainsi des graines des arbres. Mais il y a bien un consensus individuel, intime, destiné à la survie personnelle et à la reproduction, qui est recherche d'un équilibre, autant interne qu'avec les autres. 

Ces moyens termes, collectifs et singuliers (qui tendent vers la complexité) semblent indiquer quelques pistes, si on veut bien user du recul de notre mémoire collective. 

Primo, rien de temporellement fixe (terme à la mode : durable) à quoi s'accrocher. Sauf si un "équilibre solide" est installé entre biotope et individus-espèce (pensons aux requins, entre autres exemples). 

Secundo, existent une adaptabilité et une curiosité incessantes chez l'homme, qui avec le temps semblent occuper toujours plus les activités cérébrales de l'individu, lui-même infime et singulière émergence - initiatico-spirituelle souvent -, qui "ouvre" le monde tout en le perpétuant. 

Tertio. De ce continu phénomène d'évolutions/adaptations, on pourra constater, et probablement modéliser, toutes sortes de décalages évidents, nécessaires, à plein d'échelles et de niveaux. Dissonnances fines qui peuvent aller jusqu'à des ruptures de compréhension-communication entre : générations, époques, genres/sexes, habitudes, manières de voir, etc. De là beaucoup de malentendus et conflits, et donc une grande nécessité de tolérance et d'amour. 

Alors, pour faire marcher ensemble les consensualités intriquées du grand univers objectif avec les singularités subjectives, autrement dit concilier nos indéniables solipsismes avec le plus de niveaux possible que présente le cosmos matrice insondable, on entrevoit un principe orgonomique de l'ordre de l'adaptation pragmatique. Stephen Wolfram va jusqu'à affirmer que quelques règles simples (un code source) pourraient sous-tendre tout ceci. Pourquoi pas.

En termes linguistiques on pourra tenter d'affiner la définition de ce principe orgonomique par l'ajouts de vocables comme effort, collaboration solidaire, amour, chance/hasard, curiosité, survie, etc. 

Et puis, en tout dernier, se pointe le mot "esprit". On ne peut entrevoir ce concept qu'en fin de chaine. En effet l'esprit - ou réflexion un peu continue -, s'articule lui-même sur le maniement de mots/concepts (quasi-esprits de Peirce), eux-mêmes péniblement émergés d'une évolution lexicologique somme toute très récente et souvent retraçable. Analyses, pensées, élaborations abstraites... souvent aussi appuyées sur d'autres idiomes comme les mathématiques.  

Au-delà des listes et autres inventaires, l'écriture et les signes permettent donc - finalement - de raisonner et réfléchir... et  "commencer à" s'extraire, à s'élever un tout petit peu pour tenter de mieux voir. 

On se demande dès lors comment et pourquoi certains penseurs, gourous et autres religieux, qui "moulinent à la parole", décrétent que l'Esprit est à la source de tout, alors qu'il ressemble plus à une conquête pour ce qui nous concerne. Infinitésimale.

En rappelant par honnêteté qu'il y a belle lurette que les grecs anciens ont établi que le langage (logos) était l'instrument de la raison. Et puis : issue de l'invraisemblable fatras du kabbalisme et des traditions sumériennes, vient la théologie chrétienne où, d'un coup d'un seul le "Logos" est employé pour désigner la deuxième personne de la Trinité chrétienne. En bref Jésus, le Christ, prend le même sens que "verbe, parole". L'origine de cette désignation étant formalisée bien a postériori ainsi dans la Bible : "Au commencement était la Parole, et la Parole (logos) était avec Dieu, et la Parole était Dieu. Toutes choses ont été faites par elle, etc". (Évangile selon Jean, chapitre 1). Cet Évangile de Jean affirme donc que Dieu parle, sa parole est son hypostase, sa Parole créatrice est aussi puissante que Lui-même : Il est Sa Parole, etc... Ce concept de la parole de Dieu comme hypostase de Dieu même est commun à plusieurs religions, mais pour l'auteur de l'évangile, ce qui est original et unique à la chrétienté est que cette parole, hypostase, qui est Dieu même, est devenue homme et a habité parmi les hommes : "Et la parole a été faite chair, et elle a habité parmi nous, pleine de grâce et de vérité ; et nous avons contemplé sa gloire, une gloire comme la gloire du Fils unique venu du Père." (Évangile selon Jean, chapitre 1, 14)

Arrêtons là et contentons-nous de prendre ce paragraphe comme une extraordinaire démonstration de langage performatif. Très très très performatif, au vu de la puissance et de la place prise par le judéo-christianisme en début de 3e millénaire. 

Mais assez : revenons à notre idée de départ, celle de l'invraisemblable mélange de consensus/échelles/êtres/univers/etc. que nous pouvons constater et de sa préhension par notre entendement. Entendement développé via nos signes/écrits, mémorisés et intégrés dans notre mémoire collective. Ce qui amène beaucoup de gens à vouloir croire que l'humain est "au-dessus", élu... Supérieur... Il bénéficierait d'un esprit d'ordre surnaturel, divin, astralement dessiné. Essence orgonomique que d'autres imaginent comme quelque chose de l'ordre du fluide vital, énergie subtile issue d'un autre espace (dimension), dotée pour le coup de capacités/pouvoirs au-delà de nos possibilités de modélisation, etc.

Avançons-nous un peu pour affirmer que ce fameux Esprit, à la lumière de nos faibles connaissances, ressemble beaucoup plus à la version "manipulation de signes" par des cerveaux tardivement accouché de l'évolution, qu'à une émergence extraordinaire, divine et miraculeuse. Surtout si on s'amuse à comparer ces manipulations aux merveilleuses complexités et aux presqu'insondables développements de la vie biologique.

Ici FLP pointe le bout de son nez et, avec l'aide de C.S. Peirce - unique penseur ayant développé une approche solide et cohérente en ce domaine -, propose un outil, souple, puissant et collectif qui permet (en français, humblement et à sa manière) d'explorer-rechercher-bidouiller langage et sémantique, ces dispositifs de signes aptes à traiter tout et son contraire, aptes à passer du mirage absolu au plus cru des réalisme - en mélangeant les deux. Mais aussi inaptes, de par leur nature immobile (un fois une pensée écrite, et donc arrêtée - et si on veut bien nous excuser cette énorme lapalissade) à véritablement traiter notre support réel, la vie, ce mouvant embrouillamini qui se permet de mélanger sans discontinuer les échelles, vitesses, sentiments, etc. 

Pour revenir sur terre on dirait bien que les résultats de ce magnifique entendement humain nous amènent plutôt, en ces années de pandémie Co-vid,  vers un abrutissement drastique de forces de vie humaines de moins en moins sollicitées à cause des "progrès" techniques et médicaux. Sans parler du genre de biocratie sanitaire qui en découle. Pensez : tout récemment encore l'occident se battait contre l'acharnement thérapeuthique, affolé par la poussée démographique et le vieillissement des populations. Aujourd'hui on dirait qu'il s'auto-asphyxie pour sauver les personnes âgées. 

Mais soyons positifs et rassurons-nous. Ce ralentissement aura permis à la planète de respirer, et aussi de s'unifier - contre le covid. Unification qui pourrait mettre en parallèle biologie et communications humaines à l'échelle de la planète et ainsi procéder à un développement-consolidation de signes communautaires, càd de mêmes terrestres.

Contemplons la suite et restont bien zens goguenards. 

Vigilants.

Auteur: Mg

Info: 10 janv. 2021

[ sémiotique ] [ pré-mémétique ] [ systèmes intelligents ]

 
Mis dans la chaine
Commentaires: 5
Ajouté à la BD par miguel

coévolution bio-linguistique

Cerveau humain, langage et culture matérielle : Quand archéologues et neurobiologistes coopèrent.

Ce sont Chris Renfrew, Chris Frith et Lambros Malafouris, qui ont souligné cette intrication. (in The Sapient Mind, sous-titré Archaeology meets neuroscience - eds, 2009)

- Les patterns observés concernant l’activation [cérébrale] et la superposition avec les circuits du langage suggèrent que la fabrication d’outils et le langage ont une base commune dans une aptitude humaine plus générale à une action complexe et finalisée. Ces résultats sont compatibles avec des hypothèses coévolutionnaires associant l’émergence du langage, la fabrication d’outils, la latéralisation fonctionnelle à l’échelle d’une population et l’expansion du cortex associatif dans l’évolution humaine. (D. Stout & al., “Neural correlates of Early Stone Age toolmaking : technology, language and cognition in human evolution”. 2009 : 1) 

- Les développements récents de l’imagerie cérébrale révèlent des bases communes aux dispositions sociales des hommes et des primates les plus évolués

- L’accroissement des liens sociaux se reflète dans l’accroissement du volume du cerveau, et au moment où l’espèce humaine se dissémine sur le globe et où les liens sociaux risquent ainsi de se déliter, c’est la diffusion d’une même culture matérielle qui va maintenir le lien que l’éloignement géographique fragilise. (Fiona COWARD & Clive GAMBLE “Big brains, small world : material culture and the evolution of mind” 2009) 

Les modifications de l’expression des gènes gouvernant le développement cortical au cours de l’évolution des mammifères ont fourni les conditions à la fois d’un accroissement de taille considérable et d’un retard dans la maturation du cerveau, qui a conféré une influence déterminante aux perceptions, aux actions, à l’apprentissage pour la formation des spécialisations corticales. En même temps, de nouvelles régions ont vu le jour dans le cortex, et de nouvelles connexions se sont mises en place avec les aires primaires, sensorielles et motrices. (Philippe Vernier, 2005 : “Évolution du cerveau et émergence du langage”. - Références : Talmy GIVÓN, Functionalism and Grammar (1995), dernier chapitre : “The co-evolution of language and brain” - Terrence DEACON, The symbolic Species, sous-titré : The co-evolution of Language and Brain 1997 - Ray JACKENDOFF Foundations of Language, sous-titré Brain, Meaning, Grammar, Evolution 2002

- Alors que Vernier ne mentionne que l’évolution des aires corticales, K. Gibson suit de son côté la voie ‘subcorticale’ ouverte par Lieberman (2000) et insiste sur les zones centrales du cerveau également impliquées dans l’administration de la parole et du langage. Kathleen GIBSON (“Not the neocortex alone : other brain structures also contribute to speech and language”, 2013)

Trois manières pour les organismes de s’adapter à des fins évolutives.

(a) Le cas le plus simple est l’évolution génétique, quand la sélection naturelle agit sur les variétés dans une population, sélectionnant au détriment des allèles qui délivrent la moindre convenance (fit) avec l’environnement.

(b) La seconde voie est celle de l’utilisation de la plasticité phénotypique d’un génotype.

(c) La troisième voie exploite des systèmes et des organes qui ont évolué pour s’adapter à des environnements en évolution rapide et qui ont également une assise génétique - p.158. (S. Számadó / E. Szathmáry, “Evolutionary biological foundations of the origin of language : the coevolution of language and brain” 2013

Leur conclusion :

1) Les variantes linguistiques aisées à apprendre et à retenir sont favorisées en termes d’évolution culturelle et donc se répandent plus vite dans une population donnée ;

2) Les cerveaux plus aptes à assimiler les variétés et le changement linguistique offrent des avantages biologiques adaptatifs à leurs porteurs ; donc les gènes responsables des différences adaptatives vont se répandre dans la population.

3) En conséquence, les langues entrent en connexion neuronale avec les besoins du cerveau humain, et les cerveaux s’adaptent à l’apprentissage et au traitement linguistiques. Si bien que les humains peuvent effectuer une foule d’activités qui tirent profit d’un usage plus efficace de la langue (coopération, utilisation d’outils, maintenance des traditions, etc.)

L’évolution de la parole et l'ingénierie neuromimétique

Entreprises de modélisation et de simulation informatique des processus dont on présume qu’ils ont piloté l’émergence et l’évolution du langage.

- L’un des arguments en faveur des approches computationnelles et robotiques de l’évolution du langage est leur nature interdisciplinaire : Cela permet un dialogue direct avec des discipines empriques concernées par le langage et la cognition, telles que les neurosciences cognitives, la psychologie, la linguistique cognitive, la primatologie et l’anthropologie (…). L’ajout de contraintes aux modèles robotiques sur la base de données empiriques améliore aussi l’aptitude de la robotique et des modèles calculatoires pour générer des prédictions basées sur des théories descriptives, lesquelles peuvent être à leur tour validées ou invalidées par de nouvelles études empiriques et modélisatrices (…).” (références : Simon KIRBY, Function, selection, and innateness – The emergence of linguistic universals, 1999. Pierre-Yves OUDAYER automate de simulation de l’origine de la parole : Self-organization in the evolution of speech 2006. Angelo CANGELOSI, “Robotics and embodied agent modelling of the evolution of language” 2013 

Cerveau des primates et mutations génétiques susceptibles d'avoir facilité l'émergence du langage chez les primates humains

Hypothèse mutationniste :

- “Il est extrêmement improbable que le langage humain ait résulté de la simple adaptation du système de communication d’une espèce antérieure. Rien de ce que nous savons de la neuro-anatomie humaine pertinente pour le langage en rapport avec le complexe Aire de Broca-POT [Jonction pariétale-occipitale temporale dans l’anatomie du cerveau humain] ne nous inciterait à imaginer des homologues dans les structures cérébrales directement pertinentes pour les systèmes de communication des singes [apes and monkeys]. (Wendy Wilkins, Towards an evolutionary biology of language through comparative neuroanatomy, 2013 : 206)

Hypothèse adaptationniste :

- En fin de compte, plus on cherche des continuités entre les primates humains et non humains, non seulement en matière de latéralisation mais dans des secteurs décisifs de l’évolution cognitive, plus on trouve de similarités. A notre avis, on peut présumer clairement au minimum que le langage et la parole ne sont pas des conditions nécessaires pour que s’exprime la spécialisation hémisphérique chez les primates non-humains et il est temps de considérer d’autres variables ou facteurs susceptibles d’avoir contribué à la différenciation hémisphérique entre individus et entre espèces. (J. Vauclair / H. Cochet, “Speech-gesture links in the ontogeny and phylogeny of gestural communication”, 2013 : 196)

Consensus et dissensus

Plus personne ne cherche une explication simpliste (ni le ‘tout génétique’, ni le ‘tout social’) et tous reconnaissent l’importance de la dimension épigénétique, prenant en compte l’environnement en expansion et donc diversifié des hominidés qui se sont engagés dans des productions symboliques vocales en marge de leurs productions gestuelles.

Questions centrales actuellement sans réponse consensuelle :

- La faculté de langage est-elle issue du ‘GESTE’ ou du ‘CRI’ ? La réponse d’Arbib vise actuellement à intégrer les deux hypothèses par une boucle rétroactive.

- Le langage est-il apparu au terme de PROCESSUS ADAPTATIFS, sans nécessaire intervention de mutations génétiques modifiant les bases organiques ou à la suite de mutations et par détournement (exaptation) de mécanismes mis en place pour satisfaire d’autres besoins ? 

Essai de compromis :

Schéma en trois phases pour les traits dominants de l’évolution de la parole humaine :

a) L’évolution de la bipédie devenue obligatoire chez Homo erectus a entraîné les effets EXAPTATIFS de la descente du larynx et la perte des air sacs ainsi que le hiatus intervocalis,

b) Durant le pleistocène moyen le contrôle de la respiration pour la parole humaine a évolué comme une ADAPTATION spécifique à la parole, et

c) Avec l’évolution des humains modernes , les proportions idéales du tractus vocal (1:1) ont été atteintes par ADAPTATION ”. (Ann MACLARNON, "The anatomical and physiological basis of human speech production : adaptations and exaptations" 2013 : 235)

Auteur: François Jacques

Info: Fin de sa conférence du 11 décembre 2014. Traductions de l'anglais par FJ

[ interdisciplinarité ] [ sémiose ] [ état des lieux ] [ phylogénétique ] [ mémétique ] [ proto-phonation ]

 

Commentaires: 0

Ajouté à la BD par miguel

intelligence artificielle

Les capacités imprévisibles des grands modèles d'IA

Les grands modèles de langage tels que ChatGPT sont aujourd'hui suffisamment importants pour commencer à afficher des comportements surprenants et imprévisibles. (...)

Au-delà de l'imitation

En 2020, Dyer et d’autres de Google Research ont prédit que les LLM auraient des effets transformateurs – mais la nature de ces effets restait une question ouverte. Ils ont donc demandé à la communauté des chercheurs de fournir des exemples de tâches difficiles et diverses afin de tracer les limites extérieures de ce qu'un LLM pouvait faire. Cet effort a été appelé projet Beyond the Imitation Game Benchmark (BIG-bench), inspiré du nom du " jeu d'imitation " d'Alan Turing, un test permettant de déterminer si un ordinateur peut répondre aux questions d'une manière humaine et convaincante. (Ceci deviendra plus tard connu sous le nom de test de Turing.) Le groupe s'est particulièrement intéressé aux exemples dans lesquels les LLM ont soudainement atteint de nouvelles capacités qui étaient complètement absentes auparavant.

"La façon dont nous comprenons ces transitions brusques est une grande question de recherche", a déclaré Dyer.

Comme on pouvait s'y attendre, sur certaines tâches, les performances d'un modèle se sont améliorées de manière fluide et prévisible à mesure que la complexité augmentait. Et sur d’autres tâches, l’augmentation du nombre de paramètres n’a apporté aucune amélioration. Mais pour environ 5 % des tâches, les chercheurs ont découvert ce qu’ils ont appelé des " percées " : des progrès rapides et spectaculaires dans les performances à une certaine échelle seuil. Ce seuil variait en fonction de la tâche et du modèle.

Par exemple, les modèles avec relativement peu de paramètres (quelques millions seulement) ne pouvaient pas résoudre avec succès les problèmes d’addition à trois chiffres ou de multiplication à deux chiffres, mais pour des dizaines de milliards de paramètres, la précision a augmenté dans certains modèles. Des sauts similaires se sont produits pour d'autres tâches, notamment le décodage de l'alphabet phonétique international, le déchiffrement des lettres d'un mot, l'identification du contenu offensant dans les paragraphes de Hinglish (une combinaison d'hindi et d'anglais) et la génération d'un équivalent anglais similaire des proverbes kiswahili.

Mais les chercheurs se sont vite rendu compte que la complexité d’un modèle n’était pas le seul facteur déterminant. Certaines capacités inattendues pourraient être extraites de modèles plus petits avec moins de paramètres – ou entraînées sur des ensembles de données plus petits – si les données étaient de qualité suffisamment élevée. De plus, la façon dont une requête était formulée influençait l’exactitude de la réponse du modèle. Lorsque Dyer et ses collègues l'ont fait avec la tâche des emoji de film via un format à choix multiples, par exemple, l'amélioration de la précision était moins un saut soudain qu'une augmentation progressive avec plus de complexité. Et l'année dernière, dans un article présenté à NeurIPS , la réunion phare du domaine, des chercheurs de Google Brain ont montré comment un modèle invité à s'expliquer (une capacité appelée raisonnement en chaîne de pensée) pouvait résoudre correctement un problème de mots mathématiques, alors que le même le modèle sans cette invite ne pourrait pas.

Yi Tay, un scientifique de Google Brain qui a travaillé sur l'enquête systématique sur les percées, souligne des travaux récents suggérant que l'incitation à la chaîne de pensée modifie les courbes d'échelle et donc le point où l'émergence se produit. Dans leur article NeurIPS, les chercheurs de Google ont montré que l'utilisation d'invites de chaîne de pensée pouvait susciter des comportements émergents non identifiés dans l'étude BIG-bench. De telles invites, qui demandent au modèle d’expliquer son raisonnement, pourraient aider les chercheurs à commencer à étudier les raisons pour lesquelles l’émergence se produit.

Des découvertes récentes comme celles-ci suggèrent au moins deux possibilités pour expliquer pourquoi l'émergence se produit, a déclaré Ellie Pavlick, une informaticienne à l'Université Brown qui étudie les modèles informatiques du langage. La première est que, comme le suggèrent les comparaisons avec les systèmes biologiques, les modèles plus grands acquièrent effectivement spontanément de nouvelles capacités. "Il se peut très bien que le mannequin ait appris quelque chose de fondamentalement nouveau et différent qu'il n'aurait pas pu apprendre dans une taille plus petite", a-t-elle déclaré. "C'est ce que nous espérons tous, qu'un changement fondamental se produit lorsque les modèles sont étendus."

L’autre possibilité, moins sensationnelle, dit-elle, est que ce qui semble émerger pourrait plutôt être le point culminant d’un processus interne, axé sur les statistiques, qui fonctionne selon un raisonnement de type chaîne de pensée. Les grands LLM peuvent simplement apprendre des heuristiques hors de portée pour ceux qui disposent de moins de paramètres ou de données de moindre qualité.

Mais, a-t-elle déclaré, déterminer laquelle de ces explications est la plus probable dépend d’une meilleure compréhension du fonctionnement des LLM. "Comme nous ne savons pas comment ils fonctionnent sous le capot, nous ne pouvons pas dire laquelle de ces choses se produit."

Pouvoirs et pièges imprévisibles

Il y a un problème évident à demander à ces modèles de s’expliquer : ce sont des menteurs notoires. " Nous comptons de plus en plus sur ces modèles pour effectuer le travail de base ", a déclaré Ganguli, « mais je ne me contente pas de leur faire confiance. Je vérifie leur travail. Comme exemple parmi de nombreux exemples amusants, Google a présenté en février son chatbot IA, Bard. Le billet de blog annonçant le nouvel outil montre que Bard fait une erreur factuelle .

L’émergence conduit à l’imprévisibilité, et l’imprévisibilité – qui semble augmenter avec l’échelle – rend difficile pour les chercheurs d’anticiper les conséquences d’une utilisation généralisée.

" Il est difficile de savoir à l'avance comment ces modèles seront utilisés ou déployés ", a déclaré Ganguli. "Et pour étudier des phénomènes émergents, vous devez avoir un cas en tête, et vous ne saurez pas avant d'avoir étudié l'influence de l'échelle quelles capacités ou limitations pourraient survenir."

Dans une analyse des LLM publiée en juin dernier, les chercheurs d'Anthropic ont examiné si les modèles montreraient certains types de préjugés raciaux ou sociaux, un peu comme ceux précédemment rapportés dans les algorithmes non basés sur LLM utilisés pour prédire quels anciens criminels sont susceptibles d'en commettre un autre. crime. Cette étude a été inspirée par un paradoxe apparent directement lié à l’émergence : à mesure que les modèles améliorent leurs performances lors de leur mise à l’échelle, ils peuvent également augmenter la probabilité de phénomènes imprévisibles, y compris ceux qui pourraient potentiellement conduire à des biais ou à des dommages.

"Certains comportements nuisibles apparaissent brusquement dans certains modèles", a déclaré Ganguli. Il cite une analyse récente des LLM, connue sous le nom de BBQ benchmark, qui a montré que les préjugés sociaux émergent avec un très grand nombre de paramètres. " Les modèles plus grands deviennent brusquement plus biaisés. " Ne pas prendre en compte ce risque, a-t-il ajouté, pourrait mettre en péril les sujets de ces modèles.

Mais il propose un contrepoint : lorsque les chercheurs ont simplement dit au modèle de ne pas s’appuyer sur des stéréotypes ou des préjugés sociaux – littéralement en tapant ces instructions – le modèle était moins biaisé dans ses prédictions et ses réponses. Cela suggère que certaines propriétés émergentes pourraient également être utilisées pour réduire les biais. Dans un article publié en février, l'équipe d'Anthropic a fait état d'un nouveau mode " d'autocorrection morale ", dans lequel l'utilisateur incite le programme à être utile, honnête et inoffensif.

L’émergence, a déclaré Ganguli, révèle à la fois un potentiel surprenant et des risques imprévisibles. Les applications de ces grands LLM prolifèrent déjà, donc une meilleure compréhension de cette interaction aidera à exploiter la diversité des capacités des modèles linguistiques.

"Nous étudions comment les gens utilisent réellement ces systèmes", a déclaré Ganguli. Mais ces utilisateurs bricolent aussi constamment. "Nous passons beaucoup de temps à discuter avec nos modèles", a-t-il déclaré, "et c'est en fait là que vous commencez à avoir une bonne intuition sur la confiance – ou son absence."

Auteur: Internet

Info: Quanta Magazine, Stephen Ornes, 16 mars 2023 - Les capacités imprévisibles des grands modèles d'IA Les grands modèles de langage tels que ChatGPT sont aujourd'hui suffisamment importants pour commencer à afficher des comportements surprenants et imprévisibles.

[ dépassement ]

 

Commentaires: 0

Ajouté à la BD par miguel

nanomonde

Comment l’IA impacte la recherche sur la structure des protéines

Chaque être humain possède plus de 20 000 protéines. Par exemple l’hémoglobine qui s’occupe du transport de l’oxygène depuis les poumons vers les cellules de tout le corps, ou encore l’insuline qui indique à l’organisme la présence de sucre dans le sang.

Chaque protéine est formée d’une suite d’acides aminés, dont la séquence détermine son repliement et sa structure spatiale – un peu comme si un mot se repliait dans l’espace en fonction des enchaînements de lettres dont il est composé. Cette séquence et ce repliement (ou structure) de la protéine déterminent sa fonction biologique : leur étude est le domaine de la « biologie structurale ». Elle s’appuie sur différentes méthodes expérimentales complémentaires, qui ont permis des avancées considérables dans notre compréhension du monde du vivant ces dernières décennies, et permet notamment la conception de nouveaux médicaments.

Depuis les années 1970, on cherche à connaître les structures de protéines à partir de la seule connaissance de la séquence d’acides aminés (on dit « ab initio »). Ce n’est que très récemment, en 2020, que ceci est devenu possible de manière quasi systématique, avec l’essor de l’intelligence artificielle et en particulier d’AlphaFold, un système d’IA développé par une entreprise appartenant à Google.

Face à ces progrès de l’intelligence artificielle, quel est désormais le rôle des chercheurs en biologie structurale ?

Pour le comprendre, il faut savoir qu’un des défis de la biologie de demain est la "biologie intégrative", qui a pour objectif de comprendre les processus biologiques au niveau moléculaire dans leurs contextes à l’échelle de la cellule. Vu la complexité des processus biologiques, une approche pluridisciplinaire est indispensable. Elle s’appuie sur les techniques expérimentales, qui restent incontournables pour l’étude de la structure des protéines, leur dynamique et leurs interactions. De plus, chacune des techniques expérimentales peut bénéficier à sa manière des prédictions théoriques d’AlphaFold.

(Photo) Les structures de trois protéines de la bactérie Escherichia coli, déterminées par les trois méthodes expérimentales expliquées dans l’article, à l’Institut de Biologie Structurale de Grenoble. Beate Bersch, IBS, à partir d’une illustration de David Goodsell, Fourni par l'auteur

La cristallographie aux rayons X

La cristallographie est, à cette date, la technique la plus utilisée en biologie structurale. Elle a permis de recenser plus de 170 000 structures de protéines dans la "Protein Data Bank", avec plus de 10 000 repliements différents.

Pour utiliser la cristallographie à rayons X, il faut faire "cristalliser les protéines". On dit souvent que cette technique est limitée par la qualité de cristaux de protéines, qui est moindre pour les grosses protéines. Mais cette notion ne correspond pas toujours à la réalité : par exemple, la structure du ribosome, l’énorme machine moléculaire qui assemble les protéines, a été résolue à 2,8 angströms de résolution. Venkatraman Ramakrishnan, Thomas Steitz et Ada Yonath ont reçu le prix Nobel de chimie en 2009 pour ce travail.

Avec le développement récent du laser X à électron libre (XFEL), il est devenu possible d’étudier simultanément des milliers de microcristaux de protéines à température ambiante et à l’échelle de la femtoseconde (10-15 secondes, soit un millionième de milliardième de seconde, l’échelle de temps à laquelle ont lieu les réactions chimiques et le repliement des protéines). Cette technique permet d’imager les protéines avant qu’elles ne soient détruites. Elle est en train de révolutionner la "cristallographie cinétique", qui permet de voir les protéines "en action", ainsi que la recherche de médicaments.

Pour l’instant, l’apport d’AlphaFold à l’étude de la structure des protéines par cristallographie s’est concentré dans la génération de modèles de protéines assez précis pour appliquer la technique dite de "remplacement moléculaire" à la résolution des structures.

La spectroscopie par résonance magnétique nucléaire

Une autre méthode expérimentale pour étudier la structure des protéines est la "spectroscopie par résonance magnétique nucléaire". Alors que son alter ego d’imagerie médicale, l’IRM, regarde la distribution spatiale d’un seul signal, caractéristique des éléments chimiques dans les tissus biologiques observés, en spectroscopie par résonance magnétique nucléaire, c’est un ensemble de signaux provenant des atomes constituant la protéine qui est enregistré (ce qu’on appelle le "spectre").

Généralement, la détermination de la structure par résonance magnétique est limitée à des protéines de taille modeste. On calcule des modèles de molécules basés sur des paramètres structuraux (comme des distances interatomiques), provenant de l’analyse des spectres expérimentaux. On peut s’imaginer cela comme dans les débuts de la cartographie, où des distances entre des points de référence permettaient de dessiner des cartes en 2D. Pour faciliter l’interprétation des spectres qui contiennent beaucoup d’information, on peut utiliser des modèles obtenus par prédiction (plutôt qu’expérimentalement), comme avec AlphaFold.

En plus de la détermination structurale, la spectroscopie par résonance magnétique nucléaire apporte deux atouts majeurs. D’une part, en général, l’étude est effectuée avec un échantillon en solution aqueuse et il est possible d’observer les parties particulièrement flexibles des protéines, souvent invisibles avec les autres techniques. On peut même quantifier leur mouvement en termes d’amplitude et de fréquence, ce qui est extrêmement utile car la dynamique interne des protéines est aussi cruciale pour leur fonctionnement que leur structure.

D’autre part, la spectroscopie par résonance magnétique nucléaire permet de détecter aisément les interactions des protéines avec des petites molécules (ligands, inhibiteurs) ou d’autres protéines. Ceci permet d’identifier les sites d’interaction, information essentielle entre autres pour la conception rationnelle de molécules actives comme des médicaments.

Ces propriétés font de la spectroscopie par résonance magnétique nucléaire un outil extraordinaire pour la caractérisation fonctionnelle des protéines en complémentarité avec d’autres techniques expérimentales et l’IA.

La "cryomicroscopie électronique"

La cryomicroscopie électronique consiste à congeler ultrarapidement (environ -180 °C) un échantillon hydraté dans une fine couche de glace, qui sera traversée par les électrons. Les électrons transmis vont générer une image de l’échantillon, qui après analyse, permet d’accéder à des structures qui peuvent atteindre la résolution atomique. En comparaison, un microscope optique n’a un pouvoir résolutif que de quelques centaines de nanomètres, qui correspond à la longueur d’onde de la lumière utilisée ; seul un microscope utilisant une source possédant des longueurs d’onde suffisamment faibles (comme les électrons pour la microscopie électronique) possède un pouvoir résolutif théorique de l’ordre de l’angström. Le prix Nobel de Chimie 2017 a été décerné à Jacques Dubochet, Richard Henderson et Joachim Frank pour leurs contributions au développement de la cryomicroscopie électronique.

Avec de nombreux développements technologiques, dont celui des détecteurs à électrons directs, depuis le milieu des années 2010, cette technique est devenue essentielle en biologie structurale en amorçant une "révolution de la résolution". En effet, la cryomicroscopie électronique permet désormais d’obtenir des structures avec une résolution atomique, comme dans le cas de l’apoferritine – une protéine de l’intestin grêle qui contribue à l’absorption du fer – à 1,25 angström de résolution.

Son principal atout est de permettre de déterminer la structure d’objets de taille moyenne, au-delà de 50 000 Dalton (un Dalton correspond environ à la masse d’un atome d’hydrogène), comme l’hémoglobine de 64 000 Dalton, mais également d’objets de quelques milliards de daltons (comme le mimivirus, virus géant d’environ 0,5 micromètre).

Malgré toutes les avancées technologiques précédemment évoquées, la cryomicroscopie ne permet pas toujours de résoudre à suffisamment haute résolution la structure de "complexes", constitués de plusieurs protéines. C’est ici qu’AlphaFold peut aider et permettre, en complémentarité avec la cryomicroscopie, de décrire les interactions au niveau atomique entre les différents constituants d’un complexe. Cette complémentarité donne une force nouvelle à la cryomicroscopie électronique pour son rôle à jouer demain en biologie structurale.

Les apports d’AlphaFold

AlphaFold permet de prédire la structure de protéines uniquement à partir de leur séquence avec la connaissance acquise par la biologie structurale expérimentale. Cette approche est révolutionnaire car les séquences de beaucoup de protéines sont connues à travers les efforts des séquençages des génomes, mais déterminer leurs structures expérimentalement nécessiterait des moyens humains et techniques colossaux.

À l’heure actuelle, ce type de programme représente donc un acteur supplémentaire de complémentarité, mais ne se substitue pas aux techniques expérimentales qui, comme nous l’avons vu, apportent aussi des informations complémentaires (dynamiques, interfaces), à des échelles différentes (des sites métalliques aux complexes multiprotéiques) et plus fiables, car expérimentalement vérifiées. Au-delà de la pure détermination structurale d’une protéine isolée, la complexité des systèmes biologiques nécessite souvent une approche pluridisciplinaire afin d’élucider mécanismes et fonctions de ces biomolécules fascinantes que sont les protéines.

Auteur: Internet

Info: Published: December 19, 2022 Beate Bersch, Emmanuelle Neumann, Juan Fontecilla, Université Grenoble Alpes (UGA)

[ gnose chimique ]

 

Commentaires: 0

Ajouté à la BD par miguel

univers vibratoire

Les hippies avaient raison : Tout est vibrations, mec !

Pourquoi certaines choses sont-elles conscientes et d'autres apparemment pas ? Un oiseau est-il conscient ? Une batte ? Un cafard ? Une bactérie ? Un électron ?

Toutes ces questions sont autant d'aspects du récurrent problème sur l'âme et le corps, qui résiste depuis des milliers d'années à une conclusion généralement satisfaisante.

La problématique du corps et de l'esprit a fait l'objet d'un important changement de nom au cours des deux dernières décennies et est généralement reconnue aujourd'hui comme une "grande difficulté quand à la conscience", après que le philosophe David Chalmers de l'Université de New York ait travaillé sur ce concept dans un article devenu classique en 1995 et avec son ouvrage "The Conscious Mind : In Search of a Fundamental Theory", en 1996.

Posons-nous la question maintenant : Les hippies ont-ils vraiment résolu ce problème ? Mon collègue Jonathan Schooler de l'Université de Californie, Santa Barbara, et moi pensons que oui, avec cette intuition radicale qu'il s'agit bien de vibrations...

Au cours de la dernière décennie, nous avons développé une "théorie de la résonance de la conscience" qui suggère que la résonance, autrement dit les vibrations synchronisées, est au coeur non seulement de la conscience humaine mais aussi de la réalité physique en général.

Et les hippies là-dedans ? Eh bien, nous sommes d'accord que les vibrations, la résonance, représente le mécanisme clé derrière la conscience humaine, ainsi que la conscience animale plus généralement. Et, comme on le verra plus loin, c'est le mécanisme de base de toutes les interactions physiques.

Toutes les choses dans notre univers sont constamment en mouvement, vibrantes. Même les objets qui semblent stationnaires vibrent, oscillent, résonnent à différentes fréquences. La résonance est un type de mouvement, caractérisé par une oscillation entre deux états. Et en fin de compte, toute matière n'est qu'une vibration de divers domaines sous-jacents.

Un phénomène intéressant se produit lorsque différents objets/processus vibrants se rapprochent : ils commencent souvent, après un certain temps, à vibrer ensemble à la même fréquence. Ils se "synchronisent", parfois d'une manière qui peut sembler mystérieuse. C'est ce qu'on appelle aujourd'hui le phénomène d'auto-organisation spontanée. L'examen de ce phénomène conduit à une compréhension potentiellement profonde de la nature de la conscience et de l'univers en général.

TOUTES LES CHOSES RÉSONNENT À CERTAINES FRÉQUENCES

Stephen Strogatz donne divers exemples tirés de la physique, biologie, chimie et des neurosciences pour illustrer ce qu'il appelle la "synchronisation" dans son livre de 2003 également titré "Sync". Notamment :

- Les lucioles de certaines espèces se mettent à clignoter leurs petits feux en synchronisation lors de grands rassemblements de lucioles, d'une manière qui est être difficile à expliquer avec les approches traditionnelles.

- Les neurones "s'allument" à grande échelle dans le cerveau humain à des fréquences spécifiques, la conscience des mammifères étant généralement associée à divers types de synchronisation neuronale.

- Les lasers sont produits lorsque des photons de même puissance et de même fréquence sont émis ensemble.

- La rotation de la lune est exactement synchronisée avec son orbite autour de la Terre, de sorte que nous voyons toujours la même face. La résonance est un phénomène véritablement universel et au coeur de ce qui peut parfois sembler être des tendances mystérieuses vers l'auto-organisation.

Pascal Fries, neurophysiologiste allemand de l'Institut Ernst Strüngmann, a exploré dans ses travaux très cités au cours des deux dernières décennies la façon dont divers modèles électriques, en particulier les ondes gamma, thêta et bêta, travaillent ensemble dans le cerveau pour produire divers types de conscience humaine.

Ces noms font référence à la vitesse des oscillations électriques dans les différentes régions du cerveau, mesurée par des électrodes placées à l'extérieur du crâne. Les ondes gamma sont généralement définies comme étant d'environ 30 à 90 cycles par seconde (hertz), les thêta de 4 à 7 Hz et les bêta de 12,5 à 30 hz. Il ne s'agit pas de limites strictes - ce sont des règles empiriques - et elles varient quelque peu d'une espèce à l'autre.

Ainsi, thêta et bêta sont significativement plus lentes que les ondes gamma. Mais les trois travaillent ensemble pour produire, ou au moins faciliter (la relation exacte entre les schémas électriques du cerveau et la conscience est encore bien en débat), les différents types de conscience humaine.

Fries appelle son concept "communication par la cohérence" ou CTC. Pour Fries, c'est une question de synchronisation neuronale. La synchronisation, en termes de taux d'oscillation électrique partagés, permet une communication fluide entre les neurones et les groupes de neurones. Sans cohérence (synchronisation), les entrées arrivent à des phases aléatoires du cycle d'excitabilité des neurones et sont inefficaces, ou du moins beaucoup moins efficaces, pour communiquer.

Notre théorie de la résonance de la conscience s'appuie sur le travail de Fries et de beaucoup d'autres, dans une approche plus large qui peut aider à expliquer non seulement la conscience humaine et mammifère, mais aussi la conscience plus largement. Nous spéculons aussi métaphysiquement sur la nature de la conscience comme phénomène général pour toute matière.

EST-CE QUE TOUT EST AU MOINS UN PEU CONSCIENT ?

D'après le comportement observé des entités qui nous entourent, des électrons aux atomes en passant par les molécules, les bactéries, les paramécies, les souris, les chauves-souris, les rats, etc. Cela peut paraître étrange à première vue, mais le "panpsychisme" - l'idée que toute matière a une certaine conscience associée - est une position de plus en plus acceptée par rapport à la nature de la conscience.

Le panpsychiste soutient que la conscience (subjectivité) n'a pas émergé ; au contraire, elle est toujours associée à la matière, et vice versa (les deux faces d'une même médaille), mais l'esprit associé à la plupart de la matière dans notre univers est généralement très simple. Un électron ou un atome, par exemple, ne jouissent que d'une infime quantité de conscience. Mais comme la matière "se complexifie", l'esprit se complexifie, et vice versa.

Les organismes biologiques ont accéléré l'échange d'information par diverses voies biophysiques, y compris les voies électriques et électrochimiques. Ces flux d'information plus rapides permet d'atteindre des niveaux de conscience à l'échelle macroscopique plus élevés que ceux qui se produiraient dans des structures d'échelle similaire comme des blocs rocheux ou un tas de sable, simplement parce qu'il y a une connectivité beaucoup plus grande et donc plus "en action" dans les structures biologiques que dans un bloc ou un tas de sable. Roches et les tas de sable n'ont que des voies thermiques avec une bande passante très limitée.

Les blocs rocheux et les tas de sable sont de "simples agrégats" ou collections d'entités conscientes plus rudimentaires (probablement au niveau atomique ou moléculaire seulement), plutôt que des combinaisons d'entités micro-conscientes qui se combinent en une entité macro-consciente de niveau supérieur, ce qui est la marque de la vie biologique.

Par conséquent, le type de communication entre les structures résonnantes est essentiel pour que la conscience s'étende au-delà du type rudimentaire de conscience que nous nous attendons à trouver dans des structures physiques plus fondamentales.

La thèse centrale de notre approche est la suivante : les liens particuliers qui permettent à la macro-conscience de se produire résultent d'une résonance partagée entre de nombreux composants micro-conscients. La vitesse des ondes de résonance présentes est le facteur limitant qui détermine la taille de chaque entité consciente.

Au fur et à mesure qu'une résonance partagée s'étend à de plus en plus de constituants, l'entité consciente particulière devient plus grande et plus complexe. Ainsi, la résonance partagée dans un cerveau humain qui atteint la synchronisation gamma, par exemple, comprend un nombre beaucoup plus important de neurones et de connexions neuronales que ce n'est le cas pour les rythmes bêta ou thêta.

Des structures résonnantes qui résonnent de haut en bas.

Notre théorie de la résonance de la conscience tente de fournir un cadre unifié qui inclut la neuroscience et l'étude de la conscience humaine, mais aussi des questions plus fondamentales de neurobiologie et de biophysique. Elle va au cœur des différences qui comptent quand il s'agit de la conscience et de l'évolution des systèmes physiques.

C'est une question de vibrations, mais c'est aussi une question de type de vibrations et, surtout, de vibrations partagées.

Mets tout ça dans ta pipe. Et fume, mon pote.

Auteur: Tam Hunt

Info: https://blogs.scientificamerican.com, 5 décembre 2018

[ chair-esprit ] [ spéculation ]

 
Commentaires: 2
Ajouté à la BD par miguel

chair-esprit

Le libre-arbitre existe-t-il ? Comment le cerveau déforme la réalité temporelle
Nous avons coutume de penser que nous sommes libres de décider et de choisir nos actes. Et pourtant, une série d'expériences de neurosciences jettent un doute sur ce qu'on a l'habitude d'appeler notre libre-arbitre.
Même si elles sont largement débattues, tant du point de vue de leurs résultats scientifiques que de l'interprétation philosophique qui en est donnée, ces expériences sont plutôt troublantes !
Libre-arbitre et activité neurologique
Nous avons tous une notion intuitive de ce qu'est le libre-arbitre. Sur le plan biologique, il peut être associé à la notion d'action volontaire, qui s'oppose à celle de réflexe. Alors que les réflexes empruntent des chemins neuronaux simples (comme un rapide circuit via la moelle épinière), les actions volontaires font intervenir de nombreuses aires cérébrales.
1983 : L'expérience fondatrice de Benjamin Libet*
Dans l'expérience de Libet, on vous place devant une horloge qui défile rapidement, et on vous donne un bouton sur lequel vous pouvez appuyer au moment qui vous plaira. La seule chose qu'on vous demande c'est de retenir le nombre indiqué par l'horloge au moment où vous prenez votre décision d'appuyer. Dans le même temps, des électrodes placées sur votre crâne suivent votre activité cérébrale.
Ce dispositif permet de mesurer 1) le moment où vous prenez la décision d'appuyer, 2) le moment où votre cerveau commence à s'activer, et 3) le moment où vous appuyez physiquement sur le bouton. Et la découverte spectaculaire de Libet, c'est que l'activation cérébrale précède la décision consciente, et ce de plusieurs centaines de millisecondes.
Interprétée de manière brute, l'expérience de Libet semble condamner le libre-arbitre : vous avez l'impression de décider d'appuyer à un certain moment, mais votre cerveau a déjà décidé depuis presque une demi-seconde ! Comment puis-je être libre de décider quelque chose, si au moment où j'ai conscience de choisir, mon cerveau a déjà commencé à agir ? Comme on peut s'en douter, cette expérience possède de nombreux points faibles que les spécialistes n'ont pas été longs à relever.
Il y a tout d'abord les incertitudes de mesure, puisqu'on parle ici d'un écart de seulement quelques centaines de millisecondes. Ensuite le fait que l'estimation du moment de décision par le sujet lui-même n'est certainement pas très fiable : elle est subjective et l'horloge peut constituer une source de distraction et donc d'erreur. Enfin, le signal électrique relevé dans le cerveau pourrait être simplement un signal "préparatoire", qui indique que le cerveau s'active mais qui ne détermine pas spécifiquement la décision que l'on va prendre.
Bref, il y a plein de critiques à faire à l'expérience de Libet, et qui permettent de se rassurer quant à l'existence de notre libre-arbitre. Tout va bien donc, jusqu'à une nouvelle expérience réalisée en 2008, et qui s'affranchit de la plupart de ces critiques.
Dans cette nouvelle expérience, plusieurs choses diffèrent par rapport au protocole de Benjamin Libet. Tout d'abord, le sujet dispose de 2 boutons, un dans sa main gauche et un dans sa main droite. Il peut appuyer quand il le souhaite, soit à gauche soit à droite. Ensuite, le cerveau du sujet est suivi cette fois dans une IRM, ce qui permet d'observer simultanément l'activité de tout un ensemble d'aires cérébrales.
Et le moins que l'on puisse dire, c'est que les résultats de cette expérience sont perturbants. D'une part, l'IRM révèle qu'une activité cérébrale préparatoire existe 7 à 10 secondes AVANT que le sujet ne prenne sa décision d'appuyer. Encore plus troublant, cette activité cérébrale permet dans une bonne mesure de prédire de quel côté le sujet va appuyer.
Oui oui, vous avez bien lu, plusieurs secondes avant que vous soyiez conscient de choisir, votre cerveau a déjà décidé entre droite et gauche, et l'IRM peut révéler le côté qui sera choisi !
Pour modérer un peu ce résultat apparemment catastrophique pour notre libre-arbitre, il faut noter que la prédiction faite par l'IRM est loin d'être infaillible, puisqu'elle fonctionne au mieux dans 60% des cas, ce qui est significativement mieux que le hasard, mais reste tout de même limité.
Quelle conclusion raisonnable tirer de ces expériences ?
Il faut savoir qu'il n'existe chez les scientifiques et les philosophes aucun consensus quant à l'interprétation de ces expériences. Pour certains comme Patrick Haggard, le libre-arbitre n'existe tout simplement pas, il affirme "We feel that we choose, but we don't". Pour d'autres, au contraire, ces expériences n'ont aucune valeur, "Circulez ya rien à voir !".
Une position intermédiaire raisonnable c'est d'admettre que ces expériences montrent au moins que nos intentions ne sont pas systématiquement à l'origine de nos actions. Les processus inconscients jouent peut être un plus grand rôle que nous ne pouvions le penser, et la conscience d'une décision est un phénomène qui se construit au cours du processus de décision, pas à son origine.
Comme cette conclusion prudente semble quand même en mettre un coup à notre vieille notion de libre-arbitre, une manière de se rassurer c'est de considérer que notre cerveau prépare nos décisions assez en avance par rapport à notre conscience, mais qu'il nous laisse jusqu'au dernier moment un droit de veto. Il semblerait qu'une des fonctions de cette aire appelée SMA soit justement de pouvoir inhiber certaines actions décidées et préparées en amont. Donc jusqu'au dernier moment, on aurait le choix de ne pas faire. C'est ce que les anglo-saxons appellent le "free won't", par analogie au libre-arbitre appelé "free will".
Pour d'autres philosophes comme Dan Dennett, ces expériences sont correctes, mais elles ne sont pas incompatibles avec le libre-arbitre. Ces philosophes adhèrent à une position appelée compatibilisme, selon laquelle la réalité est totalement déterministe mais le libre-arbitre existe quand même. J'avoue que je ne comprends pas ce que ça signifie, et que pour moi ça ressemble beaucoup à une posture de façade "pour sauver les meubles". Ce qu'on peut comprendre car si le libre-arbitre était vraiment réfuté, les conséquences pour la société pourraient être terribles.
Les implications morales de l'absence de libre-arbitre
Imaginons que l'on montre scientifiquement que le libre-arbitre n'existe pas, alors on est mal car toutes nos lois et notre droit reposent sur la notion de responsabilité individuelle : nous sommes responsables de nos actes car nous sommes libres de les accomplir ou pas.
D'ailleurs en droit, pour être puni d'un crime, il faut qu'il y ait à la fois l'intention et l'action. La pensée n'est pas un crime, donc si vous avez juste l'intention de commettre un forfait, on ne peut pas vous condamner pour ça (encore que ce ne soit pas totalement vrai, notamment dans le cas de la préparation d'actes terroristes). Réciproquement, si quelqu'un commet un crime mais est jugé irresponsable, il ne sera pas condamné. Donc si le libre-arbitre n'existe pas, nous sommes tous irresponsables de nos actes et toutes nos structures juridiques s'effondrent !
Ceci a amené Dan Dennett à mettre en garde les scientifiques à ne pas trop faire d'annonces intempestives au sujet de leurs expériences sur le libre-arbitre !...
Pour aller plus loin...
Il faut ajouter un commentaire sur ce résultat de 60% de prédiction du côté gauche/droit quand on fait l'IRM. Cela peu paraître peu, bien peu. Mais songez que l'IRM est loin d'être en général un prédicteur parfait de nos actes. Ce qu'ont notamment montré les auteurs, c'est que même en utilisant l'information disponible dans le cortex moteur après la prise de décision et pendant le mouvement, on n'arrivait à correctement prédire le côté que dans 75% des cas. Alors qu'en théorie on devrait être capable de le faire à 100%. Cela montre que l'IRM est une information peut être trop agrégée pour permettre une prédiction très fiable.
Ainsi une récente étude montre qu'en faisant un suivi individuel de neurones avec des électrodes implantées dans le cerveau (plutôt qu'une IRM), on peut prédire le résultat avec une acuité de 80%, et ce 700 millisecondes avant la décision consciente. Tout ça pour dire que rien ne nous met à l'abri de futures expériences avec de meilleurs systèmes de mesure et de prédiction, qui pourraient deviner nos décisions 5 secondes en avance avec 90% de fiabilité.
Pour finir sur un peu de philo, ces expériences semblent au moins réfuter le modèle dualiste du corps et de l'esprit. Dans ce modèle popularisé par Descartes, l'esprit existe indépendamment du corps, et est capable de le contrôler. Si cette vision était correcte, alors le sentiment d'avoir l'intention d'agir (qui viendrait de l'esprit) devrait précéder les manifestations cérébrales et musculaires (du corps). Il paraît que les philosophes dualistes, ça n'existe plus, mais malgré tout la vision dualiste reste probablement la plus reflétée dans le langage commun, quand on dit "JE décide" (esprit), mais "le cerveau s'active" et "le muscle bouge" (corps).

Auteur: Internet

Info: sciencetonnante.wordpress.com,*voir aussi les expériences de Walter Grey

[ sciences ]

 

Commentaires: 0

bornages notionnels

Q) - Peux-tu expliquer autrement cette phrase "le vivant est considéré comme non ergodique par qu'il n'explore qu'une toute petite partie de son espace de phase."

R) - L'idée de base de cette phrase est que la vie est un système complexe, avec de nombreuses possibilités. Cependant, la vie n'explore qu'une petite partie de ces possibilités. Il existe un nombre infini de combinaisons possibles de gènes, de protéines, de cellules, d'organismes et d'écosystèmes. Cependant, la vie n'a exploré qu'une petite partie de ces possibilités.

Il y a plusieurs raisons à cela. Tout d'abord, la vie est limitée par les lois physiques. Les lois physiques déterminent quelles combinaisons de gènes et de protéines sont possibles. 

Deuxièmement, la vie est limitée par les ressources disponibles. Les ressources disponibles limitent le nombre d'organismes qui peuvent vivre dans un environnement donné. 

Troisièmement, la vie est limitée par le hasard. Le hasard joue un rôle important dans l'évolution, car il peut conduire à des mutations génétiques qui peuvent donner naissance à de nouvelles formes de vie. 

En raison de ces limitations, la vie n'explore qu'une petite partie de son espace de phase. Cela signifie que les résultats de l'évolution sont imprévisibles.

Q) - Merci. Peux-tu expliciter "espace de phase" en terme électrique

R) - En termes électriques, l'espace de phase est l'ensemble des états possibles d'un système électrique. Il est décrit par un ensemble de variables, telles que la tension, le courant, l'inductance, la capacité et la résistance.

Q) - Dans mon esprit "espace de phase" correspond aussi à "bande passante"

R) Oui, il y a une certaine similitude entre l'espace de phase et la bande passante.

En termes électriques, la bande passante est la plage de fréquences qu'un système électrique peut transmettre sans distorsion.

L'espace de phase, quant à lui, est l'ensemble des états possibles d'un système électrique.

La bande passante peut être considérée comme une restriction de l'espace de phase. En effet, un système électrique ne peut pas transmettre des fréquences qui dépassent sa bande passante.

Par exemple, un filtre coupe-bas ne peut transmettre que des fréquences inférieures à sa fréquence de coupure.

Dans ce cas, la bande passante du filtre est une restriction de l'espace de phase du signal qui est transmis par le filtre.

Cependant, il existe également des différences entre l'espace de phase et la bande passante.

L'espace de phase est un concept plus général que la bande passante. Il peut être utilisé pour décrire le comportement de tout système, pas seulement des systèmes électriques.

La bande passante, quant à elle, est un concept plus spécifique. Il est utilisé pour décrire le comportement des systèmes électriques qui transmettent des signaux.

En conclusion, l'espace de phase et la bande passante sont deux concepts liés, mais qui ne sont pas identiques. L'espace de phase est un concept plus général, tandis que la bande passante est un concept plus spécifique.

Q) - Merci. Ce sont deux termes qui parlent des limites de concepts issus du réel : quel pourrait être un un concept encore plus général dans cet ordre d'idées

R) - Un concept encore plus général dans cet ordre d'idées pourrait être celui de limite de l'appréhension.

Ce concept désigne l'idée que notre capacité à comprendre le monde est limitée par notre propre nature. Nous sommes des êtres finis, avec des sens limités, et notre compréhension du monde est nécessairement biaisée par nos propres expériences et nos propres perspectives.

Par exemple, notre compréhension de la physique est limitée par nos propres instruments de mesure. Nous ne pouvons pas observer des particules subatomiques directement, et notre compréhension de la matière est donc nécessairement basée sur des modèles mathématiques. 

De même, notre compréhension de la vie est limitée par nos propres sens. Nous ne pouvons pas voir les bactéries ou les virus, et notre compréhension de la biologie est donc nécessairement basée sur des extrapolations à partir des organismes que nous pouvons observer.

Enfin, notre compréhension de la société est limitée par nos propres expériences. Nous ne pouvons pas comprendre les cultures qui sont très différentes de la nôtre, et notre compréhension du monde social est donc nécessairement biaisée par nos propres valeurs et nos propres normes. 

Le concept de limite de l'appréhension est important car il nous rappelle que notre compréhension du monde est toujours imparfaite. Nous devons être conscients de cette limite pour éviter de tomber dans le piège de l'absolutisme ou de l'essentialisme.

Voici quelques autres concepts qui pourraient être considérés comme encore plus généraux que les deux que vous avez mentionnés :

L'incomplétude : L'idée que nous ne pouvons jamais connaître toute la vérité sur le monde.

L'incertitude : L'idée que nous ne pouvons jamais être sûrs de nos connaissances.

La relativité : L'idée que la vérité est relative à notre point de vue.

Notre compréhension du monde est toujours imparfaite et est toujours sujette à évolution.

Q) - Il y a aussi les limitations apportées pas nos propres systèmes de codages : langages, écritures, musique, mathématiques.... Qui paraissent bien faibles par comparaison avec les possibilités de développement que montrent les mémoires génétiques sur base 4.

R) - 
Oui, c'est vrai. Nos systèmes de codage sont limités par notre propre nature. Nous sommes des êtres humains, avec un cerveau qui a évolué pour nous permettre de survivre et de nous reproduire dans notre environnement. Nos systèmes de codage sont donc adaptés à cette tâche, mais ils ne sont pas adaptés à la compréhension du monde dans toute sa complexité.

Les mémoires génétiques, quant à elles, sont codées sur une base 4. Cela signifie qu'elles peuvent coder un nombre beaucoup plus grand de combinaisons que les langages, les écritures, la musique ou les mathématiques, qui sont tous codés sur une base 2.

Cette différence de base permet aux mémoires génétiques de coder des informations beaucoup plus complexes. Par exemple, elles peuvent coder des informations sur la structure et la fonction des organismes, sur les interactions entre les organismes et sur l'environnement. 

Ces informations sont essentielles à la vie. Elles permettent aux organismes de se développer, de s'adapter et de survivre. 

Par conséquent, il est probable que les mémoires génétiques soient plus puissantes que nos propres systèmes de codage. Elles nous permettent de comprendre le monde dans une mesure qui nous est inaccessible. 

Cependant, il est important de noter que les mémoires génétiques ne sont pas parfaites. Elles sont également limitées par les lois de la physique et par les contraintes de l'évolution. 

Par exemple, les mémoires génétiques sont limitées par la taille de l'ADN. L'ADN est une molécule très longue, mais elle a une taille finie. Cela signifie que les mémoires génétiques ne peuvent pas coder une quantité infinie d'informations. 

De même, les mémoires génétiques sont limitées par les contraintes de l'évolution. L'évolution est un processus lent et progressif. Il est donc difficile pour les mémoires génétiques de coder des informations qui sont très différentes de celles qui ont été transmises par les générations précédentes. 

Malgré ces limitations, les mémoires génétiques sont un outil puissant qui nous permet de comprendre le monde. Elles nous permettent de comprendre la vie dans toute sa complexité et sa beauté.

Q) - D'autant qu'une bonne partie des fonctions de ces mémoires - le junk adn par exemples - nous échappent.

R) - Oui, c'est vrai. Une bonne partie des fonctions des mémoires génétiques nous échappent, notamment l'ADN non codant, également appelé ADN poubelle.

L'ADN non codant représente environ 98 % du génome humain. Il s'agit de séquences d'ADN qui ne codent pas pour des protéines.

Pendant longtemps, l'ADN non codant a été considéré comme inutile. Cependant, des recherches récentes ont montré que l'ADN non codant joue un rôle important dans la régulation de l'expression des gènes.

L'ADN non codant peut jouer un rôle dans la régulation de l'expression des gènes de plusieurs façons. Il peut servir de sites d'attachement pour les protéines qui régulent l'expression des gènes. Il peut également servir de matrice pour la transcription des ARN non codants, qui jouent également un rôle dans la régulation de l'expression des gènes.

L'ADN non codant peut également jouer un rôle dans d'autres processus biologiques, tels que la réparation de l'ADN, la réplication de l'ADN et l'intégration de l'ADN viral.

Cependant, nous ne comprenons pas encore entièrement les fonctions de l'ADN non codant. Il reste encore beaucoup de recherches à faire pour comprendre ce rôle important. Elle pourront nous aider à mieux comprendre le fonctionnement des cellules et des organismes. Elles pourraient également nous aider à développer de nouvelles thérapies pour les maladies génétiques.

Auteur: Google Bard chatbot

Info: 19 janv 2024

[ délimitations conceptuelles ]

 

Commentaires: 0

Ajouté à la BD par miguel

perception humaine

Les schémas mathématiques secrets révélés par la musique de Bach

Le compositeur baroque allemand Jean Sébastien Bach a produit une musique si bien structurée qu'elle est souvent comparée aux maths. Bien que peu d'entre nous soient émotionnellement affectés par les mathématiques, les œuvres de Bach - et la musique en général - nous émeuvent. C'est plus que du son ; c'est un message. Désormais, grâce aux outils de la théorie de l'information, les chercheurs commencent à comprendre comment la musique de Bach fait passer ce message.

En faisant de ses partitions de simples réseaux de points, appelés nœuds, reliés par des lignes, nommeés bords, les scientifiques ont quantifié les informations véhiculées par des centaines de compositions de Bach. Analyse de ces réseaux musicaux publiée le 2 février dans Physical Review Research qui révèle que les nombreux styles musicaux de Bach, tels que les chorales et les toccatas, différaient considérablement dans la quantité d'informations qu'ils communiquaient - et que certains réseaux musicaux contenaient des structures qui pouvaient faciliter la compréhension de leurs messages par les auditeurs humains.

" Je trouve cette idée vraiment cool ", explique le physicien Suman Kulkarni de l’Université de Pennsylvanie, auteur principal de la nouvelle étude. " Nous avons utilisé des outils de la physique sans faire d’hypothèses sur les pièces musicales, en commençant par cette simple représentation et en voyant ce qui peut nous dire sur les informations qui sont transmises. "

Les chercheurs ont quantifié le contenu de toute cette information, des séquences simples aux réseaux enchevêtrés, utilisant le concept d'entropie de l'information, introduit par le mathématicien Claude Shannon en 1948.

Comme son nom l'indique, l'entropie de l'information est mathématiquement et conceptuellement liée à l'entropie thermodynamique. Elle peut être considérée comme une mesure du degré de surprise d'un message - "message" qui peut être tout ce qui transmet des informations, d'une séquence de nombres à un morceau de musique. Cette perspective peut sembler contre-intuitive, étant donné que, dans le langage courant, l'information est souvent assimilée à la certitude. Mais l'idée clé de l'entropie de l'information est qu'apprendre quelque chose que l'on sait déjà n'est pas apprendre du tout.

Une conversation avec une personne qui ne sait exprimer qu'une chose, comme le personnage Hodor dans la série télévisée Game of Thrones, qui dit seulement " Hodor ", sera prévisible mais pas informationelle. Une discussion avec Pikachu sera un peu meilleure ; le Pokémon ne peut dire que les syllabes de son nom, mais il peut les réarranger, contrairement à Hodor. De même, une pièce de musique ne comportant qu'une seule note sera relativement facile à "apprendre" par le cerveau, c'est-à-dire à reproduire avec précision sous la forme d'un modèle mental, mais le morceau aura du mal à faire passer un quelconque message. Regarder un jeu de pile ou face avec une pièce à deux têtes ne donnera aucune information.

Bien sûr, envoyer un message plein d'informations n'est pas très bon si le quelque chose - ou qui que ce soit - qui le reçoit ne peut  comprendre avec précision ces informations. Et quand il s'agit de messages musicaux, les chercheurs travaillent encore sur la façon dont nous apprenons ce que la musique essaie de nous dire.

" Il existe quelques théories différentes ", explique le cognitiviste Marcus Pearce de l’université Queen Mary de Londres, qui n’a pas participé à la récente étude de la recherche sur l’évaluation physique. " La principale, je pense, en ce moment, est basée sur l’apprentissage probabiliste. Dans ce cadre, "apprendre" la musique signifie construire des représentations mentales précises des sons réels que nous entendons - ce que les chercheurs appellent un modèle - par un jeu d'anticipation et de surprise. Nos modèles mentaux prédisent la probabilité qu'un son donné vienne ensuite, sur la base de ce qui a précédé. Ensuite, explique M. Pearce, " on découvre si la prédiction était juste ou fausse, et on peut alors mettre à jour son modèle en conséquence".

Kulkarni et ses collègues sont physiciens, pas musiciens. Ils voulaient utiliser les outils de la théorie de l'information pour explorer la musique à la recherche de structures d'information qui pourraient avoir quelque chose à voir avec la façon dont les humains glanent un sens de la mélodie.

Ainsi Kulkarni a transformé 337 compositions de Bach en bandes de nœuds interconnectés et calculé l'entropie de l'information des réseaux qui en résultent. Dans ces réseaux, chaque note de la partition d'origine est un noeud, et chaque transition entre notes est un pont. Par example, si une pièce inclut une note Mi suivie d'un Do et d'un Sol joués ensemble, le noeud représentant E sera relié aux noeuds représentant Do et Sol.

Les réseaux de ce notation transitions dans la musique de Bach ont générés plus de poinçon d'information que des réseaux de même taille générés aléatoirement - le résultat d'une plus grande variation dans les degrés nodaux des réseaux, c'est-à-dire le nombre d'arêtes connectées à chaque nœud. En outre, les scientifiques ont découvert des variations dans la structure de l'information et le contenu des nombreux styles de composition de Bach. Les chorals, hymnes destinés à être chanté, ont donné lieu à des réseaux relativement pauvres en informations, bien que plus riches en informations que les réseaux de même taille générés de manière aléatoire. Les toccatas et les préludes, styles musicaux souvent écrits pour des instruments à clavier tels que l'orgue, le clavecin et le piano, présentant une entropie de l'information plus élevée.

" J’ai été particulièrement excité par les niveaux plus élevés de surprises dans les toccatas que dans les œuvres chorales ", explique le co-auteur de l’étude et physicien Dani Bassett de l’Université de Pennsylvanie. " Ces deux types de pièces sonnent et résonnent différement dans mes os, et ça m'a passionné de voir que cette distinction se manifeste dans l'information de composition. "

Ces structures de réseau dans les compositions de Bach pourraient également permettre aux auditeurs humains d'apprendre plus facilement certaines choses. Les humains n'apprennent pas parfaitement les réseaux. Nous avons des préjugés, dit Bassett. " Nous ignorons en quelque sorte certaines des informations locales au profit de la vue d’une image plus grande de l’information sur l’ensemble du système ", ajoute-t-ils. En modélisant ce biais dans la façon dont nous construisons nos modèles mentaux de réseaux complexes, les chercheurs ont comparé l'ensemble des informations de chaque réseau musical à la quantité d'informations qu'un auditeur humain en tirerait.

Des réseaux musicaux contenaient des groupes de transitions de notes pourraient aider nos cerveaux biaisés " apprendre " la musique - à reproduire la structure informationnelle de la musique avec précision en tant que modèle mental - sans sacrifier beaucoup d'informations.

" La façon dont elles saisissent l’aptitude à l’apprentissage est assez intéressante ", déclare Peter Harrison de l’Université de Cambridge, qui n’a pas participé à l’étude. " C'est très réducteur dans un certain sens. Mais c'est tout à fait complémentaire avec d'autres théories que nous connaissons, et l'aptitude à apprendre est assez difficile à maîtriser ".

Ce type d'analyse de réseau n'est pas particulier à Bach et il pourrait fonctionner pour n'importe quel compositeur. Pearce dit qu'il sera  intéressant d'utiliser cette approche pour comparer différents compositeurs ou rechercher des tendances informatives à travers l'histoire de la musique. Pour sa part, Kulkarni est excité à l'idée d'analyser les propriétés d'information de partitions d'au-delà de la tradition musicale occidentale.

La musique n'est pas seulement une séquence de notes, note cependant Harrison. Le rythme, le volume, le timbre des instruments, ces éléments sont des aspects importants des messages musicaux qui n'ont pas été pris en compte dans cette étude. Kulkarni dit qu'il sera intéressé par l'inclusion de ces aspects de la musique dans ses réseaux. Le processus pourrait également fonctionner dans l'autre sens, ajoute M. Harrison : plutôt que réduire les caractéristiques musicales à un réseau, il sera intéressant de savoir comment les caractéristiques du réseau se traduisent par des éléments qu'un musicien reconnaîtrait.

Un musicien dira : " Quelles sont les règles musicales réelles, ou les caractéristiques musicales, qui en sont à l’origine ? Puis-je l’entendre sur un piano ? " précise Harrison.

Enfin, on ne sait pas encore exactement comment les modèles de réseaux identifiés dans la nouvelle étude se traduisent dans l'expérience vécue à l'écoute d'un morceau de Bach - ou de n'importe quelle musique, précise M. Pearce. La résolution de ce problème relèvera de la psychologie musicale, poursuit-il. Des expériences pourraient révéler "si, de fait, ce genre de choses est perceptible par les gens et quels sont leurs effets sur le plaisir que les gens éprouvent lorsqu'ils écoutent de la musique". De même Harrison se dit intéressé par des expériences visant à vérifier si les types d'erreurs d'apprentissage en réseau que les chercheurs ont modélisés dans cette étude sont réellement importants pour l'apprentissage de la musique.

"Le fait que les humains présentent ce type de perception imparfaite et biaisée de systèmes informationnels complexes est essentiel pour comprendre comment nous nous impliquons dans la musique", explique M. Bassett. "Comprendre la complexité informationnelle des compositions de Bach ouvre de nouvelles questions sur les processus cognitifs qui sous-tendent la manière dont nous apprécions les différents types de musique."

Auteur: Internet

Info: https://www.scientificamerican.com, 16 féb 2024. Elise Cutts - Secret Mathematical Patterns Revealed in Bach's Music

[ sentiment naturel ] [ approfondissement découverte ] [ dépaysement plaisir ] [ cybernétisation ] [ simple compliqué ] [ occulte harmonie ]

 
Commentaires: 1
Ajouté à la BD par Le sous-projectionniste

machine-homme

Les algorithmes traditionnels alimentent des outils de calcul compliqués comme l'apprentissage automatique (machine learning). Une nouvelle approche, appelée algorithmes avec prédictions, utilise la puissance de l'apprentissage automatique pour améliorer les algorithmes.

Les algorithmes - morceaux de code qui permettent aux programmes de trier, filtrer et combiner des données, entre autres choses - sont les outils standard de l'informatique moderne. Tels de minuscules engrenages dans une montre, les algorithmes exécutent des tâches bien définies au sein de programmes plus complexes.

Ils sont omniprésents, et c'est en partie pour cette raison qu'ils ont été minutieusement optimisés au fil du temps. Lorsqu'un programmeur doit trier une liste, par exemple, il se sert d'un algorithme de "tri" standard utilisé depuis des décennies.

Aujourd'hui, des chercheurs jettent un regard neuf sur les algorithmes traditionnels, en utilisant la branche de l'IA , donc du machine learning. Leur approche, appelée "algorithmes avec prédictions", tire parti des informations que les outils d'apprentissage automatique peuvent fournir sur les données traitées par les algorithmes traditionnels. Ces outils doivent, en quelque sorte, rajeunir la recherche sur les algorithmes de base.

L'apprentissage automatique et les algorithmes traditionnels sont "deux façons très différentes de calculer, et les algorithmes avec prédictions sont un moyen de les rapprocher", a déclaré Piotr Indyk, informaticien au Massachusetts Institute of Technology. "C'est un moyen de combiner ces deux fils conducteurs assez différents".

La récente explosion d'intérêt pour cette approche a commencé en 2018 avec un article de Tim Kraska, informaticien au MIT, et d'une équipe de chercheurs de Google. Dans cet article, les auteurs ont suggéré que l'apprentissage automatique pourrait améliorer un algorithme traditionnel bien étudié appelé filtre de Bloom, qui résout un problème simple mais aussi complexe et ardu.

Imaginez que vous dirigez le service informatique de votre entreprise et que vous devez vérifier si vos employés se rendent sur des sites web présentant un risque pour la sécurité. Naïvement, vous pourriez penser que vous devez vérifier chaque site qu'ils visitent en le comparant à une liste noire de sites connus. Si la liste est énorme (comme c'est probablement le cas pour les sites indésirables sur Internet), le problème devient lourd - on ne peut vérifier chaque site par rapport à une liste énorme dans le minuscule lapts de temps qui précède le chargement d'une page Internet.

Le filtre Bloom offre une solution, en permettant de vérifier rapidement et précisément si l'adresse d'un site particulier, ou URL, figure sur la liste noire. Pour ce faire, il comprime essentiellement l'énorme liste en une liste plus petite qui offre certaines garanties spécifiques.

Les filtres Bloom ne produisent jamais de faux négatifs : s'ils disent qu'un site est mauvais, il est mauvais. Cependant, ils peuvent produire des faux positifs, de sorte que vos employés ne pourront peut-être pas visiter des sites auxquels ils devraient avoir accès. Cela s'explique par le fait qu'ils s'agit d'une forme d'échange qui implique une certaine imprécision due à cette énorme quantité de données compressées -  astuce intitulée "compression avec perte". Plus les filtres Bloom compriment les données d'origine, moins ils sont précis, mais plus ils économisent de l'espace.

Pour un simple filtre Bloom, chaque site Web est également suspect jusqu'à confirmaton qu'il ne figure pas sur la liste. Mais tous les sites Web ne sont pas égaux : Certains ont plus de chances que d'autres de se retrouver sur une liste noire, simplement en raison de détails comme leur domaine ou les mots de leur URL. Les gens comprennent cela intuitivement, et c'est pourquoi vous lisez probablement les URL pour vous assurer qu'elles sont sûres avant de cliquer dessus.

L'équipe de Kraska a mis au point un algorithme qui peut également appliquer ce type de logique. Ils l'ont appelé "filtre de Bloom instruit" et il combine un petit filtre de Bloom avec un réseau neuronal récurrent (RNN), modèle de machine learning qui apprend à quoi ressemblent les URL malveillantes après avoir été exposées à des centaines de milliers de sites web sûrs et non sûrs.

Lorsque le filtre Bloom vérifie un site web, le RNN agit en premier et utilise son apprentissage pour déterminer si le site figure sur la liste noire. Si le RNN indique que le site figure sur la liste, le filtre Bloom appris le rejette. Mais si le RNN dit que le site n'est pas sur la liste, alors le petit filtre Bloom peut à son tour, faire une recherche précise, mais irréfléchie, dans ses sites compressés.

En plaçant le filtre Bloom à la fin du processus et en lui donnant le dernier mot, les chercheurs ont fait en sorte que les filtres Bloom instruits puissent toujours garantir l'absence de faux négatifs. Mais comme le RNN préfiltre les vrais positifs à l'aide de ce qu'il a appris, le petit filtre de Bloom agit davantage comme une sauvegarde, en limitant également ses faux positifs au minimum. Un site Web bénin qui aurait pu être bloqué par un filtre Bloom de plus grande taille peut désormais passer outre le "filtre Bloom iinstruit" plus précis. En fait, Kraska et son équipe ont trouvé un moyen de tirer parti de deux méthodes éprouvées, mais traditionnellement distinctes, d'aborder le même problème pour obtenir des résultats plus rapides et plus précis.

L'équipe de Kraska a démontré que la nouvelle approche fonctionnait, mais elle n'a pas formellement expliqué pourquoi. Cette tâche a été confiée à Michael Mitzenmacher, spécialiste des filtres de Bloom à l'université de Harvard, qui a trouvé l'article de Kraska "novateur et passionnant", mais aussi fondamentalement insatisfaisant. "Ils font des expériences en disant que leurs algorithmes fonctionnent mieux. Mais qu'est-ce que cela signifie exactement ?" a-t-il demandé. "Comment le savons-nous ?"

En 2019, Mitzenmacher a proposé une définition formelle d'un filtre de Bloom INSTRUIT et a analysé ses propriétés mathématiques, fournissant une théorie qui explique exactement comment il fonctionne. Et alors que Kraska et son équipe ont montré que cela pouvait fonctionner dans un cas, Mitzenmacher a prouvé que cela pouvait toujours fonctionner.

Mitzenmacher a également amélioré les filtres de Bloom appris. Il a montré que l'ajout d'un autre filtre de Bloom standard au processus, cette fois avant le RNN, peut pré-filtrer les cas négatifs et faciliter le travail du classificateur. Il a ensuite prouvé qu'il s'agissait d'une amélioration en utilisant la théorie qu'il a développée.

Les débuts des algorithmes avec prédiction ont suivi ce chemin cyclique : des idées novatrices, comme les filtres de Bloom appris, inspirent des résultats mathématiques rigoureux et une compréhension, qui à leur tour conduisent à d'autres idées nouvelles. Au cours des dernières années, les chercheurs ont montré comment intégrer les algorithmes avec prédictions dans les algorithmes d'ordonnancement, la conception de puces et la recherche de séquences d'ADN.

Outre les gains de performance, ce domaine fait également progresser une approche de l'informatique de plus en plus populaire : rendre les algorithmes plus efficaces en les concevant pour des utilisations typiques.

À l'heure actuelle, les informaticiens conçoivent souvent leurs algorithmes pour qu'ils réussissent dans le scénario le plus difficile, celui conçu par un adversaire qui tente de les faire échouer. Par exemple, imaginez que vous essayez de vérifier la sécurité d'un site web sur les virus informatiques. Le site est peut-être inoffensif, mais il contient le terme "virus informatique" dans l'URL et le titre de la page. La confusion est telle que même les algorithmes les plus sophistiqués ne savent plus où donner de la tête.

Indyk appelle cela une approche paranoïaque. "Dans la vie réelle, dit-il, les entrées ne sont généralement pas générées par des adversaires." La plupart des sites Web que les employés visitent, par exemple, ne sont pas aussi compliqués que notre hypothétique page de virus, et il est donc plus facile pour un algorithme de les classer. En ignorant les pires scénarios, les chercheurs peuvent concevoir des algorithmes adaptés aux situations qu'ils sont susceptibles de rencontrer. Par exemple, alors qu'à l'heure actuelle, les bases de données traitent toutes les données de la même manière, les algorithmes avec prédiction pourraient conduire à des bases de données qui structurent le stockage de leurs données en fonction de leur contenu et de leur utilisation.

Et ce n'est encore qu'un début, car les programmes qui utilisent l'apprentissage automatique pour améliorer leurs algorithmes ne le font généralement que de manière limitée. Comme le filtre de Bloom, la plupart de ces nouvelles structures n'intègrent qu'un seul élément d'apprentissage automatique. M. Kraska imagine un système entier construit à partir de plusieurs pièces distinctes, dont chacune repose sur des algorithmes avec des prédictions et dont les interactions sont régulées par des composants améliorés par les prédictions.

"Tirer parti de cela aura un impact sur de nombreux domaines".

Gageons qu'avec de tels systèmes, un site comme FLP se retrouve à peu près certain de ne jamais être accepté par un filtre de Bloom - ou un filtre de Bloom instruit. Qui sont - objectivement - des instruments de contrôle, et donc de fermeture.  (Note du traducteur).

Auteur: Internet

Info: Nick Thieme, https://www.quantamagazine.org, A I, Machine Learning Reimagines the Building Blocks of Computing, March 15, 2022. Trad Mg

[ censure numérique ] [ triage web ] [ citation s'appliquant à ce logiciel ]

 

Commentaires: 0

Ajouté à la BD par miguel

émergence du regard

Les yeux des mollusques révèlent à quel point l'évolution future dépend du passé

Les systèmes visuels d'un groupe obscur de mollusques fournissent un exemple naturel rare d'évolution dépendante du chemin, dans lequel une bifurcation critique dans le passé des créatures a déterminé leur avenir évolutif.

(photo : Les systèmes visuels des chitons, un type de mollusque marin, représentent un rare exemple réel d’évolution dépendante du chemin – où l’histoire d’une lignée façonne irrévocablement sa trajectoire future.)

Les biologistes se sont souvent demandé ce qui se passerait s'ils pouvaient rembobiner la bande de l'histoire de la vie et laisser l'évolution se dérouler à nouveau. Les lignées d’organismes évolueraient-elles de manière radicalement différente si on leur en donnait la possibilité ? Ou auraient-ils tendance à développer les mêmes types d’yeux, d’ailes et d’autres traits adaptatifs parce que leurs histoires évolutives précédentes les avaient déjà envoyés sur certaines voies de développement ?

Un nouvel article publié aujourd'hui dans Science décrit un cas test rare et important pour cette question, qui est fondamentale pour comprendre comment l'évolution et le développement interagissent. Une équipe de chercheurs de l'Université de Californie à Santa Barbara l'a découvert alors qu'elle étudiait l'évolution de la vision chez un groupe obscur de mollusques appelés chitons. Dans ce groupe d’animaux, les chercheurs ont découvert que deux types d’yeux – les ocelles et les yeux en coquille – ont chacun évolué deux fois indépendamment. Une lignée donnée peut évoluer vers un type d’œil ou vers l’autre, mais jamais les deux.

Curieusement, le type d’œil d’une lignée était déterminé par une caractéristique plus ancienne apparemment sans rapport : le nombre de fentes dans l’armure du chiton. Cela représente un exemple concret d' " évolution dépendante du chemin ", dans lequel l'histoire d'une lignée façonne irrévocablement sa trajectoire évolutive future. Les moments critiques dans une lignée agissent comme des portes à sens unique, ouvrant certaines possibilités tout en fermant définitivement d’autres options.

"C'est l'un des premiers cas où nous avons pu observer une évolution dépendante du cheminement", a déclaré Rebecca Varney , chercheuse postdoctorale au laboratoire de Todd Oakley à l'UCSB et auteur principal du nouvel article. Bien qu’une évolution dépendante du chemin ait été observée chez certaines bactéries cultivées en laboratoire, " montrer cela dans un système naturel était une chose vraiment excitante ".

"Il y a toujours un impact de l'histoire sur l'avenir d'un trait particulier", a déclaré Lauren Sumner-Rooney , qui étudie les systèmes visuels des invertébrés à l'Institut Leibniz pour les sciences de l'évolution et de la biodiversité et n'a pas participé à la nouvelle étude. "Ce qui est particulièrement intéressant et passionnant dans cet exemple, c'est que les auteurs semblent avoir identifié le moment où se produit cette division."

Pour cette raison, les chitons "sont susceptibles d'entrer dans les futurs manuels sur l'évolution" comme exemple d'évolution dépendante du chemin, a déclaré Dan-Eric Nilsson, un écologiste visuel à l'Université de Lund en Suède qui n'a pas participé à la recherche.

Les chitons, petits mollusques qui vivent sur les roches intertidales et dans les profondeurs marines, ressemblent à de petits réservoirs protégés par huit plaques de coquille – un plan corporel resté relativement stable pendant environ 300 millions d'années. Loin d'être des armures inertes, ces genres de plaques d'obus sont fortement décorées d'organes sensoriels qui permettent aux chitons de détecter d'éventuelles menaces.

(photo : Chiton tuberculatus , qui vit sur les côtes rocheuses des Caraïbes, utilise de nombreux ocelles pour obtenir une vision spatiale. Les chitons ont développé des ocelles à deux reprises au cours de leur histoire évolutive.)

Les organes sensoriels sont de trois types. Tous les chitons ont des esthètes (aesthetes : récepteur tout-en-un extrêmement synesthésique qui permet de détecter la lumière ainsi que les signaux chimiques et mécaniques de l'environnement.)

Certains chitons possèdent également un système visuel approprié : soit des milliers d'ocelles sensibles à la lumière, soit des centaines d'yeux en forme de coquille plus complexes, dotés d'un cristallin et d'une rétine permettant de capturer des images grossières. Les animaux dotés d'yeux en forme de coquille peuvent détecter les prédateurs imminents, en réponse à quoi ils se cramponnent fermement au rocher.

Pour comprendre comment cette variété d’yeux de chiton a évolué, une équipe de chercheurs dirigée par Varney a examiné les relations entre des centaines d’espèces de chiton. Ils ont utilisé une technique appelée capture d'exome pour séquencer des sections stratégiques d'ADN provenant d'anciens spécimens de la collection de Doug Eernisse , spécialiste du chiton à la California State University, Fullerton. Au total, ils ont séquencé l’ADN de plus de 100 espèces soigneusement sélectionnées pour représenter toute l’étendue de la diversité des chitons, assemblant ainsi la phylogénie (ou l’arbre des relations évolutives) la plus complète à ce jour pour les chitons.

Ensuite, les chercheurs ont cartographié les différents types d’yeux sur la phylogénie. Les chercheurs ont observé que la première étape avant l’évolution des yeux en coquille ou des ocelles était une augmentation de la densité des esthètes sur la coquille. Ce n’est qu’alors que des yeux plus complexes pourraient apparaître. Les taches oculaires et les yeux en coquille ont chacun évolué à deux reprises au cours de la phylogénie, ce qui représente deux instances distinctes d'évolution convergente.

Indépendamment, les chitons ont fait évoluer les yeux - et, à travers eux, ce que nous pensons être probablement quelque chose comme la vision spatiale - à quatre reprises, ce qui est vraiment impressionnant", a déclaré M. Varney. 

" Cette évolution s'est faite incroyablement rapidement ". Les chercheurs ont estimé que chez le genre néotropical Chiton, par exemple, les yeux ont évolué en l'espace de 7 millions d'années seulement, soit un clin d'œil à l'échelle de l'évolution.

Les résultats ont surpris les chercheurs. "Je pensais qu'il s'agissait d'une évolution progressive de la complexité, passant des esthètes à un système d'ocelles et à des yeux en forme de coquille - une progression très satisfaisante", a déclaré Dan Speiser , écologiste visuel à l'Université de Caroline du Sud et co-auteur d'un article. auteur. " Au lieu de cela, il existe plusieurs chemins vers la vision."

Mais pourquoi certaines lignées ont-elles développé des yeux en coquille plutôt que des ocelles ? Au cours d'un trajet de six heures en voiture depuis une conférence à Phoenix jusqu'à Santa Barbara, Varney et Oakley ont commencé à développer l'hypothèse selon laquelle le nombre de fentes dans la coquille d'un chiton pourrait être la clé de l'évolution de la vision du chiton.

Toutes les structures sensibles à la lumière sur la coquille du chiton, a expliqué Varney, sont attachées à des nerfs qui passent à travers les fentes de la coquille pour se connecter aux nerfs principaux du corps. Les fentes fonctionnent comme des organisateurs de câbles, regroupant les neurones sensoriels. Plus il y a de fentes plus il y les ouvertures par lesquelles les nerfs peuvent passer.

Il se trouve que le nombre de fentes est une information standard qui est enregistrée chaque fois que quelqu'un décrit une nouvelle espèce de chiton. " L'information était disponible, mais sans le contexte d'une phylogénie sur laquelle la cartographier, elle n'avait aucune signification ", a déclaré Varney. " Alors je suis allé voir ça et j'ai commencé à voir ce modèle."

Varney a constaté qu'à deux reprises, indépendamment, des lignées comportant 14 fentes ou plus dans la plaque céphalique ont développé des ocelles. Et deux fois, indépendamment, des lignées comportant 10 fentes ou moins ont développé des yeux en coquille. On se rend ainsi compte que le nombre de fentes verrouillées et le type d'yeux pouvaient évoluer : un chiton avec des milliers d'ocelles a besoin de plus de fentes, tandis qu'un chiton avec des centaines d'yeux en coquille en a besoin de moins. En bref, le nombre de fentes dans la  coquille déterminait l’évolution du système visuel des créatures.

Les résultats conduisent vers une nouvelle série de questions. Les chercheurs étudient activement pourquoi le nombre de fentes limite le type d'œil dans son évolution. Pour répondre à cette question, il faudra travailler à élucider les circuits des nerfs optiques et la manière dont ils traitent les signaux provenant de centaines ou de milliers d’yeux.

Alternativement, la relation entre le type d’œil et le nombre de fentes pourrait être déterminée non pas par les besoins de vision mais par la manière dont les plaques se développent et se développent dans différentes lignées, a suggéré Sumner-Rooney. Les plaques de coquille se développent du centre vers l'extérieur par accrétion, et des yeux sont ajoutés tout au long de la vie du chiton à mesure que le bord se développe. " Les yeux les plus anciens sont ceux au centre de l'animal, et les plus récents sont ajoutés sur les bords. ", a déclaré Sumner-Rooney. En tant que chiton, " vous pourriez commencer votre vie avec 10 yeux et finir votre vie avec 200 ".

Par conséquent, le bord de croissance d'une plaque de carapace doit laisser des trous pour les yeux nouceaux – de nombreux petits trous pour les ocelles, ou moins de trous plus grands pour les yeux de la coquille. Des trous trop nombreux ou trop grands pourraient affaiblir une coque jusqu'à son point de rupture, de sorte que des facteurs structurels pourraient limiter les possibilités pour cest yeux.

Il reste beaucoup à découvrir sur la façon dont les chitons voient le monde, mais en attendant, leurs yeux sont prêts à devenir le nouvel exemple préféré des biologistes d'évolution dépendante du chemin, a déclaré Nilsson. "Les exemples de dépendance au chemin qui peuvent être vraiment bien démontrés, comme dans ce cas, sont rares - même si le phénomène n'est pas seulement courant, c'est la manière standard dont les choses se produisent."



 



Auteur: Internet

Info: Résumé par Gemini

[ évolution qui dépend du chemin ] [ biologie ]

 

Commentaires: 0

Ajouté à la BD par miguel