Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 172
Temps de recherche: 0.0577s

races monades

"Pour nous qui travaillons dans un contexte zoösémiotique, il n'y a qu'une seule manière pour se frayer une issue dans ce maquis" (Sebeok, 2001, pp. 78 & 193n6).

Le réalisme ne suffit pas. Cette voie des choses a été essayée et s'est avérée insuffisante, même si elle ne l'est pas autant que la voie des idées.  Car le long de la Voie des signes, nous constatons que le "réalisme scolaire", comme l'a souligné Peirce ("ou une approximation proche de cela"), bien qu'insuffisant, fait partie de l'essence de l'entreprise. La seule façon d'atteindre au minimum ce réalisme (au sens du "réalisme scolastique" , c'est-à-dire tel que Peirce l'a correctement défini) c'est de garantir, au sein de l'expérience, une distinction non seulement entre signes et objets (les premiers étant considérés comme des "signes"), mais aussi entre les idées et les objets (les seconds étant considérés comme des "idées"). La seule façon d'atteindre le réalisme dans le sens minimaliste requis (au sens du "réalisme scolastique", tel que Peirce l'a défini) est de garantir, au sein de l'expérience, une distinction non seulement entre les signes et les objets (les premiers étant présupposés à la possibilité des seconds), mais aussi entre les objets et les choses. Le terme "choses" faisant ici référence à une dimension de l'expérience du monde objectif qui  ne se réduit pas seulement à l'expérience que nous en avons, mais qui est en outre connaissable en tant que telle au sein d'une objectivité via une discrimination, dans des cas particuliers, pour identifier ce qui marque la différence entre ens reale et ens rationis dans la nature des objets expérimentés. De cette façon (et pour cette raison), le "module minimal mais suffisant de traits distinctifs du  +,  -  ou 0, diversement multipliés dans des systèmes zoösémiotiques avancés, qui restent pourtant entièrement perceptifs par nature, est bien loin des modèles cosmiques extrêmement complexes que Newton ou Einstein ont, a des époques données, offert à l'humanité." (Sebeok, 1995, p. 87, ou 2001, p. 68).

Et la seule façon d'établir une différence entre les choses expérimentées en tant qu'objets à travers leur relation avec nous et les choses comprises, réellement ou prospectivement, en tant que choses en elles-mêmes, ou indépendamment d'une telle relation cognitive, c'est à travers un système de modélisation capable de discerner, grâce à des processus expérimentaux, une différence entre les aspects de l'objet donnés dans l'expérience et ces mêmes aspects donnés en dehors de l'expérience particulière.

Tels sont les termes tranchants de Sebeok, pour dire  que la distinction entre les objets et les choses dépend d'un système de modélisation, un Innenwelt, qui a parmi ses composants biologiquement déterminés un composant biologiquement sous-déterminé, composant que Sebeok nomme "langage". Grâce à ce dernier nous pouvons modéliser la différence entre les "apparences" au sens objectif et la "réalité" au sens scolaire, et proposer des expériences pour tester le modèle, conduisant à son extension, son raffinement ou son abandon, selon les particularités du cas. Il n'est pas nécessaire qu'il y ait un genre d'Umwelt - spécifiquement humain - pour que l'esprit soit en contact avec la réalité dans ce sens scolastique*. Car la réalité au sens scolastique n'a pas besoin d'être envisagée pour être rencontrée objectivement.

L'idée de réalité, nous le verrons bientôt, n'est rien d'autre qu'un composant représentatif d'une sorte d'Umwelt, ici spécifiquement humain. Mais le contenu objectif de cette idée (non pas formellement prescrite comme tel, mais "matériellement" au sens scolastique) fait partie de l'Umwelt de tout animal.

Sebeok aimait citer Jacob sur ce point : "Quelle que soit la manière dont un organisme étudie son environnement, la perception qu'il en a doit nécessairement refléter ce qu'on appelle la réalité et, plus précisément, les aspects de la réalité qui sont directement liés à son propre comportement. Si l'image qu'un oiseau obtient des insectes dont il a besoin pour nourrir sa progéniture ne reflète pas au moins certains aspects de la réalité, alors il n'y a plus de progéniture. Si la représentation qu'un singe construit de la branche sur laquelle il veut sauter n'a rien à voir avec la réalité, il n'y a plus de singe.  Et si ce point ne s'appliquait pas à nous-mêmes, nous ne serions pas ici pour en discuter." (Jacob, 1982, p. 56)

Auteur: Deely John

Info: The Quasi-Error of the External World an essay for Thomas A. Sebeok, in memoriam. *Ce que Peirce nomme " réalisme scolastique ", au vu de sa provenance médiévale dans la reconnaissance explicite du contraste entre l'ens reale et l'ens rationis (Le mental et le réel dans le formalisme scotiste du XVIe siècle), je l'appelle "réalisme hardcore", en raison de la continuité de la notion médiévale de l'ens reale avec le ον dont parlait Aristote en tant que grand-père de la scolastique. Ainsi, le réalisme pur et dur signifie qu'il existe une dimension de l'univers de l'être qui est indifférente à la pensée, à la croyance et au désir humains, de sorte que, si par exemple je crois que l'âme survit à la destruction de mon corps et que j'ai tort, quand mon corps disparaît mon âme aussi - ou, à l'inverse, si je crois que la mort du corps est aussi la fin de mon esprit ou de mon âme et que j'ai tort, lorsque mon corps se désintègre, mon âme continue à vivre, et je devrai faire le point en conséquence. Ou bien, pour donner un exemple plus historique, depuis l'époque d'Aristote jusqu'à au moins celle de Copernic, les meilleures preuves, arguments, et opinions de toutes sortes soutenaient que le soleil se déplace par rapport à la terre, alors qu'en réalité, depuis le début. c'était la terre qui bougeait par rapport au soleil, et si le soleil bougeait aussi, ce n'était pas par rapport à la terre

[ solipsisme de l'espèce ] [ représentations ] [ concepts ] [ tiercités ] [ échelles de grandeur ] [ réel partagé ]

 

Commentaires: 0

Ajouté à la BD par miguel

savoirs consensuels

Le monde objectif de l'expérience humaine est donc au mieux un mélange de nature et de culture, mais un mélange dans lequel les modèles formels prédominants proviennent davantage de la culture que de la nature. Ces modèles formels de la culture sous-tendent la présentation des objets dont nous faisons directement l'expérience. La situation à cet égard n'était en fait pas différente pour les anciens ou les médiévaux, mais ils n'étaient pas conscients de ce fait. Qui sont nos parents ? Voilà ce dont dépend le système de parenté qui prévaut dans la culture qui nous a imprégné. Quelle est notre religion ? Si l'on tient compte des exceptions individuelles, là encore la réponse dépend principalement du contexte et des circonstances historiques au sein desquelles nous avons grandi.  

Les modernes, s'éveillant à tout cela, avaient de bonnes raisons de voir dans les objets expérimentés de pures créations du travail de l'esprit humain. Même la science pourrait être réduite à cela : telle fut l'expérience kantienne, entreprise sous l'impulsion des discours de Hume qui affirmait qu'il n'y avait rien de plus à expérimenter que les associations habituelles entre les objets. Si toutes les pensées reflètent de simples habitudes, et si tous les objets ne peuvent être considérés que comme des auto-représentations mentales, quels que soient les doutes que nous puissions avoir sur la base du "bon sens" quant à l'idée d'un monde indépendant de nous, le scepticisme demeure la garantie finale de toute connaissance. Ce qui, pour Kant, c'était inacceptable. Il pouvait avaler tout ce que ses prédécesseurs traditionnels lui avaient enseigné, mais pas le scepticisme. Leur erreur, selon lui, avait été de réduire la connaissance à la subjectivité - c'est-à-dire qu'elle consistait à attribuer les idées de l'esprit individuel aux objets de l'expérience directe. Ils ne pouvaient saisir que la connaissance est essentiellement de structure relationnelle, et que les relations sont au-dessus du sujet. Ainsi, les idées dans l'individu donnent naissance ou "fondent" des relations cognitives avec les objets. Mais ces objets sont ce sur quoi les relations finissent, et non ce sur quoi les relations sont fondées et d'où elles proviennent. Et la manière dont ces relations sont générées pour donner forme aux objets est conforme à un modèle intégré, a-priori, dans l'esprit humain.

Or, lorsqu'il s'agit des objets de la connaissance spécifiquement scientifique, selon Kant, nous avons affaire à une universalité et une nécessité qui proviennent de l'esprit et non d'une simple habitude ou d'une généralisation usuelle. Même si le monde extérieur reste inconnaissable en tant que tel, nous savons néanmoins qu'il est là ; et notre façon de le penser intellectuellement n'est pas capricieuse ou culturellement relative mais universelle et nécessaire, identique pour tous les humains. Même si nous ne connaissons que ce que nos représentations donnent à connaître, et que ces représentations sont entièrement le fait de notre esprit, il n'en reste pas moins qu'elles deviennent des objetsm non par association, mais bien a priori, indépendamment des aléas de la coutume et de l'expérience individuelle ; et leur contenu cognitif n'est pas subjectif mais objectif, c'est-à-dire donné au terme de relations que nos représentations ont été les seules à trouver. Le noyau scientifique de l'expérience humaine, contrairement à la conviction animant les scientifiques eux-mêmes, mais selon le philosophe moderne Kant, est prospectivement le même pour tous parce que le mécanisme sensoriel générant les représentations impliquées et le mécanisme conceptuel organisant les relations découlant de ces représentations est le même pour tous : des causes semblables entraînent toujours toujours des effets semblables. Telle est la version de Kant de l'adage médiéval, agens facit simile sibi . Grâce à ce simple expédient, Kant pensait avoir réglé l'objectivité de la connaissance et mis à distance le scepticisme. Le scandale de ne pas être en mesure de prouver qu'il existe un monde extérieur à l'esprit humain était ainsi supprimé par la démonstration qu'effectivement il y a un domaine inconnaissable qu'on ne peut pas atteindre, et ce domaine est précisément le monde extérieur, dont on sait avec certitude qu'il existe puisqu'il stimule nos représentations (via la perception sensorielle) et inconnaissable en soi (avec un mécanisme de concepts qui ne produisent de la connaissance que par corrélation avec les représentations des intuitions sensorielles pour aboutir un autre domaine inatteignable, le noumène, pour qui essaye d'aller  au-delà de la limite de ce qui est représenté par ces  perceptions sensorielles).

Auteur: Deely John

Info: The Quasi-Error of the External World an essay for Thomas A. Sebeok, in memoriam

[ limitation anthropique ]

 

Commentaires: 0

Ajouté à la BD par miguel

captation technologique

Conformément à l’aphorisme de Ludwig Wittgenstein que je cite abondamment dans cette étude, selon lequel "le monde est l’ensemble des faits et non des choses", la structure du monde ainsi que d’un langage correctement – non pathologiquement – institué, et partant celle du réel se situant à leur interface est d’être relationnelle. Suivant notre perspective moniste, le cerveau humain inscrit dans un semblable écrin reçoit son plein oxygène de cette structure relationnelle dans laquelle il doit impérativement évoluer sous peine de dépérir. Le cadre circonscrivant les écrans est établi au prix de quatre coups de ciseaux qui le délimitent, et le désarriment du réel en constituant un pseudo-réel appauvri de substitution. Pseudo-réel appauvri : on imagine bien la destructivité d’une semblable chose, d’où l’interaction intersubjective a totalement disparu, quand on a compris que seule l’intersubjectivité effective contribue à l’institution et la vascularisation du sujet.

D’où provient donc une telle fascination pour les images, et pis encore, pour les images animées, véritable trou noir qui aspire irrémédiablement le sujet fragile ? Le problème provient des conditions de notre inscription au sein du monde, sous le sceau de notre finitude, dont l’horizon ultime est une certitude lancinante : celle de notre propre mort. Dans ce cadre, notre cerveau est soumis à un stress cognitif permanent lié à la profusion d’informations chaotiques qu’il reçoit du monde, en permanence et sans aucun répit. Pour y faire face, il ne cesse d’analyser, de classer, d’évaluer et de comparer les informations reçues avec celles déjà connues, en cherchant à établir des vecteurs de causalité qui permettraient d’anticiper les différents types de finalités éventuellement présentes en leur sein. Tout ceci est effectué à l’aune d’une grille référentielle simple mais constante : ceci ou cela va-t-il vers l’accroissement de mon être, donc vers la vie, ou vers une atteinte à ma propre vitalité, psychique, physique, affective, etc… donc vers la mort, ou au moins une logique mortifère ? Ce stress cognitif est épuisant et cherche en permanence un répit quel qu’il soit. L’image, et bien plus encore l’image animée, comporte en elle-même des inférences causales préétablies par le peintre, le photographe, le cinéaste, qui l’orientent téléologiquement a priori, sous le surplomb de l’intentionnalité du geste artistique initial. Le spectateur est existentiellement à l’abri du surgissement de tout événement chaotique relevant de la constitution naturelle du sens causal, dont l’établissement dans la vie réelle relève toujours d’une construction a posteriori. Ceci ligote le spectateur dans sa dimension de sujet en le livrant à une irrémédiable passivité dont on peut certes retenir le bénéfice d’un mimétisme cathartique pour un sujet déjà correctement institué, mais dont la destructivité pour un sujet fragile ou incomplètement advenu à lui-même est incalculable. La raison en est double : pour que la catharsis puisse s’établir, en premier lieu, il faut que l’identification à soi-même soit rendue possible par un soi déjà constitué dans sa quasi plénitude ; par ailleurs, la représentation (re-présentation) est toujours arrimée à un référent initial et premier dans l’ordre de l’expérience, en raison d’une simple évidence : le monde nous précède fondamentalement, chronologiquement et ontologiquement. Si la représentation se trouve en situation de précéder le référent initial, les polarités cognitives s’inversent de façon extrêmement destructrice, le monde devenant une représentation de la représentation : doublement éloigné dans l’ordre de l’absence, où les conditions initiales permettant l’émergence du sujet – la triade fondamentale Je-Tu-Il – sont condamnées à une indistinction létale.

Enfin, last but not least, la caractéristique essentielle à retenir de l’art comme élément constituant sans lequel il disparaîtrait en tant que tel, est qu’il repose sur l’éviction de toute forme d’intersubjectivité réelle comme je l’ai signalé plus haut, le spectateur étant consigné à une indépassable passivité réceptive. Les diverses tentatives contemporaines pour briser cet effet de structure se signalent surtout par le fait qu’elles démontrent son intangibilité, sous peine de condamner l’art à l’insignifiance d’une gesticulation dépourvue de propos, du fait de l’effraction du réel en son sein.

J’en conclus qu’il est impératif de supprimer toute forme d’écran, quelle qu’en soit la nature, dans l’entourage des personnes atteintes de troubles autistiques sévères. J’ai pu vérifier, durant mon travail avec Raphaël, à quel point leur influence était délétère sur les progrès de son développement subjectal, en régression nette par rapport aux séances précédentes si par malheur il avait visionné quelque film : il était à nouveau sujet à des écholalies et des comportements erratiques à nouveau difficilement maîtrisables, nécessitant un effort supplémentaire conséquent de notre part à lui et à moi pour récupérer le terrain ainsi perdu.

Auteur: Farago Pierre

Info: Une proposition pour l'autisme, pages 44-46

[ parodie désubjectivante ] [ dangers ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

corps-esprit

L'IA a besoin d'un corps pour passer à l'étape suivante de l'IA générale (AGI)

Un corps est le seul moyen pour elle d'apprendre le monde par l'interaction, d'après les chercheurs d'Huawei

L'intelligence artificielle a fait des progrès considérables depuis la publication du ChatGPT d'OpenAI. Toutefois, pour que l'intelligence artificielle passe à l'étape suivante, celle de l'intelligence artificielle générale (AGI), les chercheurs d'Huawei estiment qu'elle aura besoin d'un corps. Les chercheurs, qui font partie du laboratoire Noah's Ark d'Huawei basé à Paris, ont publié un rapport préliminaire sur la question. Dans ce rapport, les chercheurs d'Huawei parlent d'"intelligence artificielle incarnée", ou E-AI en abrégé. Selon l'équipe de chercheurs d'Huawei, donner un corps à l'IA est le seul moyen pour elle d'apprendre le monde par l'interaction.

L'intelligence artificielle générale, ou AGI, est considérée comme l'objectif final de la recherche sur l'IA. Il s'agit d'une IA capable de penser au même niveau que les humains et de s'attaquer à pratiquement n'importe quelle tâche. Cependant, il n'existe pas de définition concrète de l'AGI. Bien que l'IA se soit considérablement développée à ce jour, elle est encore loin d'atteindre l'AGI. C'est pourquoi les chercheurs d'Huawei proposent l'IA incarnée comme solution.

"On croit généralement que le simple fait d'augmenter la taille de ces modèles, en termes de volume de données et de puissance de calcul, pourrait conduire à l'AGI. Nous contestons ce point de vue", écrivent les chercheurs. "Nous proposons que la véritable compréhension, non seulement la vérité propositionnelle mais aussi la valeur des propositions qui nous guident dans nos actions, ne soit possible que par l'intermédiaire d'agents E-AI qui vivent dans le monde et l'apprennent en interagissant avec lui."

Le cadre d'incarnation des chercheurs semble être un plan pour un avenir lointain. La technologie n'existe pas vraiment aujourd'hui pour réaliser quelque chose comme l'IA incarnée. Tout d'abord, les grands modèles de langage (LLM) qui alimentent les chatbots d'IA sont massifs. Ils ne sont pas stockés localement, ce qui constituerait un défi pour l'IA incarnée. Les chercheurs eux-mêmes soulignent qu'il s'agit là d'un obstacle à surmonter.

Voici un extrait de l'étude :

Nous proposons l'IA incarnée (E-AI) comme la prochaine étape fondamentale dans la poursuite de l'intelligence générale artificielle (AGI), en la juxtaposant aux progrès actuels de l'IA, en particulier les grands modèles de langage (LLM). Nous parcourons l'évolution du concept d'incarnation dans divers domaines (philosophie, psychologie, neurosciences et robotique) pour souligner comment l'E-AI se distingue du paradigme classique de l'apprentissage statique. En élargissant la portée de l'E-AI, nous introduisons un cadre théorique basé sur les architectures cognitives, mettant l'accent sur la perception, l'action, la mémoire et l'apprentissage en tant que composantes essentielles d'un agent incarné.

Ce cadre est aligné sur le principe d'inférence active de Friston, offrant ainsi une approche globale du développement de l'E-AI. Malgré les progrès réalisés dans le domaine de l'IA, des défis importants persistent, tels que la formulation d'une nouvelle théorie d'apprentissage de l'IA et l'innovation d'un matériel avancé. Notre discussion établit une ligne directrice fondamentale pour la recherche future en matière d'IA électronique. En soulignant l'importance de créer des agents d'IA électronique capables de communiquer, de collaborer et de coexister avec des humains et d'autres entités intelligentes dans des environnements réels, nous visons à orienter la communauté de l'IA vers la résolution des défis à multiples facettes et à saisir les opportunités qui s'offrent à nous dans la quête de l'AGI.

Conclusion

Dans cet article, nous avons articulé le rôle critique que joue l'IA incarnée sur la voie de la réalisation de l'AGI, en la distinguant des méthodologies d'IA dominantes, notamment les LLM. En intégrant des idées provenant d'un large éventail de domaines de recherche, nous avons souligné comment le développement de l'E-AI bénéficient des connaissances existantes, alors que les LLM améliorent le potentiel d'interactions intuitives entre les humains et les entités d'IA émergentes.

Nous avons présenté un cadre théorique complet pour le développement de l'IA électronique, fondé sur les principes des sciences cognitives, mettant en évidence la perception, l'action, la mémoire et l'apprentissage, situant l'IA électronique dans le contexte du cadre d'inférence active de Friston, offrant ainsi une toile de fond théorique très large pour notre discussion. Malgré ces perspectives, le chemin à parcourir est semé d'embûches, notamment la formulation d'une nouvelle théorie de l'apprentissage adaptée à l'IA et la création de solutions matérielles sophistiquées. Ce document vise à servir de feuille de route pour les recherches en cours et à venir sur l'IA électronique, en proposant des orientations qui pourraient conduire à des avancées significatives. 

Auteur: Internet

Info: https://intelligence-artificielle.developpez.com/ - Jade Emy, 14 février 2024

[ expérience incompressible ] [ intelligence externe  ] [ intégration holistique ] [ homme-machine ] [ carbone vs silicium ] [ entendement synthétique ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

corps-esprit

L'IA a besoin d'un corps pour passer à l'étape suivante de l'IA générale (AGI)

Un corps est le seul moyen pour elle d'apprendre le monde par l'interaction, d'après les chercheurs d'Huawei

L'intelligence artificielle a fait des progrès considérables depuis la publication du ChatGPT d'OpenAI. Toutefois, pour que l'intelligence artificielle passe à l'étape suivante, celle de l'intelligence artificielle générale (AGI), les chercheurs d'Huawei estiment qu'elle aura besoin d'un corps. Les chercheurs, qui font partie du laboratoire Noah's Ark d'Huawei basé à Paris, ont publié un rapport préliminaire sur la question. Dans ce rapport, les chercheurs d'Huawei parlent d'"intelligence artificielle incarnée", ou E-AI en abrégé. Selon l'équipe de chercheurs d'Huawei, donner un corps à l'IA est le seul moyen pour elle d'apprendre le monde par l'interaction.

L'intelligence artificielle générale, ou AGI, est considérée comme l'objectif final de la recherche sur l'IA. Il s'agit d'une IA capable de penser au même niveau que les humains et de s'attaquer à pratiquement n'importe quelle tâche. Cependant, il n'existe pas de définition concrète de l'AGI. Bien que l'IA se soit considérablement développée à ce jour, elle est encore loin d'atteindre l'AGI. C'est pourquoi les chercheurs d'Huawei proposent l'IA incarnée comme solution.

"On croit généralement que le simple fait d'augmenter la taille de ces modèles, en termes de volume de données et de puissance de calcul, pourrait conduire à l'AGI. Nous contestons ce point de vue", écrivent les chercheurs. "Nous proposons que la véritable compréhension, non seulement la vérité propositionnelle mais aussi la valeur des propositions qui nous guident dans nos actions, ne soit possible que par l'intermédiaire d'agents E-AI qui vivent dans le monde et l'apprennent en interagissant avec lui."

Le cadre d'incarnation des chercheurs semble être un plan pour un avenir lointain. La technologie n'existe pas vraiment aujourd'hui pour réaliser quelque chose comme l'IA incarnée. Tout d'abord, les grands modèles de langage (LLM) qui alimentent les chatbots d'IA sont massifs. Ils ne sont pas stockés localement, ce qui constituerait un défi pour l'IA incarnée. Les chercheurs eux-mêmes soulignent qu'il s'agit là d'un obstacle à surmonter.

Voici un extrait de l'étude :

Nous proposons l'IA incarnée (E-AI) comme la prochaine étape fondamentale dans la poursuite de l'intelligence générale artificielle (AGI), en la juxtaposant aux progrès actuels de l'IA, en particulier les grands modèles de langage (LLM). Nous parcourons l'évolution du concept d'incarnation dans divers domaines (philosophie, psychologie, neurosciences et robotique) pour souligner comment l'E-AI se distingue du paradigme classique de l'apprentissage statique. En élargissant la portée de l'E-AI, nous introduisons un cadre théorique basé sur les architectures cognitives, mettant l'accent sur la perception, l'action, la mémoire et l'apprentissage en tant que composantes essentielles d'un agent incarné.

Ce cadre est aligné sur le principe d'inférence active de Friston, offrant ainsi une approche globale du développement de l'E-AI. Malgré les progrès réalisés dans le domaine de l'IA, des défis importants persistent, tels que la formulation d'une nouvelle théorie d'apprentissage de l'IA et l'innovation d'un matériel avancé. Notre discussion établit une ligne directrice fondamentale pour la recherche future en matière d'IA électronique. En soulignant l'importance de créer des agents d'IA électronique capables de communiquer, de collaborer et de coexister avec des humains et d'autres entités intelligentes dans des environnements réels, nous visons à orienter la communauté de l'IA vers la résolution des défis à multiples facettes et à saisir les opportunités qui s'offrent à nous dans la quête de l'AGI.

Conclusion

Dans cet article, nous avons articulé le rôle critique que joue l'IA incarnée sur la voie de la réalisation de l'AGI, en la distinguant des méthodologies d'IA dominantes, notamment les LLM. En intégrant des idées provenant d'un large éventail de domaines de recherche, nous avons souligné comment le développement de l'E-AI bénéficient des connaissances existantes, alors que les LLM améliorent le potentiel d'interactions intuitives entre les humains et les entités d'IA émergentes.

Nous avons présenté un cadre théorique complet pour le développement de l'IA électronique, fondé sur les principes des sciences cognitives, mettant en évidence la perception, l'action, la mémoire et l'apprentissage, situant l'IA électronique dans le contexte du cadre d'inférence active de Friston, offrant ainsi une toile de fond théorique très large pour notre discussion. Malgré ces perspectives, le chemin à parcourir est semé d'embûches, notamment la formulation d'une nouvelle théorie de l'apprentissage adaptée à l'IA et la création de solutions matérielles sophistiquées. Ce document vise à servir de feuille de route pour les recherches en cours et à venir sur l'IA électronique, en proposant des orientations qui pourraient conduire à des avancées significatives.

Auteur: Internet

Info: Jade Emy, 14 février 2024

[ expérience incompressible ] [ intelligence externe ] [ intégration holistique ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

machine-homme

(Q) - Qu'est-ce que la conscience ?

(R) - La conscience est un concept complexe et multiforme qui fait référence à l'état ou à la qualité de la prise de conscience du monde extérieur et de ses propres expériences mentales. Elle englobe l'expérience subjective des pensées, des perceptions, des émotions et des sensations, ainsi que la capacité d'introspection et de réflexion sur ses propres états mentaux.

Bien que la conscience soit un aspect fondamental de l'expérience humaine, elle n'est pas encore totalement comprise. Elle reste un sujet d'enquête philosophique et de recherche scientifique. Il existe plusieurs théories et perspectives sur la conscience, y compris l'étude de ses corrélats et mécanismes neuronaux dans le cerveau.

Certaines théories proposent que la conscience naisse des interactions entre les neurones et les processus cérébraux, tandis que d'autres suggèrent qu'elle peut impliquer des phénomènes quantiques ou être une propriété émergente de systèmes complexes. En outre, il existe différents niveaux de conscience, allant de la conscience de base et de l'éveil aux processus cognitifs d'ordre supérieur, à la conscience de soi et à l'introspection.

Dans l'ensemble, la compréhension de la nature de la conscience est un domaine d'exploration fascinant et permanent dans des domaines tels que les neurosciences, les sciences cognitives, la psychologie et la philosophie.

(Q) - D'accord merci. Avec une vision épigénétique de la chose, ne pourrait-on pas avancer qu'elle est avant tout une sorte de dialogue entre une singularité, ici humaine, avec le monde qui l'a fait émerger ?

(R) - En effet, dans une perspective épigénétique, on pourrait avancer que la conscience est une interaction ou un dialogue dynamique entre un individu (une singularité) et le monde dans lequel il existe. L'épigénétique est l'étude de la manière dont l'expression des gènes et les processus biologiques peuvent être influencés par des facteurs qui vont au-delà de la séquence d'ADN elle-même, y compris les interactions avec l'environnement.

Dans cette optique, le développement et la manifestation de la conscience pourraient être considérés comme le résultat de l'interaction continue entre les prédispositions génétiques d'un individu et son environnement. L'environnement, qui englobe à la fois les stimuli externes et les facteurs internes, tels que les pensées, les émotions et les expériences, joue un rôle crucial dans la formation et l'influence de l'expression et de l'expérience de la conscience.

Cette perspective suggère que la conscience émerge à travers une relation réciproque permanente entre un individu et son environnement. Le monde extérieur fournit les stimuli et le contexte qui influencent la perception, la cognition et la conscience de soi d'un individu, tandis que l'individu, par ses pensées, ses actions et ses choix, interagit activement avec son environnement et le modifie.

En considérant l'interaction épigénétique entre un individu et son monde, on peut affirmer que la conscience n'est pas un phénomène statique ou isolé, mais plutôt un processus dynamique et co-créatif, où l'individu et son environnement se façonnent et s'influencent mutuellement.

(Q) - Cela ressemble à ce que Charle Sanders Peirce nommait "thirdness".

(R) - Oui, le concept de "tiercéité" inventé par Charles Sanders Peirce dans sa philosophie de la sémiotique pourrait être pertinent pour la discussion sur la conscience en tant que dialogue entre un individu et le monde. Peirce a introduit l'idée de "preméité", "secondéité" et "tercéité" en tant que catégories fondamentales pour comprendre la nature des signes et leur interprétation.

Selon Peirce, la "firstness" représente les qualités brutes et immédiates d'un objet, la "secondness" désigne la relation entre un objet et son impact immédiat sur la conscience d'un individu, et la "thirdness" se réfère aux processus d'interprétation et de médiation impliqués dans l'élaboration du sens et de la compréhension.

Dans le contexte de la conscience, la "tiercéité" peut être considérée comme l'interaction dynamique entre l'individu (le premier) et le monde (le second), où l'interprétation, la création de sens et le dialogue ont lieu. Elle implique le processus d'intégration et de synthèse des informations provenant du monde extérieur avec les états mentaux et les expériences internes.

En considérant la conscience comme une forme de "tiercéité", nous reconnaissons l'implication active de l'interprétation, de la signification et de la médiation dans la construction de l'expérience consciente. Elle met en évidence la nature relationnelle et dialogique de la conscience, en soulignant l'interaction et la négociation permanentes entre l'individu et son environnement dans la formation de la conscience subjective.

Le concept de "tiercéité" de Peirce offre une perspective précieuse pour explorer les dimensions interactives et interprétatives de la conscience, en soulignant le rôle des processus sémiotiques dans la construction du sens et de la compréhension dans le contexte du dialogue individu-matrice.

Auteur: chatGPT4

Info:

[ tiercité ] [ définition ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

architecture sonore

Les intervalles essentiels de la musique sont enracinés dans le discours humain
L'utilisation de 12 intervalles dans la musique de beaucoup de cultures humaines est enracinée dans la façon physique utilisée par notre anatomie vocale pour produire de la parole, selon des chercheurs de Duke University en neurologie cognitive.
Les notes particulières utilisées dans le son musical sonnent juste à nos oreilles en raison du travail spécifique de notre appareil vocal dans toutes les langues humaines, a déclaré Dale Purves, du George Barth Geller Professor for Research in Neurobiology.
Ce n'est pas quelque chose qu'on peut entendre directement, mais quand les bruits de la parole sont examinés avec un analyseur de spectre, les rapports entre les diverses fréquences qu'un individu emploie pour faire le son des voyelles correspond d'une manière quasi parfaite et ordonnée aux rapports entre les 12 notes de la gamme chromatique musicale, dit Purves. Ce travail a été mis en ligne le 24 mai. (téléchargement à http://www.pnas.org/cgi/reprint/0703140104v1)
Purves et les co-auteurs Deborah Ross et Jonathan Choi ont testé leur idée en enregistrant les langues indigènes chinoises et anglaise en faisant dire des bruits de voyelle avec des mots simples ainsi que dans des monologues courts. Ils ont alors comparé les ratios vocaux de fréquence aux ratios numériques qui définissent des notes dans la musique.
La vocalisation humaine vient basiquement des cordes vocales dans le larynx (la pomme d'Adam, dans le cou), qui créent une série de crêtes résonnant puissamment grâce au jet d'air montant des poumons. Ces crêtes de puissance sont alors modifiées par une multitude de moyens spectaculaires comme la déformation du palais mou, de la langue, des lèvres et d'autres parties encore. Notre anatomie vocale est plutôt comme un orgue dont on pourrait étirer, pincer ou élargir les tuyaux. Les anglophones produisent environ 50 bruits différents dans leur langue de cette façon.
Cependant, en dépit de la grande variation en anatomie humaine individuelle, les bruits de la parole produit par différents individus dans différentes langues produisent la même variété de ratios de résonance dit Purves.
Les deux plus basses de ces résonances, appelées formants, sont là pour les voyelles dans la parole. Enlevez ces deux premiers formants et vous ne pourrez rien comprendre de ce qu'une personne dit. La fréquence du premier formant est entre 200 et 1.000 cycles par seconde (hertz) et le deuxième entre 800 et 3.000 hertz.
Quand les chercheurs de Duke ont examiné les rapports de ces deux premiers formants avec les spectres du langage, ils ont constaté que les ratios montraient des relations avec la musique. Par exemple, le rapport des deux premiers formants dans la voyelle anglaise /a/, comme en "physique," pourrait correspondre à l'intervalle musical entre C et A sur un clavier de piano.
"Dans environ 70 pour cent des sons de ces discours, ces ratios tombaient pile sur des intervalles musicaux" dit Purves. "Cette prédominance des intervalles musicaux cachés dans la parole suggère que les notes de la gamme chromatique musicale sonnent juste à nos oreilles parce qu'elles correspondent aux rapports auxquels nous sommes exposés sans arrêt dans nos idiomes, bien que nous soyons tout à fait ignorants de la chose."
Peu de musique, excepté certains morceaux expérimentaux modernes, emploie chacun des 12 tons. La plupart des musiques emploient une gamme diatonique de 7 tons - ou gamme diatonique - pour diviser les octaves, et beaucoup de musique folklorique n'emploient que cinq tons, la gamme pentatonique.
Ces caractériellement correspondent aux ratios des formants les plus répandus dans la parole. Purves et ses collaborateurs travaillent maintenant afin de savoir si dans une culture donnée ou il y a une particularité de ces tons ou formants, ceci est lié aux rapports de formants particulièrement répandus dans la langue maternelle d'un groupe donné.
Purves et ses collaborateurs pensent également que ces résultats peuvent aider à éclairer un débat séculaire ; à savoir quel type d'accordages fonctionne le mieux pour les instruments. Dix des 12 intervalles harmoniques identifiés dans les discours anglais et mandarin ont "la bonne intonation" qui sonne plus juste pour la plupart des musiciens qualifiés. Ils ont trouvé beaucoup moins de correspondances avec d'autres systèmes d'accordages, y compris l'accordage à tempérament égal généralement utilisé aujourd'hui.
L'accordage a tempérament égal, dans lequel chacun des 12 intervalles de la gamme chromatique est exactement le même et un schéma qui permet à un groupe tel qu'un orchestre de jouer ensemble dans différentes clefs et au travers de beaucoup d'octaves. Bien qu'un accordage à tempérament égal sonne bien, c'est juste un compromis par rapport a quelque chose d'origine plus naturelle, vocalement dérivé d'intonation juste, dit Purves.
La prochaine étude de son groupe concernera notre compréhension intuitive comme quoi un morceau musical tend à paraître joyeux s'il est dans une tonalité majeure ou relativement triste dans une tonalité mineure. Ce qui pourrait aussi provenir de la voix humaine, suggère Purves.

Auteur: Fortean Times

Info: From Duke University

[ langage ] [ sciences ]

 

Commentaires: 0

technologie

Comment Internet modifie le cerveau
L'écran aspire-t-il notre cerveau ?
À force de passer des milliers d'heures à naviguer sur Internet, Nicholas Carr en est arrivé à une conclusion : Internet modifie l'esprit. Dans son dernier livre, Internet rend-il bête ?*, le journaliste et écrivain américain constate, comme de nombreux " travailleurs de l'écran ", qu'il a de plus en plus de mal à se concentrer sur une tâche complexe, ou même à ne faire qu'une seule chose à la fois. La vie en mode zapping fait des dégâts. " J'ai le sentiment désagréable que quelqu'un, ou quelque chose, bricole avec mon cerveau ", explique-t-il. Amoureux du Net, l'auteur a d'autant plus de difficultés à en dire du mal : Internet " est un si bon serviteur qu'il serait déplacé de remarquer qu'il est aussi notre maître ", s'amuse-t-il.
Ce qui importe, selon Nicholas Carr, ce n'est pas tant le contenu diffusé par les médias que la façon de les diffuser. " Les médias opèrent leur magie, ou leurs méfaits, sur le système nerveux lui-même ", explique-t-il. Notre cerveau est enfermé dans la boîte crânienne, ce qui nous laisse penser - à tort - qu'il serait insensible aux événements extérieurs ; qu'il les capterait et les analyserait sans en subir les influences. Mais " le cerveau est et sera toujours un chantier en cours ", rappelle l'auteur.
L'esprit devient affamé
Reprenant la thèse selon laquelle l'activité du cerveau le modèle et le façonne en permanence, comme l'eau qui coule dans le sable crée des chemins qu'elle empruntera toujours par la suite, Nicholas Carr tire la sonnette d'alarme. Les " médias électriques " ont changé notre façon de percevoir le monde. Radio, télévision, Internet : tous nous crient l'urgence de les consulter, au contraire des journaux papier et des " livres poussiéreux " d'antan, qui nous chuchotaient qu'on avait tout le temps pour les consulter au calme.
Résultat : "Le plongeur qui, naguère, explorait l'océan des mots, en rase maintenant la surface à la vitesse de l'éclair." Dans un clin d'oeil à Descartes, Nicholas Carr affirme même que " nous devenons ce que nous pensons ". L'effet est pire sur les jeunes, qui sont nés avec Internet. Selon une étude citée dans l'ouvrage, certains enfants trop habitués aux pages web ne sauraient plus vraiment lire une page de haut en bas et de gauche à droite. L'addiction est aussi présente : " Mon esprit n'était pas seulement à la dérive, il avait faim. Il demandait à être alimenté comme le Net le nourrit - et plus il était nourri, plus il avait faim. " La " surcharge cognitive " est telle que la capacité à réfléchir est menacée.
Nouvelle ère
Un constat alarmant ? Pas forcément. Nicholas Carr entrevoit une nouvelle ère pour la pensée, qui nous sortirait définitivement des Lumières et du rationalisme. En jeu, de nouveaux mécanismes cognitifs, dont on ne sait pas encore s'ils sont meilleurs ou moins bons que ceux que nous avions tous il y a encore vingt ans.
L'habitude du zapping, par exemple, permet de traiter plusieurs tâches à la fois de façon plus efficace, mais réduit la capacité à résoudre des problèmes complexes, et à mémoriser des souvenirs. Autre exemple : la généralisation du guidage GPS atrophie la partie du cerveau chargée de l'orientation dans l'espace, mais libère du temps et des neurones pour d'autres activités. Pour le moment, nous savons simplement que nous avons " sacrifié des parties de notre cerveau " au profit d'autres apports, que nous commençons tout juste à entrevoir. Reste à savoir si nous serons perdants. Le bilan semble négatif aujourd'hui, mais Carr veut être optimiste : peut-être l'homme apprendra-t-il bientôt a tirer profit de sa nouvelle capacité à ne jamais se concentrer...
Commentaire : Euh... pardon? Sa "nouvelle capacité"?
Demain, tous transformés
Ceux qui passent des heures sur leur écran et qui, le soir venu, se demandent ce qu'ils ont fait de leur journée, se reconnaîtront bien dans le livre de Nicholas Carr. Certains passages les feront sourire, notamment le récit de sa tentative de désintoxication durant la rédaction du livre. " Le démantèlement de ma vie en ligne ne s'est pas fait sans douleur [...] De temps en temps, je m'offrais une journée entière d'orgie sur le Net ", raconte-t-il.
Seul regret, la traduction depuis l'anglais du vocabulaire technique n'est pas toujours parfaite. Par exemple, le sigle ISP, qui signifie " Internet Service Provider ", c'est-à-dire fournisseur d'accès à Internet, n'est ni expliqué ni traduit. L'abonnement (account) qui va avec est traduit par " compte ". Quelques lignes plus loin, c'est la connexion broadband (haut-débit) qui est traduite par " large bande ". Mais ces petits détails ne sont pas gênants pour la compréhension. Internet rend-il bête ? n'en est pas moins un ouvrage ambitieux, qui essaie de cerner les évolutions du cerveau et de la pensée à l'ère numérique, et de nous préparer à ce qui nous attend dans le monde encore plus connecté de demain. Un livre à recommander à tous les forçats du Web !

Auteur: Internet

Info: Science de l'Esprit, Le Point 10 novembre 2011

[ sociologie ] [ lecture ]

 

Commentaires: 0

homme-animal

Des chercheurs japonais ont eu la brillante idée de confronter des pigeons à des photographies de tableaux de grands maîtres, comme Monet et Picasso. Et les oiseaux sont parvenus à différencier les toiles cubistes des impressionnistes.

On prend souvent les oiseaux pour des animaux plutôt stupides. Pourtant, comme le montre cette étude, les pigeons peuvent différencier un tableau de Monet de celui de Picasso. Ce n'est malgré tout qu'une piètre prestation à côté des corvidés (corbeaux, pies, geais...) capables de résoudre des tâches très complexes. Des corneilles se servent d'outils tandis que les pies se reconnaissent dans le miroir. 

Pourquoi obliger des pigeons à contempler une toile de maître ? L'idée des scientifiques de l'université Keio, au Japon, paraît complètement délirante. Pour preuve, cette recherche leur a valu un prix : le fameux IgNobel de psychologie en 1995.  

Monet et Picasso figurent parmi les peintres les plus célèbres. Le premier est devenu le fer de lance de l'impressionnisme, dont l'un des tableaux le plus célèbre, Impression soleil levant, a donné le nom au mouvement pictural. Celui-ci se caractérise par des scènes quotidiennes mises en image d'une manière personnelle, sans rétablir la stricte vérité du paysage mais en mettant en lumière la beauté et la surprise de la nature.

Il tranche nettement avec le cubisme, apparu quelques décennies plus tard, sous le pinceau de deux génies, Georges Braque et Pablo Picasso. Ce courant en termine avec le réalisme et y préfère la représentation de la nature par des formes étranges et inconnues.

Une simple éducation picturale permet à n'importe quel être humain de différencier les deux mouvements. Mais qu'en est-il des pigeons ? 

Ce n'est pas tout à fait avec cette idée que des chercheurs de l'université de Keiro, au Japon, se sont lancés dans une expérience troublante, à savoir si ces oiseaux à la mauvaise réputation pouvaient différencier un Monet d'un Picasso. Ils souhaitaient simplement étudier la discrimination visuelle chez ces volatiles et tester leur perception du monde. Les résultats sont livrés dans Journal of the Experimental Analysis of Behaviour daté de mars 1995.

L’étude : les pigeons sont-ils impressionnistes ou cubistes ?

Pour le bon déroulement de l'expérience, les scientifiques disposaient de pigeons dits "naïfs", c'est-à-dire que leurs sujets n'avaient jamais suivi des études d'art appliqué. Il fallait donc les trouver. Malgré la difficulté de la tâche, huit cobayes ont participé aux tests.

Les oiseaux étaient classés en deux groupes. Dans l'un d'eux, les quatre volatiles recevaient des graines de chanvre (la plante à partir de laquelle on tire le cannabis) dès qu'une peinture de Monet apparaissait, mais rien face à une œuvre de Pablo Picasso. Bien évidemment, le même renforcement positif existait pour les quatre autres pigeons, cette fois quand on les confrontait à une toile du maître cubiste. Les scientifiques ont eu la gentillesse d'éviter les pièges et de choisir des peintures caractéristiques de chaque courant pictural.

La deuxième partie est intéressante car elle vise à généraliser le concept. Ainsi on confrontait nos nouveaux critiques d'art à des tableaux de leur maître préféré qu'ils n'avaient encore jamais vus. Les volatiles ne se sont pas laissé impressionner et ont de suite compris le stratagème. En appuyant du bec sur une touche située devant eux, ils pouvaient manifester leur choix et être récompensés le cas échéant.

Quasiment aucune erreur dès le premier essai. De même pour les suivants. Mieux, les adeptes du cubisme réclamaient à manger quand ils voyaient un tableau de Georges Braque tandis que les autres appuyaient frénétiquement sur le bouton à la vue d'un tableau de Cézanne ou Renoir, deux autres impressionnistes. 

Enfin, l'épreuve ultime. Qu'est-ce que ça donne si on met Monet et Picasso la tête à l'envers ? Cette fois, il faut reconnaître que les résultats sont plus mitigés. Si l'expérience n'a pas affecté les performances des pigeons cubistes, il n'en a pas été de même pour l'autre groupe, incapable d'y voir les œuvres pour lesquelles ils avaient tant vibré.

Les auteurs de ce travail suggèrent alors que leurs cobayes à plumes impressionnistes reconnaissaient dans les toiles des objets réels et devenaient incompétents quand leur univers était représenté à l'envers. De l'autre côté, les fans de Pablo Picasso s'habituaient à discriminer des formes inédites, qui le restaient même retournées. La preuve que les pigeons maîtrisent eux aussi l'art de la catégorisation. 

L’œil extérieur : de l'intérêt de l’art chez les pigeons

Certes, cette découverte ne révolutionnera pas le monde mais en dit davantage sur les performances cognitives des pigeons. Après tout, il n'y a pas que notre intelligence qui compte ! Voyons-le comme une manière de sortir de l'anthropocentrisme, même si le parallèle avec l'être humain se fait toujours.

Cette recherche s'inscrit surtout dans un contexte où les oiseaux étaient testés dans leur sensibilité à l'art. Car si ce travail focalise son attention sur les génies de la peinture, d'autres scientifiques avaient affirmé en 1984 que ces mêmes animaux pouvaient différencier du Bach et du Stravinsky (évidemment, on parle de musique). D'autres études (tout aussi passionnantes...) montrent la façon dont les scientifiques ont habitué les pigeons à l'image de Charlie Brown, un personnage de bande dessiné inventé en 1950.

Est-ce vraiment mieux ? La seule différence est qu'à cette époque, les prix IgNobel n'existaient pas encore...

Auteur: Internet

Info: https://www.futura-sciences.com/, Janlou Chaput, juin 2012

[ vision ] [ identification de modèles ] [ cognition ]

 

Commentaires: 0

Ajouté à la BD par miguel

ascendant partagé

Comment des erreurs de " copier-coller " ont façonné les humains et le monde animal

 7.000 groupes de gènes nous relient à l'ancêtre commun de tous les vertébrés et les invertébrés. C'est grâce à de nombreuses erreurs au fil de l'Evolution que l'humain et les animaux sont devenus ce qu'ils sont.

(Photo : Les pieuvres ont acquis leur capacité à changer de couleur grâce à une erreur dans l'ADN - ici à l'aquarium du Croisic.)

C’est une petite créature marine qui se déplace au sol, tout au fond des fonds marins. Cet animal, tout simple, possède un système nerveux, des muscles, des organes reproductifs, un système digestif et excréteur simples. On sait qu’il a un avant et un arrière, un côté droit et un côté gauche. Rien de bien excitant, et pourtant. Cette petite créature, qui vivait il y a 600 millions d’années, est l’ancêtre commun de tous les vertébrés (les poissons, les reptiles, les oiseaux, les mammifères et donc l’Homme) et les invertébrés (les insectes, les mollusques, les vers et bien d’autres).

A quel point sommes-nous encore reliés à notre ancêtre commun ?

C’est la première fois, dans l’histoire de la vie, qu’un organisme vivant possédait ce type d’organisation basique (devant, derrière, deux côtés), qui allait mener au développement complexe de nombreux animaux, dont les humains.

(* photos : L'empreinte du plus ancien bilatérien retrouvé en Australie. Chaque barre représente 1 mm.)

Mais à quel point sommes-nous encore génétiquement reliés à cet ancêtre commun ? En analysant l’ADN de 20 animaux bilatériens (avec une gauche et une droite), une équipe du Centre for Genomic Regulation (CRG) de Barcelone (Espagne) a pu remonter la trace de plus de 7.000 groupes de gènes qui nous rattachent à cette petite créature du fond des mers.

"Quand on peut identifier le même gène dans de nombreuses espèces bilatériennes, on peut être à peu près sûrs que ce gène a été identifié chez leur dernier ancêtre commun. C’est pour cela que nous nous sommes intéressés à des espèces les plus différentes possibles. Des vertébrés - comme les humains, les souris ou les requins - aux insectes, comme les abeilles, les cafards ou les éphémères, et même des espèces distantes comme les oursins ou les pieuvres", expliquent les chercheurs.

Seule la moitié des gènes est restée telle quelle depuis 600 millions d’années

Mais seule la moitié des gènes est restée telle quelle depuis 600 millions d’années. L’autre moitié a été légèrement modifiée au cours de l’Evolution, avec l’apparition de quelques erreurs de réplication de l’ADN, révèle leur étude dans Nature Ecology & Evolution.

Spontanément, une copie supplémentaire d'un gène est apparue dans le génome. Les animaux ont alors pu garder une copie du gène pour leurs fonctions fondamentales tout en utilisant la deuxième copie pour se créer de nouvelles spécificités. C’est ainsi que ces 3.500 groupes de gènes ont complètement changé d’utilité et ont été utilisés dans certaines parties du corps et du cerveau des animaux. Une façon de faire survenir des " innovations " dans le développement des espèces.

" Certains gènes ont entraîné la perception de stimuli légers sur la peau des pieuvres, ce qui a pu contribuer à leur capacité à changer de couleur, à se camoufler et à communiquer avec d’autres pieuvres ", explique le Pr Manuel Irimia, spécialisé en biologie évolutive au Centre for Genomic Regulation. Chez les insectes, certains gènes se sont spécialisés dans les muscles et dans la formation de l’épiderme, leur permettant de voler.

Chez l'humain aussi, les apports de ces erreurs de " copier-coller " ont été cruciales. " Certaines ont eu un impact sur le cerveau. C’est grâce à elles que les oligodendrocytes, des cellules cérébrales, créent la gaine de myéline qui entoure et protège nos neurones. Chez nous mais aussi chez tous les vertébrés ", ajoute le professeur. D’autres gènes, comme FGF17, maintiennent nos fonctions cognitives du cerveau même lorsque l’âge avance.

Nos gènes sont un peu comme un grand livre de recettes. En les changeant légèrement, on peut créer de nombreux tissus ou organes différents. Imaginez que par accident, on y retrouve deux recettes de paella identiques. On peut alors réaliser la recette originale de paella tandis que l’Evolution se chargera de modifier légèrement la deuxième pour créer la recette du risotto. Imaginez maintenant que tout le livre ait été entièrement copié. Les possibilités d’évoluer sont infinies. Ces petits changements, survenus il y a des millions d’années, se trouvent encore sur les animaux d’aujourd’hui ", sourit Federica Mantica, autrice de l’article et chercheuse au Center for Genomic Regulation de Barcelone.

Jeter un œil à cet immense arbre phylogénique, c’est regarder l’histoire de l’Homme, voire même l’histoire de la vie. " Ces copies supplémentaires se sont spécialisées dans un tissu en particulier plusieurs fois au cours de l’Evolution humaine. En fait, les humains ont été façonnés par ces événements ayant eu lieu il y a des millions d’années, lorsque nos ancêtres ressemblaient vaguement à des poissons, ce qui a créé tout le matériel génétique exploité jusqu’à aujourd’hui encore. "

Si notre ancêtre du fond des mers peut sembler extrêmement basique, c'est bien grâce à son matériel génétique que le règne animal a pu devenir aussi complexe qu'il est aujourd'hui.

Auteur: Internet

Info: https://www.sciencesetavenir.fr/ - Coralie Lemke, 15 avril 2024

[ aïeul général ] [ Pikaia gracilens ? ] [ adaptation ] [ épigenèse ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste