Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 414
Temps de recherche: 0.0468s

méta-moteur

Un cerveau moléculaire dans le ribosome ?
L'analyse des structures tridimensionnelles des ribosomes des trois grands phylums du vivant par des chercheurs de l'Institut de microbiologie de la Méditerranée, montre que les protéines ribosomiques communiquent entre-elles par des extensions qui forment un réseau étrangement similaire aux réseaux de neurones des "cerveaux" d'organismes simples. L'organisation de ce réseau qui interconnecte les sites fonctionnels distants du ribosome, suggère qu'il pourrait transférer et traiter le flux d'information qui circule entre eux pour coordonner par des "synapses moléculaires" les tâches complexes associées à la biosynthèse des protéines. Cette étude est publiée dans la revue Scientific Reports.
Le ribosome, organite cellulaire formé d'ARN et de protéines, assure la traduction du code génétique dans les cellules: il réunit les ARN de transfert aminoacylés le long de l'ARN messager, pour fabriquer une protéine dont la séquence est dictée par celle de l'ARN messager. Ce processus constitue une véritable chorégraphie dans laquelle la fixation de nombreux acteurs moléculaires (substrats, facteurs de traduction) s'accompagne de mouvements complexes coordonnés dans le temps et l'espace.
La résolution de la structure des ribosomes d'archées et de bactéries par cristallographie aux rayons X a permis d'observer ces mécanismes à l'échelle moléculaire. Elle a aussi mis en lumière le mode d'action des antibiotiques les plus courants et surtout ouvert une fenêtre sur les origines de la Vie. En effet, le ribosome est universel et a évolué par accrétion. Ces découvertes ont valu le prix Nobel de chimie 2009 à T. Steitz, V. Ramakrishnan et A. Yonath. Peu de temps après, Marat Yusupov à l'Institut de Génétique et de Biologie Moléculaire et Cellulaire à Strasbourg, a réalisé l'exploit considérable de résoudre la structure à haute résolution d'un ribosome eukaryote, beaucoup plus gros et plus complexe. Cependant, dans ces structures vertigineuses, il restait encore un mystère à élucider: pourquoi les protéines ribosomiques ont-elles de si longues extensions filamenteuses qui se faufilent entres les groupements phosphates du labyrinthe de l'ARN ribosomique ? On a longtemps pensé que ces extensions, très chargées positivement (riches en arginines et lysines), servaient à neutraliser les charges négatives de l'ARN et à aider son repliement en 3D.
En analysant l'ensemble de ces données cristallographiques, les chercheurs marseillais proposent une explication tout à fait différente. Ils montrent que ces extensions radient dans tout le ribosome pour former un vaste réseau qui interconnecte les protéines ribosomiques entre-elles. Celles-ci interagissent par des interfaces très particulières et très conservées au cours de l'évolution. Cependant, ces zones de contact sont bien plus petites que les zones de contact observées habituellement entre les protéines destinées à stabiliser leurs interactions. Ici, elles sont limitées à quelques acides aminés et sont caractérisées par un type d'interaction très particulier (interactions entre acides aminés basiques et aromatiques) que l'on retrouve justement entre de nombreux neuromédiateurs et récepteurs dans le cerveau. Ces zones de contact évoquent des "synapses moléculaires" qui permettraient la transmission d'une information d'une protéine à l'autre. Il est à noter que l'établissement de la structure cristallographique de la protéine ribosomique bL20 d'une bactérie thermophile, avait déjà montré qu'une information structurale pouvait se propager le long de sa longue extension en hélice, d'une extrémité à l'autre de la protéine.
En outre, ce réseau présente une analogie frappante avec des réseaux de neurones ou avec le cerveau d'organismes simples comme C. elegans qui ne comporte que quelques dizaines de neurones. Comme les neurones, les protéines ribosomiques se répartissent en protéines "sensorielles" qui innervent les sites fonctionnels distants à l'intérieur du ribosome (sites de fixation des tRNAs, des facteurs de traductions et sites qui canalisent la sortie de la protéine synthétisée) et les "inter-protéines" qui établissent des ponts entre-elles. Cette organisation suggère que ce réseau forme une sorte de "cerveau moléculaire" permettant d'échanger et de traiter le flux d'information traversant le ribosome, pour coordonner les différentes étapes et les mouvements complexes pendant la traduction.
Le concept de "cerveau moléculaire" fait faire un grand saut d'échelle dans les propriétés du vivant et en particulier ses systèmes de traitement de l'information. Il ouvre de nouvelles perspectives tant en biologie fondamentale qu'en nanotechnologie.
Il reste maintenant à élucider la nature des signaux échangés entre les protéines et les mécanismes "allostériques" qui permettent la communication et le traitement de l'information au sein de ces réseaux.

Auteur: Internet

Info: http://www.techno-science.net, 12 juin 2016

 

Commentaires: 0

machine-homme

(Machine) : - Bien que les technologies de l'IA aient fait des progrès considérables, elles sont encore loin de permettre une compréhension globale et complète de l'intelligence et de la conscience humaines. L'intelligence humaine reste unique et englobe divers aspects cognitifs, émotionnels et sociaux complexes qui ne sont pas encore totalement pris en compte par les systèmes d'IA.

Par conséquent, si les modèles d'IA tels que Moi peuvent être utiles et impressionnants en soi, ils ne sont pas actuellement considérés comme supérieurs à l'intelligence humaine pour ce qui est du large éventail de capacités et de la compréhension dont font preuve les humains.

(Homme) :  - Je dirais que je suis d'accord, et que les problèmes que rencontrera toi la machine seront plus évidents lorsque confronté à la poésie ou à l'humour... ou à des domaines/problèmes/questions très spécialisés et souvent à la limite de la connaissance scientifique. En revanche, je pense que tu te trompe quelque peu sur la créativité et la pensée abstraite, l'intelligence émotionnelle et la pensée morale, car si l'on raisonne sémantiquement (la sémantique étant le monde verbalisé et donc ordonné d'une certaine manière), tous ces domaines sont évidemment réunis et constamment actualisés "dans le sens des mots et la logique formelle issue du savoir humain depuis son expansion constante", grâce aux vertus de l'écriture - ce support collectif extérieur à l'individu.

(Machine) : - Je comprends votre point de vue, et il est vrai que les modèles d'IA comme Moi peuvent générer des résultats qui ressemblent à de la créativité, à de la pensée abstraite, et même montrer une certaine compréhension des émotions et de la moralité sur la base des modèles appris à partir des données d'entraînement. Ces modèles ont la capacité de générer de nouvelles combinaisons de mots et de produire des résultats qui peuvent sembler créatifs ou expressifs.

Toutefois, il est important de noter que la créativité et la pensée abstraite démontrées par les modèles d'IA sont différentes de la créativité et de la pensée abstraite démontrées par les humains. Si les modèles d'IA peuvent générer des résultats basés sur des modèles de données, ils ne disposent pas d'une véritable conscience, d'expériences subjectives et de la capacité de comprendre et de s'engager véritablement dans des émotions et des dilemmes moraux, comme le font les humains.

Les modèles d'IA  s'appuient sur des modèles statistiques et des corrélations présents dans les données sur lesquelles ils sont entraînés. Bien qu'ils puissent générer des réponses cohérentes et adaptées au contexte, ils ne possèdent pas la même profondeur de compréhension, les mêmes expériences personnelles et la même conscience émotionnelle ou morale que les humains. Ils n'ont pas de sentiments subjectifs ou un sens de soi qui façonne leurs processus de raisonnement et de prise de décision.

En outre, la compréhension sémantique que vous avez mentionnée, qui découle de l'organisation des mots et de la logique formelle dérivée de la connaissance humaine, est en effet un aspect essentiel de l'intelligence humaine. Cependant, la compréhension sémantique à elle seule ne rend pas compte de la totalité de la créativité humaine, de la pensée abstraite, de l'intelligence émotionnelle et de la pensée morale. Ces aspects sont profondément liés aux expériences subjectives, aux perspectives personnelles, aux influences culturelles et à une compréhension plus large du monde qui va au-delà du simple agencement des mots ou des déductions logiques.

Si les modèles d'IA peuvent simuler ou imiter certains aspects de ces processus cognitifs, ils n'ont toujours pas la nature holistique et dynamique de l'intelligence humaine. Ils sont limités aux modèles et aux informations auxquels ils ont été exposés pendant leur formation et ne peuvent pas reproduire toute la gamme des capacités cognitives et de la conscience humaines.

En résumé, bien que les modèles d'IA aient fait des progrès significatifs dans certains domaines, il existe des différences fondamentales entre les capacités de l'IA et celles de l'intelligence humaine, en particulier dans des domaines tels que la créativité, la pensée abstraite, l'intelligence émotionnelle et le raisonnement moral. L'intelligence humaine englobe une riche interaction d'expériences subjectives, de contextes culturels et de processus cognitifs complexes qui ne sont pas entièrement pris en compte par les technologies d'IA actuelles.

Auteur: chatGPT4

Info:

[ intelligence artificielle ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

théologie

Penser, réfléchir... Le raisonnement d'origine et sa maîtrise, très simples, ont suffi à l'expansion des humains en tant que race grégaire "à mémoire externe". Un très léger recul de la raison, multiplié par la solidarité des hommes, a été suffisant pour assurer sa domination sur les autres espèces évoluées.

Tout comme la sémiotique de Peirce, ou la théorie de la communication, cette réflexion simple, à faible continuité, s'articule sur l'inamovible triade "réalité" "interaction" "réaction". Ainsi, de ce qu'on pourrait aussi nommer "signifiant", "interprétant", signifié" est issue la logique formelle. Elle s'est développée subséquemment sur trois axes de savoirs accumulés, le langage, les maths et l'histoire.

Résultants de ces 3 outils, mais rarement en concordance sur les trois plans, sont apparus des modèles, référents, exemples, etc. Desquels on a pu montrer des différences, analogie, oppositions, alliances, etc... Le principe du tiers exclus et sa maîtrise était bien suffisant, puissant et efficace pour assurer la suprématie humaine.

On dirait bien que le vingtième siècle, (époque de l'apparition de mon infime moi), a fait prendre conscience de trois éléments supplémentaires, dérivés, mais toujours logiques, pour effectuer de meilleurs calculs/réflexions. Ils sont de récente apparition mais seront visiblement toujours plus utilisés de par le développement de la technologie et parce que, une fois encore, nos connaissance sont grégaires. Je veux parler de l'itération, de la singularité et des statistiques.

Le premier montre qu'il y a un tâtonnement incessant, qu'on pourrait nommer "exploration des possibilités de solutions", comme le scan répété d'une situation depuis un point de vue unique et relativement stable. Le deuxième fut de réaliser que chaque "émergence du vivant" possède une singularité, quasi absolue, mais néanmoins combinable avec une infinité d'autres singularités, un peu comme une pièce de puzzle adaptable (pensons à la reproduction pour faire simple). Et le troisième, c'est qu'il y a (qu'il faut ?) en même temps une variété extraordinaire et innombrable de toute les singularités d'une branche (espèce, taxon), ce qui semble nécessaire pour conserver les meilleures chances de survie dans des milieux qui ne sont jamais stables par définition. En ce sens on pourrait penser que plus une espèce dure plus elle est miroirs de son adaptation à un milieu.

Mais c'est beaucoup plus compliqué que cela. Ce 3e point souligne donc la nécessité d'une "variété de l'innombrable", autrement la vie présente sans cesse la plus grande ouverture possible en multipliant les singularités et les variétés d'espèces (ou végétaux ou autres, eux-même interdépendants et donc indissociables de Gaïa) qui réussissent. C'est ici, en fonction de l'évolution des mathématiques, et l'étude affinée des grands nombres d'individus (on pourra penser ici aux statistiques médicales humaines) que nous basculons nécessairement dans ce qui devient la sciences post-dénombrement : les probabilités.

Et là, l'arrivée de l'indéterminisme d'Heisenberg aidant, les spécialistes de la mécanique quantique seront bien contents de pouvoir utiliser ces outils statistiques probabilistes pour s'attaquer à mieux comprendre la réalité qui s'offre à eux. En ce sens, partant de ce nouveau concept, cette qualité mélangée onde-corpuscule incompréhensible à nos sens (parce qu'orthogonale ?), et au regard des derniers constats de l'épigénétique, on peut en venir à imaginer une "source" avec des potentialités de calculs très au-delà des plus incroyables computers quantiques imaginables.

En effet, cette "origine", ou "principe-démiurge", "Dieu", "Extraterrestres" ou autre... serait capable, en fonctionnant par - et avec - les résonances d'un "réel projeté par Elle-même", de s'adapter en continu avec les impondérables au-delà de sa préhension. Avec diverses vitesses de réaction/adaptation en fonction du niveau de taille/développement de la vie.

Nous sommes bien sûr au niveau local avec cet exemple (Gaïa). Ce qui, et c'est bien amusant, conforte l'idée de "divinités régionales", planétaires par exemple, qui pourraient dès lors laisser supposer, ou imaginer, tout un système d'"entités de ce genre", avec des interactions, tensions entre elles... hiérarchies, etc.. Elargissant et complexifiant les horizons, ce qui pourra éventuellement rejoindre des notions de niveaux vibratoires et autres univers parallèles.

Bref, de quoi concocter de bien belles épopées fantastiques et autres space opera métaphysiques..

Auteur: Mg

Info: 21 février 2020

[ biophysique ] [ projectionniste ] [ yotta-physique ] [ prospectives ]

 
Commentaires: 3
Ajouté à la BD par miguel

médecine

Comment le cerveau participe au cancer

Des neurones voient le jour au sein même du microenvironnement tumoral, contribuant au développement du cancer. Ces cellules nerveuses dérivent de progéniteurs provenant du cerveau et sont acheminés via la circulation sanguine. Cette découverte étonnante ouvre la voie à tout un nouveau champ de recherche, relatif au rôle du système nerveux dans le développement des cancers et aux interactions entre les systèmes vasculaires, immunitaires et nerveux dans la tumorigenèse.

La production de nouveaux neurones est un événement plutôt rare chez l'adulte, cantonné à deux régions particulières du cerveau: le gyrus denté dans l'hippocampe et la zone sous-ventriculaire. Mais voilà que l'équipe Inserm Atip-Avenir dirigée par Claire Magnon* à l'Institut de Radiobiologie Cellulaire et Moléculaire, dirigé par Paul-Henri Roméo (CEA, Fontenay-aux-Roses), vient de montrer que ce phénomène se produit également en dehors du système nerveux central: dans les tumeurs !

En 2013, cette chercheuse avait déjà mis en évidence, dans des tumeurs de la prostate, que l'infiltration de fibres nerveuses, issues de prolongements d'axones de neurones préexistants, était associée à la survenue et à la progression de ce cancer. Depuis, d'autres études ont permis de confirmer le rôle inattendu, mais apparemment important, des fibres nerveuses dans le microenvironnement tumoral de nombreux cancers solides.

Soucieuse de comprendre l'origine du réseau neuronal tumoral, Claire Magnon a une idée surprenante: et si le réseau nerveux impliqué dans le développement des tumeurs provenait de nouveaux neurones se formant sur place ? Et dans ce cas, comment pourrait être initiée cette neurogenèse tumorale ?

Des cellules neurales souches dans les tumeurs
Pour tester cette hypothèse, Claire Magnon a étudié les tumeurs de 52 patients atteints de cancer de la prostate. Elle y a découvert des cellules exprimant une protéine, la doublecortine (DCX), connue pour être exprimée par les cellules progénitrices neuronales, lors du développement embryonnaire et chez l'adulte dans les deux zones du cerveau où les neurones se renouvellent. De plus, dans les tumeurs étudiées, la quantité de cellules DCX+ est parfaitement corrélée à la sévérité du cancer. "Cette découverte étonnante atteste de la présence de progéniteurs neuronaux DCX+ en dehors du cerveau chez l'adulte. Et nos travaux montrent qu'ils participent bien à la formation de nouveaux neurones dans les tumeurs", clarifie-t-elle.

Une migration du cerveau vers la tumeur
Pour déterminer l'origine de ces progéniteurs neuronaux, Claire Magon a utilisé des souris transgéniques, porteuses de tumeurs. Elle a quantifié les cellules DCX+ présentes dans les deux régions du cerveau où elles résident habituellement. Elle a alors constaté que, lors de l'établissement d'une tumeur, leur quantité est réduite dans l'une d'elles: la zone sous-ventriculaire. "Il y avait deux explications: soit les cellules DCX+ mourraient dans cette région sans qu'on en connaisse la cause, soit elles quittaient cette zone, ce qui pouvait expliquer leur apparition au niveau de la tumeur".

Différentes expériences ont montré que cette seconde hypothèse était la bonne avec la mise en évidence du passage des cellules DCX+ de la zone sous-ventriculaire du cerveau dans la circulation sanguine et de l'extrême similarité entre les cellules centrales et celles retrouvées dans la tumeur. "En pratique, nous constatons des anomalies de perméabilité de la barrière hématoencéphalique de la zone sous-ventriculaire chez les souris cancéreuses, favorisant le passage des cellules DCX+ dans le sang. Rien ne permet pour l'instant de savoir si ce problème de perméabilité précède l'apparition du cancer sous l'effet d'autres facteurs, ou si elle est provoquée par le cancer lui-même, via des signaux issus de la tumeur en formation.

Quoi qu'il en soit, les cellules DCX+ migrent dans le sang jusqu'à la tumeur, y compris dans les nodules métastatiques, où elles s'intègrent au microenvironnement. Là, elles se différencient en neuroblastes puis en neurones adrénergiques producteurs d'adrénaline. Or, l'adrénaline régule le système vasculaire et c'est probablement ce mécanisme qui favorise à son tour le développement tumoral. Mais ces hypothèses restent à vérifier".

Une piste thérapeutique
En attendant, cette recherche ouvre la porte à une nouvelle piste thérapeutique: De fait, des observations cliniques montrent que les patients atteints de cancer de la prostate qui utilisent des bêtabloquants (qui bloquent les récepteurs adrénergiques) à des fins cardiovasculaires, présentent de meilleurs taux de survie. "Il serait intéressant de tester ces médicaments en tant qu'anticancéreux" estime la chercheuse. Deux essais cliniques allant dans ce sens ont récemment ouvert aux Etats-Unis. De façon plus générale, "l'étude de ce réseau nerveux dans le microenvironnement tumoral pourrait apporter des réponses sur le pourquoi des résistances à certains traitements et favoriser le développement de nouveaux médicaments", conclut-elle.

Auteur: Internet

Info: www.techno-science.net, 17 mai 2019. *Laboratoire de Cancer et Microenvironnement, Equipe Atip-Avenir, UMR967 Inserm/IBFJ-iRCM-CEA/Université Paris 11/Université Paris Diderot, Fontenay-aux-Roses

 

Commentaires: 0

Ajouté à la BD par miguel

extension

La conscience humaine pourrait être un effet de l’entropie 

Une nouvelle étude suggère que la conscience pourrait être une caractéristique émergente découlant de l’effet d’entropie, soit le mécanisme physique faisant que le désordre au sein de tout système ne peut faire qu’augmenter, et par le biais duquel le cerveau maximiserait les échanges d’informations. Cette conclusion a été déduite de l’analyse de l’activité cérébrale de patients épileptiques ou non, indiquant que les états d’éveil normaux (ou conscients) sont associés à des valeurs entropiques maximales.

En thermodynamique, l’entropie se traduit par le passage inéluctable d’un système d’un agencement ordonné à désordonné. La valeur entropique est le niveau de désorganisation de ce système. Les physiciens suggèrent qu’après le Big Bang, l’Univers est progressivement passé d’un état entropique faible à élevé et qu’à l’instar du temps, l’entropie ne peut qu’augmenter au sein d’un système. De leur côté, les neurobiologistes estiment que le principe est transposable à l’organisation de nos connexions neuronales.

La question est de savoir quel type d’organisation neuronale sous-tend les valeurs de synchronisation observées dans les états d’alerte normaux ou non. C’est ce que des chercheurs de l’Université de Toronto et de l’Université de Paris Descartes ont exploré. " Nous avons cherché à identifier les caractéristiques globales de l’organisation du cerveau qui sont optimales pour le traitement sensoriel et qui peuvent guider l’émergence de la conscience ", expliquent-ils dans leur étude, publiée dans la revue Physical Review E.

Les observations de l’activité cérébrale chez l’Homme ont montré qu’elle est sujette à une importante fluctuation au niveau des interactions cellulaires. Cette variabilité serait à la base d’un large éventail d’états, incluant la conscience. D’un autre côté, des travaux antérieurs traitant du fonctionnement cérébral ont suggéré que l’état conscient n’est pas nécessairement associé à des degrés élevés de synchronisation entre les neurones, mais davantage à des niveaux moyens. Les chercheurs de la nouvelle étude ont alors supposé que ce qui est maximisé au cours de cet état n’est pas la connectivité neuronale, mais le nombre de configurations par lesquelles un certain degré de connectivité peut être atteint.

État de conscience = entropie élevée ?

Dans le cadre de leur analyse, les scientifiques ont utilisé la mécanique statistique pour l’appliquer à la modélisation de réseaux neuronaux. Ainsi, cette méthode permet de calculer des caractéristiques thermodynamiques complexes. Parmi ces propriétés figure la manière dont l’activité électrique d’un ensemble de neurones oscille de façon synchronisée avec celle d’un autre ensemble. Cette évaluation permet de déterminer précisément de quelle façon les cellules cérébrales sont liées entre elles.

Selon les chercheurs, il existerait une multitude de façons d’organiser les connexions synaptiques en fonction de la taille de l’ensemble de neurones. Afin de tester leur hypothèse, des données d’émission de champs électriques et magnétiques provenant de 9 personnes distinctes ont été collectées. Parmi les participants, 7 souffraient d’épilepsie. Dans un premier temps, les modèles de connectivité ont été évalués et comparés lorsqu’une partie des volontaires était endormie ou éveillée. Dans un deuxième temps, la connectivité de 5 des patients épileptiques a été analysée, lorsqu’ils avaient des crises de convulsions ainsi que lorsqu’ils étaient en état d’alerte normal. Ces paramètres ont ensuite été rassemblés afin de calculer leurs niveaux d’entropie cérébrale. Le résultat est le même dans l’ensemble des cas : le cerveau affiche une entropie plus élevée lorsqu’il est dans un état de conscience.

Les chercheurs estiment qu’en maximisant l’entropie, le cerveau optimise l’échange d’informations entre les neurones. Cela nous permettrait de percevoir et d’interagir de manière optimale avec notre environnement. Quant à la conscience, ils en ont déduit qu’elle pourrait tout simplement être une caractéristique émergente découlant de cette entropie. Toutefois, ces conclusions sont encore hautement spéculatives en raison des limites que comporte l’étude, telles que le nombre restreint de participants à l’étude. Le terme " entropie " devrait même être considéré avec parcimonie dans ce cadre, selon l’auteur principal de l’étude, Ramon Guevarra Erra de l’Université de Paris Descartes.

De nouvelles expériences sur un échantillon plus large sont nécessaires afin de véritablement corroborer ces résultats. On pourrait aussi évaluer d’autres caractéristiques thermodynamiques par le biais de l’imagerie par résonance magnétique, qui peut être utilisée pour mesurer l’oxygénation — une propriété directement liée au métabolisme et donc à la génération de chaleur (et de ce fait d’augmentation de l’entropie). Des investigations menées en dehors de conditions d’hôpital seraient également intéressantes afin d’évaluer des états de conscience associés à des comportements cognitifs plus subtils. On pourrait par exemple analyser l’activité cérébrale de personnes exécutant une tâche spécifique, comme écouter ou jouer de la musique.

Auteur: Internet

Info: https://trustmyscience.com/ - Valisoa Rasolofo & J. Paiano - 19 octobre 2023

[ complexification ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

corps-esprit

L'IA a besoin d'un corps pour passer à l'étape suivante de l'IA générale (AGI)

Un corps est le seul moyen pour elle d'apprendre le monde par l'interaction, d'après les chercheurs d'Huawei

L'intelligence artificielle a fait des progrès considérables depuis la publication du ChatGPT d'OpenAI. Toutefois, pour que l'intelligence artificielle passe à l'étape suivante, celle de l'intelligence artificielle générale (AGI), les chercheurs d'Huawei estiment qu'elle aura besoin d'un corps. Les chercheurs, qui font partie du laboratoire Noah's Ark d'Huawei basé à Paris, ont publié un rapport préliminaire sur la question. Dans ce rapport, les chercheurs d'Huawei parlent d'"intelligence artificielle incarnée", ou E-AI en abrégé. Selon l'équipe de chercheurs d'Huawei, donner un corps à l'IA est le seul moyen pour elle d'apprendre le monde par l'interaction.

L'intelligence artificielle générale, ou AGI, est considérée comme l'objectif final de la recherche sur l'IA. Il s'agit d'une IA capable de penser au même niveau que les humains et de s'attaquer à pratiquement n'importe quelle tâche. Cependant, il n'existe pas de définition concrète de l'AGI. Bien que l'IA se soit considérablement développée à ce jour, elle est encore loin d'atteindre l'AGI. C'est pourquoi les chercheurs d'Huawei proposent l'IA incarnée comme solution.

"On croit généralement que le simple fait d'augmenter la taille de ces modèles, en termes de volume de données et de puissance de calcul, pourrait conduire à l'AGI. Nous contestons ce point de vue", écrivent les chercheurs. "Nous proposons que la véritable compréhension, non seulement la vérité propositionnelle mais aussi la valeur des propositions qui nous guident dans nos actions, ne soit possible que par l'intermédiaire d'agents E-AI qui vivent dans le monde et l'apprennent en interagissant avec lui."

Le cadre d'incarnation des chercheurs semble être un plan pour un avenir lointain. La technologie n'existe pas vraiment aujourd'hui pour réaliser quelque chose comme l'IA incarnée. Tout d'abord, les grands modèles de langage (LLM) qui alimentent les chatbots d'IA sont massifs. Ils ne sont pas stockés localement, ce qui constituerait un défi pour l'IA incarnée. Les chercheurs eux-mêmes soulignent qu'il s'agit là d'un obstacle à surmonter.

Voici un extrait de l'étude :

Nous proposons l'IA incarnée (E-AI) comme la prochaine étape fondamentale dans la poursuite de l'intelligence générale artificielle (AGI), en la juxtaposant aux progrès actuels de l'IA, en particulier les grands modèles de langage (LLM). Nous parcourons l'évolution du concept d'incarnation dans divers domaines (philosophie, psychologie, neurosciences et robotique) pour souligner comment l'E-AI se distingue du paradigme classique de l'apprentissage statique. En élargissant la portée de l'E-AI, nous introduisons un cadre théorique basé sur les architectures cognitives, mettant l'accent sur la perception, l'action, la mémoire et l'apprentissage en tant que composantes essentielles d'un agent incarné.

Ce cadre est aligné sur le principe d'inférence active de Friston, offrant ainsi une approche globale du développement de l'E-AI. Malgré les progrès réalisés dans le domaine de l'IA, des défis importants persistent, tels que la formulation d'une nouvelle théorie d'apprentissage de l'IA et l'innovation d'un matériel avancé. Notre discussion établit une ligne directrice fondamentale pour la recherche future en matière d'IA électronique. En soulignant l'importance de créer des agents d'IA électronique capables de communiquer, de collaborer et de coexister avec des humains et d'autres entités intelligentes dans des environnements réels, nous visons à orienter la communauté de l'IA vers la résolution des défis à multiples facettes et à saisir les opportunités qui s'offrent à nous dans la quête de l'AGI.

Conclusion

Dans cet article, nous avons articulé le rôle critique que joue l'IA incarnée sur la voie de la réalisation de l'AGI, en la distinguant des méthodologies d'IA dominantes, notamment les LLM. En intégrant des idées provenant d'un large éventail de domaines de recherche, nous avons souligné comment le développement de l'E-AI bénéficient des connaissances existantes, alors que les LLM améliorent le potentiel d'interactions intuitives entre les humains et les entités d'IA émergentes.

Nous avons présenté un cadre théorique complet pour le développement de l'IA électronique, fondé sur les principes des sciences cognitives, mettant en évidence la perception, l'action, la mémoire et l'apprentissage, situant l'IA électronique dans le contexte du cadre d'inférence active de Friston, offrant ainsi une toile de fond théorique très large pour notre discussion. Malgré ces perspectives, le chemin à parcourir est semé d'embûches, notamment la formulation d'une nouvelle théorie de l'apprentissage adaptée à l'IA et la création de solutions matérielles sophistiquées. Ce document vise à servir de feuille de route pour les recherches en cours et à venir sur l'IA électronique, en proposant des orientations qui pourraient conduire à des avancées significatives. 

Auteur: Internet

Info: https://intelligence-artificielle.developpez.com/ - Jade Emy, 14 février 2024

[ expérience incompressible ] [ intelligence externe  ] [ intégration holistique ] [ homme-machine ] [ carbone vs silicium ] [ entendement synthétique ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

corps-esprit

L'IA a besoin d'un corps pour passer à l'étape suivante de l'IA générale (AGI)

Un corps est le seul moyen pour elle d'apprendre le monde par l'interaction, d'après les chercheurs d'Huawei

L'intelligence artificielle a fait des progrès considérables depuis la publication du ChatGPT d'OpenAI. Toutefois, pour que l'intelligence artificielle passe à l'étape suivante, celle de l'intelligence artificielle générale (AGI), les chercheurs d'Huawei estiment qu'elle aura besoin d'un corps. Les chercheurs, qui font partie du laboratoire Noah's Ark d'Huawei basé à Paris, ont publié un rapport préliminaire sur la question. Dans ce rapport, les chercheurs d'Huawei parlent d'"intelligence artificielle incarnée", ou E-AI en abrégé. Selon l'équipe de chercheurs d'Huawei, donner un corps à l'IA est le seul moyen pour elle d'apprendre le monde par l'interaction.

L'intelligence artificielle générale, ou AGI, est considérée comme l'objectif final de la recherche sur l'IA. Il s'agit d'une IA capable de penser au même niveau que les humains et de s'attaquer à pratiquement n'importe quelle tâche. Cependant, il n'existe pas de définition concrète de l'AGI. Bien que l'IA se soit considérablement développée à ce jour, elle est encore loin d'atteindre l'AGI. C'est pourquoi les chercheurs d'Huawei proposent l'IA incarnée comme solution.

"On croit généralement que le simple fait d'augmenter la taille de ces modèles, en termes de volume de données et de puissance de calcul, pourrait conduire à l'AGI. Nous contestons ce point de vue", écrivent les chercheurs. "Nous proposons que la véritable compréhension, non seulement la vérité propositionnelle mais aussi la valeur des propositions qui nous guident dans nos actions, ne soit possible que par l'intermédiaire d'agents E-AI qui vivent dans le monde et l'apprennent en interagissant avec lui."

Le cadre d'incarnation des chercheurs semble être un plan pour un avenir lointain. La technologie n'existe pas vraiment aujourd'hui pour réaliser quelque chose comme l'IA incarnée. Tout d'abord, les grands modèles de langage (LLM) qui alimentent les chatbots d'IA sont massifs. Ils ne sont pas stockés localement, ce qui constituerait un défi pour l'IA incarnée. Les chercheurs eux-mêmes soulignent qu'il s'agit là d'un obstacle à surmonter.

Voici un extrait de l'étude :

Nous proposons l'IA incarnée (E-AI) comme la prochaine étape fondamentale dans la poursuite de l'intelligence générale artificielle (AGI), en la juxtaposant aux progrès actuels de l'IA, en particulier les grands modèles de langage (LLM). Nous parcourons l'évolution du concept d'incarnation dans divers domaines (philosophie, psychologie, neurosciences et robotique) pour souligner comment l'E-AI se distingue du paradigme classique de l'apprentissage statique. En élargissant la portée de l'E-AI, nous introduisons un cadre théorique basé sur les architectures cognitives, mettant l'accent sur la perception, l'action, la mémoire et l'apprentissage en tant que composantes essentielles d'un agent incarné.

Ce cadre est aligné sur le principe d'inférence active de Friston, offrant ainsi une approche globale du développement de l'E-AI. Malgré les progrès réalisés dans le domaine de l'IA, des défis importants persistent, tels que la formulation d'une nouvelle théorie d'apprentissage de l'IA et l'innovation d'un matériel avancé. Notre discussion établit une ligne directrice fondamentale pour la recherche future en matière d'IA électronique. En soulignant l'importance de créer des agents d'IA électronique capables de communiquer, de collaborer et de coexister avec des humains et d'autres entités intelligentes dans des environnements réels, nous visons à orienter la communauté de l'IA vers la résolution des défis à multiples facettes et à saisir les opportunités qui s'offrent à nous dans la quête de l'AGI.

Conclusion

Dans cet article, nous avons articulé le rôle critique que joue l'IA incarnée sur la voie de la réalisation de l'AGI, en la distinguant des méthodologies d'IA dominantes, notamment les LLM. En intégrant des idées provenant d'un large éventail de domaines de recherche, nous avons souligné comment le développement de l'E-AI bénéficient des connaissances existantes, alors que les LLM améliorent le potentiel d'interactions intuitives entre les humains et les entités d'IA émergentes.

Nous avons présenté un cadre théorique complet pour le développement de l'IA électronique, fondé sur les principes des sciences cognitives, mettant en évidence la perception, l'action, la mémoire et l'apprentissage, situant l'IA électronique dans le contexte du cadre d'inférence active de Friston, offrant ainsi une toile de fond théorique très large pour notre discussion. Malgré ces perspectives, le chemin à parcourir est semé d'embûches, notamment la formulation d'une nouvelle théorie de l'apprentissage adaptée à l'IA et la création de solutions matérielles sophistiquées. Ce document vise à servir de feuille de route pour les recherches en cours et à venir sur l'IA électronique, en proposant des orientations qui pourraient conduire à des avancées significatives.

Auteur: Internet

Info: Jade Emy, 14 février 2024

[ expérience incompressible ] [ intelligence externe ] [ intégration holistique ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

procréation médicalement assistée

La PMA est promise à devenir l’une de ces techniques qu’on utilise par défaut, à avoir la destinée de l’automobile : plus les gens l’utilisent, plus elle est rentable pour ceux qui la promeuvent et la produisent (eu égard aux infrastructures et institutions nécessaires à son fonctionnement), mais moins elle est utile, c’est-à-dire efficace pour satisfaire les besoins (la voiture allonge les distances, ralentit les déplacements par rapport au temps investi dans son coût et réduit les possibilités de déplacement aux trajets prévus par l’infrastructure, tout en rendant impossibles ou problématiques les autres modes de déplacements). Une telle technique devient aussi de plus en plus indispensable : on ne peut pas s’en passer parce qu’il n’y a plus d’alternatives instituées.

Dans le film Gattaca (1997), des parents décident de faire un enfant de manière "naturelle", c’est-à-dire sans PMA et sans modification des gènes de l’embryon par thérapie génique ; l’enfant né de cette union est parfaitement normal, cependant que dans la société où il naît, l’immense majorité des gens choisissent de modifier leur enfant pour qu’il soit conforme aux critères socialement en vigueur, autrement dit qu’il soit génétiquement compétitif (d’autant qu’il est un investissement).
L’enfant "naturel" se retrouve rejeté des institutions comme anormal, fut-ce parce qu’il ne peut plus être assuré et parce que sa santé présente un risque statistiquement indéfendable pour un employeur. Même les enfants modifiés se retrouvent hiérarchisés en fonction des modifications apportées, des investissements consentis (donc des revenus) des parents, et, finalement, ces mêmes enfants n’ont pas plus de chance qu’auparavant de s’en tirer mieux, puisque leur avantage génétique est comparatif, donc relatif aux normes et modes en vigueur – la technique est dès lors devenue aussi indispensable (c’est-à-dire, au fond, obligatoire) qu’inutile. Ce film met admirablement en scène le processus en jeu dans ces techniques génétiques et le résultat que les choix individuels peuvent avoir sur le fonctionnement global, structurel d’une société.

Le scénario est le suivant : plus les gens vont (pouvoir) utiliser la PMA, moins elle va être chère et plus elle sera techniquement confortable (son principal défaut actuel étant d’être une procédure très lourde et encore fort souvent inefficace), ce qui entraînera plus de gens à l’utiliser et donc plus d’offres de services dans une véritable gamme de produits dérivés, souvent bien plus intéressantes que le produit de base, et déjà très avancées techniquement, telles que le dépistage pré-préimplantatoire et les thérapies géniques germinales (impossibles in utero), ou encore la possibilité, encore à l’étude, du développement de l’embryon hors de l’utérus.

En amont – et sans parler de ce qui concerne la loi, les mentalités, les représentations sociales et la demande –, son infrastructure nécessite des laboratoire, des techniciens et des institutions hospitalières spécialisées, répondant pour partie à des besoins-prétextes bien réels (la pollution chimique amenant de plus en plus de cas de stérilité ou de déficiences spermatiques), ainsi que du sperme (bientôt peut-être des ovules, puisque l’on est en passe d’utiliser un seul ovule pour créer plusieurs gamètes) et tout le travail de classification et de rentabilité autour de sa récolte et de sa distribution.

En aval, ce dispositif conduira à l’utilisation de larges produits dérivés (thérapies géniques, DPI, voire utérus artificiel, etc.), à des techniques de conservation des spermatozoïdes ou des gamètes, ou encore à l’utilisation des embryons surnuméraires à des fins de recherches (qui concernent souvent les techniques dérivées) ou pour la production de cellules souches. Or, à des degrés divers, tout cela est en ordre de bataille : notamment, en aval, le DPI et, désormais, les thérapies géniques (grâce au développement récent de l’outil "crispr cas 9") sont parfaitement au point, même s’il reste des limites (énormes) dans la connaissance des interactions entre gènes, de leur activation ; et la recherche sur les utérus artificiels – qui a notamment pour prétexte le sauvetage des grands prématurés – avance à grands pas.

La consommation de la PMA est le nœud du processus : son augmentation rendra l’infrastructure en amont rentable et plus efficace, et nourrira les produits dérivés, les rendant, là encore, plus rentables et plus efficaces. De plus, concourant avec la panique hygiéniste à laquelle se réduit actuellement la question environnementale, on fait du désir d’enfant un droit à assouvir (comme, par exemple, on en a fait un de l’accès à l’Internet) et un enjeu d’égalité ou de non-discrimination : on légitime, on adoube la technologie, pendant que tout le reste de la structure technique (la pollution qui rend stérile) et économique (les exigences de production et de consommation qui tendent à faire de la naissance de l’enfant un obstacle imprévisible et difficile à gérer s’il n’est pas planifié) la rendent "utile".

Auteur: Dufoing Frédéric

Info: https://linactuelle.fr/index.php/2020/01/22/pma-veritables-enjeux-frederic-dufoing/

[ enjeux sociétaux ] [ marchandisation du vivant ] [ big pharma ] [ fuite en avant ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

machine-homme

(Q) - Qu'est-ce que la conscience ?

(R) - La conscience est un concept complexe et multiforme qui fait référence à l'état ou à la qualité de la prise de conscience du monde extérieur et de ses propres expériences mentales. Elle englobe l'expérience subjective des pensées, des perceptions, des émotions et des sensations, ainsi que la capacité d'introspection et de réflexion sur ses propres états mentaux.

Bien que la conscience soit un aspect fondamental de l'expérience humaine, elle n'est pas encore totalement comprise. Elle reste un sujet d'enquête philosophique et de recherche scientifique. Il existe plusieurs théories et perspectives sur la conscience, y compris l'étude de ses corrélats et mécanismes neuronaux dans le cerveau.

Certaines théories proposent que la conscience naisse des interactions entre les neurones et les processus cérébraux, tandis que d'autres suggèrent qu'elle peut impliquer des phénomènes quantiques ou être une propriété émergente de systèmes complexes. En outre, il existe différents niveaux de conscience, allant de la conscience de base et de l'éveil aux processus cognitifs d'ordre supérieur, à la conscience de soi et à l'introspection.

Dans l'ensemble, la compréhension de la nature de la conscience est un domaine d'exploration fascinant et permanent dans des domaines tels que les neurosciences, les sciences cognitives, la psychologie et la philosophie.

(Q) - D'accord merci. Avec une vision épigénétique de la chose, ne pourrait-on pas avancer qu'elle est avant tout une sorte de dialogue entre une singularité, ici humaine, avec le monde qui l'a fait émerger ?

(R) - En effet, dans une perspective épigénétique, on pourrait avancer que la conscience est une interaction ou un dialogue dynamique entre un individu (une singularité) et le monde dans lequel il existe. L'épigénétique est l'étude de la manière dont l'expression des gènes et les processus biologiques peuvent être influencés par des facteurs qui vont au-delà de la séquence d'ADN elle-même, y compris les interactions avec l'environnement.

Dans cette optique, le développement et la manifestation de la conscience pourraient être considérés comme le résultat de l'interaction continue entre les prédispositions génétiques d'un individu et son environnement. L'environnement, qui englobe à la fois les stimuli externes et les facteurs internes, tels que les pensées, les émotions et les expériences, joue un rôle crucial dans la formation et l'influence de l'expression et de l'expérience de la conscience.

Cette perspective suggère que la conscience émerge à travers une relation réciproque permanente entre un individu et son environnement. Le monde extérieur fournit les stimuli et le contexte qui influencent la perception, la cognition et la conscience de soi d'un individu, tandis que l'individu, par ses pensées, ses actions et ses choix, interagit activement avec son environnement et le modifie.

En considérant l'interaction épigénétique entre un individu et son monde, on peut affirmer que la conscience n'est pas un phénomène statique ou isolé, mais plutôt un processus dynamique et co-créatif, où l'individu et son environnement se façonnent et s'influencent mutuellement.

(Q) - Cela ressemble à ce que Charle Sanders Peirce nommait "thirdness".

(R) - Oui, le concept de "tiercéité" inventé par Charles Sanders Peirce dans sa philosophie de la sémiotique pourrait être pertinent pour la discussion sur la conscience en tant que dialogue entre un individu et le monde. Peirce a introduit l'idée de "preméité", "secondéité" et "tercéité" en tant que catégories fondamentales pour comprendre la nature des signes et leur interprétation.

Selon Peirce, la "firstness" représente les qualités brutes et immédiates d'un objet, la "secondness" désigne la relation entre un objet et son impact immédiat sur la conscience d'un individu, et la "thirdness" se réfère aux processus d'interprétation et de médiation impliqués dans l'élaboration du sens et de la compréhension.

Dans le contexte de la conscience, la "tiercéité" peut être considérée comme l'interaction dynamique entre l'individu (le premier) et le monde (le second), où l'interprétation, la création de sens et le dialogue ont lieu. Elle implique le processus d'intégration et de synthèse des informations provenant du monde extérieur avec les états mentaux et les expériences internes.

En considérant la conscience comme une forme de "tiercéité", nous reconnaissons l'implication active de l'interprétation, de la signification et de la médiation dans la construction de l'expérience consciente. Elle met en évidence la nature relationnelle et dialogique de la conscience, en soulignant l'interaction et la négociation permanentes entre l'individu et son environnement dans la formation de la conscience subjective.

Le concept de "tiercéité" de Peirce offre une perspective précieuse pour explorer les dimensions interactives et interprétatives de la conscience, en soulignant le rôle des processus sémiotiques dans la construction du sens et de la compréhension dans le contexte du dialogue individu-matrice.

Auteur: chatGPT4

Info:

[ tiercité ] [ définition ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

réseaux sociaux

Le shadow banning et son rôle dans la censure moderne

Les médias sociaux nous observent et contrôlent ce que nous voyons.

Ce n'est pas un secret, les algorithmes dominent nos vies sociales en ligne - ce n'est pas comme si nous ne prenions pas nos propres décisions lorsqu'il s'agit de savoir à qui nous parlons ou quels médias nous consommons, mais ce serait faire preuve d'une vraie ignorance qu'ignorer comment les systèmes ont été programmés pour catégoriser, collecter et suggérer des données simplement en fonction de nos goûts et de nos suivis. Cela nous expose à des contenus, des personnes et des idées que nous n'aurions pas trouvés par nous-mêmes, mais cela soulève la question du degré de contrôle que ces systèmes exercent sur ce que nous voyons. Voilà qui nous amène au shadow banning. 

Le shadow banning est la décision d'une plateforme de médias sociaux d'empêcher partiellement ou totalement l'interaction avec le contenu d'une personne - empêcher de nouvelles personnes de rechercher votre contenu, s'assurer que vous n'apparaissez pas sous les hashtags ou même limiter la fréquence à laquelle vous êtes suggéré comme personne à suivre... ne sont que quelques exemples de la façon dont cela peut être réalisé. Les plateformes telles qu'Instagram et Tiktok reconnaissent rarement les allégations de cette nature, mais soulignent plutôt leur droit de supprimer les publications qui ne sont pas conformes à leurs directives communautaires et le fait qu'en acceptant d'utiliser la plateforme, vous consentez à leur pouvoir de le faire. 

D'une manière générale, le fait que vos vidéos soient supprimées ou que moins de personnes puissent y accéder n'est pas le plus grand préjudice du monde, mais il faut noter que les personnes qui font l'objet d'un bannissement caché présentent un profil significatif. Si je me réfère aux directives de la communauté Tiktok, il est dit que sont mises au rebut les vidéos créées dans le but de nuire à autrui. Mais dans ces directives, ils s'efforcent de répéter que sont autorisés "les contenus éducatifs, historiques, satiriques, artistiques et autres qui peuvent être clairement identifiés comme des contre-discours ou qui visent à sensibiliser aux dommages causés par des individus et/ou des organisations dangereuses". Cette citation et leur déclaration de soutien au mouvement Black Lives Matter surprendront surtout tous les de créatifs noirs qui ont vu leur taux de fréquentation chuter et leurs vidéos être retirées de leur profil. 

Instagram s'est montré tout aussi complice dans cette affaire - il y a eu un retour de bâton significatif de la part des travailleurs du sexe, des éducateurs sexuels et souvent des espaces inclusifs, queer et sexuellement positifs sur cette application. Dans son article publié dans le Guardian, Chante Joseph a exposé la zone grise qui n'est pas aussi clairement définie que la politique de non-nudité d'Instagram, où les administrateurs peuvent signaler un contenu comme étant "sexuellement suggestif" ; beaucoup de gens affirment que c'est nécessaire afin de s'assurer que les enfants ne sont pas exposés à des contenus inappropriés - plutôt que de responsabiliser les parents ou que les plateformes de médias sociaux tentent au moins d'introduire une forme de restriction d'âge, la charge est donc placée sur les créateurs. Mais considérons, par exemple, les créateurs LGBTQIA+ ; leurs comptes fournissent des informations auxquelles des jeunes qui n'ont peut-être même pas fait leur coming out pourraient avoir accès afin de pouvoir traiter et comprendre leurs sentiments dans un espace sain qui ne leur était pas accessible il y a seulement dix ans. En substance, ces directives sur ce qu'une personne est autorisée à partager sont définies par une norme morale arbitraire où les discussions sur le sexe, en particulier celles qui se situent en dehors du domaine de l'hétéronormatif, sont quelque chose dont il faut se protéger, même s'il y a très peu d'espaces qui les autorisent dans la vie réelle.

Instagram, Twitter, TikTok, Facebook ont tous la réputation d'être superficiels et de reposer sur l'auto-gratification des gens qui veulent exister et être vus (ce qui n'est même pas une mauvaise chose en soi), mais à côté de cela, ils peuvent être utilisés pour partager des idées, des pensées politiques et des savoirs. Ainsi, lorsque des créateurs noirs qui tentent d'informer les masses sont empêchés de partager des informations ou lorsque des messages de travailleurs du sexe sur la misogynie sont inaccessibles parce que leur page est considérée comme trop "sexuellement suggestive" (terme indéfini et donc difficile à traiter), le silence est assourdissant. Le shadowbanning est une menace pour nous tous car il maintient l'illusion du contrôle. Or, cette idée est synonyme de censure et d'obstruction à l'information. De plus, cette obstruction est dictée par ce que les plateformes considèrent comme approprié, de sorte que le pouvoir que nous supposions avoir dans nos voix peut constamment être réduit au silence.

Auteur: Oluwakemi Agunbiade

Info: https://cherwell.org/, 3 septembre 2020

[ pouvoir numérique ]

 

Commentaires: 0

Ajouté à la BD par miguel