Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 780
Temps de recherche: 0.0502s

cladistique vs phénétique

L'évolution de la vie sur terre: aléatoire ou prévisible ?

L'évolution des êtres vivants met en jeu de nombreux phénomènes aléatoires tels que mutations, rencontres des ovules et spermatozoïdes, accidents météorologiques, etc... Notre monde vivant est-il donc juste une alternative parmi tant d'autres ? Dans une étude publiée dans la revue Interface Focus, Virginie Orgogozo à l'Institut Jacques Monod, revisite la question à la lumière des données actuelles. Elle montre qu'au cours de l'évolution de la vie sur terre, des événements se répètent et semblent prévisibles. Si on rembobinait le film de la vie sur terre et qu'on le relançait en changeant légèrement les conditions initiales, obtiendrait-on les mêmes formes vivantes qu'aujourd'hui ?

Le paléontologue américain Stephen Jay Gould s'était posé la question dans les années 90. Il avait répondu que des formes de vie tout-à-fait différentes seraient apparues car l'évolution dépend de nombreux phénomènes aléatoires non prévisibles (mutations, impact des comètes, etc.). Depuis quelques années, certains biologistes, tel que le paléontologue anglais Simon Conway Morris, remettent en doute la réponse de Stephen Jay Gould. Ils suggèrent que même si le monde ne serait probablement pas exactement pareil, par exemple vous ne seriez pas en train de lire ce texte en ce moment précis, il aurait malgré tout un air de "déjà-vu". Par exemple, les animaux qui nagent dans un milieu liquide auraient un corps en forme de poisson, et la vision de la lumière s'effectuerait grâce à des organes spécialisés que sont les yeux.

L'évolution de la vie est-elle une simple alternative parmi tant d'autres, comme le pensait Stephen Jay Gould, ou bien est-elle prévisible ?

Virginie Orgogozo examine les données actuelles de la génétique et de l'évolution expérimentale pour tenter de répondre à la question. Les données récentes de la biologie indiquent que l'évolution se répète à plusieurs niveaux.

- Premièrement, des traits de caractère semblables sont apparus indépendamment chez différentes espèces vivant dans les mêmes conditions (c'est l'évolution convergente). Par exemple, les poissons et les ichtyosaures, des reptiles disparus, ont évolué indépendamment vers un corps en forme de poisson.

- Deuxièmement, les mêmes traits de caractère et les mêmes mutations apparaissent souvent lors d'expériences d'évolution expérimentale dans lesquelles on laisse évoluer des êtres vivants dans un environnement choisi et que l'on répète cette même expérience plusieurs fois de façon indépendante.

- Troisièmement, l'évolution indépendante du même trait de caractère chez des espèces différentes est souvent causée par des mutations dans le même gène. Par exemple, l'adaptation à une nourriture riche en amidon s'est accompagnée de mutations dans la même famille de gènes chez l'homme et chez le chien. Toutes ces répétitions sont relativement inattendues: si l'évolution était extrêmement sensible aux conditions initiales, on ne devrait pas observer tant de répétitions. Virginie Orgogozo en conclut que l'évolution de la vie sur terre n'est peut-être pas aussi aléatoire que ce qu'on aurait pu croire, et qu'il est possible de faire des prédictions concernant l'évolution des êtres vivants. Ainsi, on peut prédire qu'un mammifère vivant en région polaire va évoluer avec un pelage blanc, ou qu'une plante Arabette des dames qui fleurit plus tôt a de grandes chances d'avoir une mutation dans le gène FRIGIDA.

Comment l'évolution peut-elle être prévisible alors qu'elle met en jeu de nombreux phénomènes aléatoires ?

Virginie Orgogozo l'explique par analogie avec un gaz parfait dans un récipient. Au niveau microscopique, on ne peut prédire ni la position, ni le poids, ni la vitesse des particules. Par contre, au niveau macroscopique, on peut prédire la pression ou la température de ce gaz. Ainsi, même si les mutations apparaissent de façon non prévisible au sein des êtres vivants, on peut prédire les mutations qui ont survécu pendant de longues échelles de temps dans les populations et qui sont responsables de changements évolutifs entre espèces ou entre populations.

Plutôt que de savoir si les formes vivantes seraient différentes des nôtres si on relançait le film de l'évolution, Virginie Orgogozo préfère se demander à quel point elles seraient semblables à celles de notre monde. Répondre à cette question nécessite alors d'examiner les problèmes suivants: comment imaginer d'autres mondes possibles alors que nous sommes limités par notre imagination ? Comment estimer la probabilité d'occurrence d'événements qui ne se sont passés qu'une seule fois au cours de notre évolution ? Peut-on trouver de nouveaux concepts généraux pour prédire l'évolution ? La biologie actuelle commence à apporter des éléments de réponse. Même si il est trop tôt pour s'avancer, l'évolution de la vie sur terre pourrait être en partie prévisible.

Auteur: Orgogozo Virginie

Info: Pour plus d'information voir: Replaying the tape of life in the twenty-first century

[ probabilités ] [ spéculation ]

 

Commentaires: 0

corps-esprit

L'IA a besoin d'un corps pour passer à l'étape suivante de l'IA générale (AGI)

Un corps est le seul moyen pour elle d'apprendre le monde par l'interaction, d'après les chercheurs d'Huawei

L'intelligence artificielle a fait des progrès considérables depuis la publication du ChatGPT d'OpenAI. Toutefois, pour que l'intelligence artificielle passe à l'étape suivante, celle de l'intelligence artificielle générale (AGI), les chercheurs d'Huawei estiment qu'elle aura besoin d'un corps. Les chercheurs, qui font partie du laboratoire Noah's Ark d'Huawei basé à Paris, ont publié un rapport préliminaire sur la question. Dans ce rapport, les chercheurs d'Huawei parlent d'"intelligence artificielle incarnée", ou E-AI en abrégé. Selon l'équipe de chercheurs d'Huawei, donner un corps à l'IA est le seul moyen pour elle d'apprendre le monde par l'interaction.

L'intelligence artificielle générale, ou AGI, est considérée comme l'objectif final de la recherche sur l'IA. Il s'agit d'une IA capable de penser au même niveau que les humains et de s'attaquer à pratiquement n'importe quelle tâche. Cependant, il n'existe pas de définition concrète de l'AGI. Bien que l'IA se soit considérablement développée à ce jour, elle est encore loin d'atteindre l'AGI. C'est pourquoi les chercheurs d'Huawei proposent l'IA incarnée comme solution.

"On croit généralement que le simple fait d'augmenter la taille de ces modèles, en termes de volume de données et de puissance de calcul, pourrait conduire à l'AGI. Nous contestons ce point de vue", écrivent les chercheurs. "Nous proposons que la véritable compréhension, non seulement la vérité propositionnelle mais aussi la valeur des propositions qui nous guident dans nos actions, ne soit possible que par l'intermédiaire d'agents E-AI qui vivent dans le monde et l'apprennent en interagissant avec lui."

Le cadre d'incarnation des chercheurs semble être un plan pour un avenir lointain. La technologie n'existe pas vraiment aujourd'hui pour réaliser quelque chose comme l'IA incarnée. Tout d'abord, les grands modèles de langage (LLM) qui alimentent les chatbots d'IA sont massifs. Ils ne sont pas stockés localement, ce qui constituerait un défi pour l'IA incarnée. Les chercheurs eux-mêmes soulignent qu'il s'agit là d'un obstacle à surmonter.

Voici un extrait de l'étude :

Nous proposons l'IA incarnée (E-AI) comme la prochaine étape fondamentale dans la poursuite de l'intelligence générale artificielle (AGI), en la juxtaposant aux progrès actuels de l'IA, en particulier les grands modèles de langage (LLM). Nous parcourons l'évolution du concept d'incarnation dans divers domaines (philosophie, psychologie, neurosciences et robotique) pour souligner comment l'E-AI se distingue du paradigme classique de l'apprentissage statique. En élargissant la portée de l'E-AI, nous introduisons un cadre théorique basé sur les architectures cognitives, mettant l'accent sur la perception, l'action, la mémoire et l'apprentissage en tant que composantes essentielles d'un agent incarné.

Ce cadre est aligné sur le principe d'inférence active de Friston, offrant ainsi une approche globale du développement de l'E-AI. Malgré les progrès réalisés dans le domaine de l'IA, des défis importants persistent, tels que la formulation d'une nouvelle théorie d'apprentissage de l'IA et l'innovation d'un matériel avancé. Notre discussion établit une ligne directrice fondamentale pour la recherche future en matière d'IA électronique. En soulignant l'importance de créer des agents d'IA électronique capables de communiquer, de collaborer et de coexister avec des humains et d'autres entités intelligentes dans des environnements réels, nous visons à orienter la communauté de l'IA vers la résolution des défis à multiples facettes et à saisir les opportunités qui s'offrent à nous dans la quête de l'AGI.

Conclusion

Dans cet article, nous avons articulé le rôle critique que joue l'IA incarnée sur la voie de la réalisation de l'AGI, en la distinguant des méthodologies d'IA dominantes, notamment les LLM. En intégrant des idées provenant d'un large éventail de domaines de recherche, nous avons souligné comment le développement de l'E-AI bénéficient des connaissances existantes, alors que les LLM améliorent le potentiel d'interactions intuitives entre les humains et les entités d'IA émergentes.

Nous avons présenté un cadre théorique complet pour le développement de l'IA électronique, fondé sur les principes des sciences cognitives, mettant en évidence la perception, l'action, la mémoire et l'apprentissage, situant l'IA électronique dans le contexte du cadre d'inférence active de Friston, offrant ainsi une toile de fond théorique très large pour notre discussion. Malgré ces perspectives, le chemin à parcourir est semé d'embûches, notamment la formulation d'une nouvelle théorie de l'apprentissage adaptée à l'IA et la création de solutions matérielles sophistiquées. Ce document vise à servir de feuille de route pour les recherches en cours et à venir sur l'IA électronique, en proposant des orientations qui pourraient conduire à des avancées significatives. 

Auteur: Internet

Info: https://intelligence-artificielle.developpez.com/ - Jade Emy, 14 février 2024

[ expérience incompressible ] [ intelligence externe  ] [ intégration holistique ] [ homme-machine ] [ carbone vs silicium ] [ entendement synthétique ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

spiritualisme

Dans La Crise du monde moderne, Guénon explique que l’intellectualité et la société occidentales sont corrompues par des déviances anormales, opposées à l’ordre traditionnel qui était celui du Moyen Âge occidental et de l’Orient dans son ensemble. D’une part, il explique que la crise intellectuelle de l’Occident moderne prend sa source dans "l’individualisme", qu’il définit comme "la négation de tout principe supérieur à l’individualité". Cette attitude mentale caractérise la pensée moderne comme une erreur ou un système de pensée faux. En effet, l’individualisme consiste, au point de vue du connaître, à refuser de reconnaître l’existence d’une "faculté de connaissance supérieure à la raison individuelle", en même temps que, du point de vue de l’être, elle est un "refus d’admettre une autorité supérieure à l’individu". Ce lien étroit entre la connaissance et l’autorité s’explique par le fait que Guénon entend la tradition dans son sens le plus purement étymologique, comme un dépôt qui, étant transmis (tradere en latin), n’est pas inventé, mais reçu, et qui, pour cette raison, ne provient originairement pas de l’être humain par innovation, mais du supra-humain par révélation. La tradition est donc sacrée par définition selon Guénon, qui la distingue bien pour cette raison de la simple coutume : nier le fondement sacré ou divin de la tradition, c’est nier ce qui en légitimait l’autorité.

Ainsi la première forme de cette négation, dans l’ordre du connaître, se caractérise par le "rationalisme", c’est-à-dire par la "négation de l’intuition intellectuelle" et conséquemment le fait de "mettre la raison au-dessus de tout". Les Anciens en effet, de Platon à saint Thomas d’Aquin en passant par Plotin et saint Augustin, enseignaient l’existence, au-dessus de la raison humaine individuelle, d’une faculté de connaissance synthétique appartenant à l’esprit par laquelle sont intuitivement saisis les principes universels de l’être et du connaître. Par opposition, les Modernes ont cessé de reconnaître l’existence et l’efficience de l’intellect, pour le confondre à partir de Descartes avec la raison, jusqu’ici considérée comme faculté humaine et individuelle de connaissance discursive appartenant à l’âme dans son enquête des lois générales de la nature. Le mouvement amorcé par Descartes devait se confirmer avec Kant qui, renversant la hiérarchie, plaça l’intellect au-dessous de la raison sous la forme de l’entendement et déclara "inconnaissables" les objets traditionnels de la métaphysique intellectualiste d’antan, au premier rang desquels Dieu.

Rationalisme et libre-examen

Cette négation de l’intuition intellectuelle explique ainsi le passage des sciences traditionnelles aux sciences modernes : "La conception traditionnelle, écrit Guénon, rattache toutes les sciences aux principes comme autant d’applications particulières, et c’est ce rattachement que n’admet pas la conception moderne. Pour Aristote, la physique n’était que “seconde” par rapport à la métaphysique, c’est-à-dire qu’elle en était dépendante, qu’elle n’était au fond qu’une application, au domaine de la nature, des principes supérieurs à la nature et qui se reflètent dans ses lois ; et l’on peut en dire autant de la ”cosmologie“ du moyen âge. La conception moderne, au contraire, prétend rendre les sciences indépendantes, en niant tout ce qui les dépasse, ou tout au moins en le déclarant “inconnaissable” et en refusant d’en tenir compte, ce qui revient encore à le nier pratiquement.

Ce qui s’est produit dans l’ordre des sciences devait donc se produire à l’égard de l’autorité religieuse, car la raison individuelle, ne reconnaissant plus de faculté supérieure la régissant, devait prétendre se substituer à l’expertise de l’Église en matière de foi, par la pratique protestante du "libre-examen". C’était donc, dans le domaine religieux, l’analogue de ce qu’allait être le “rationalisme” en philosophie ; c’était la porte ouverte à toutes les discussions, à toutes les divergences, à toutes les déviations ; et le résultat fut ce qu’il devait être : la dispersion en une multitude toujours croissante de sectes, dont chacune ne représente que l’opinion particulière de quelques individus. Comme il était, dans ces conditions, impossible de s’entendre sur la doctrine, celle-ci passa vite au second plan, et c’est le côté secondaire de la religion, nous voulons dire la morale, qui prit la première place : de là cette dégénérescence en “moralisme” qui est si sensible dans le Protestantisme actuel. 

Le matérialisme

La négation de l’intuition intellectuelle a selon Guénon des conséquences beaucoup plus tangibles et étendues que des ruptures dans le domaine théorique. Pratiquement, en effet, c’est la conception de la nature humaine et de sa place dans l’univers qui est engagée : si l’Homme n’est plus capable d’apercevoir intellectuellement et de communier spirituellement avec les réalités surnaturelles, il se met naturellement (et comment lui en vouloir ?) à borner sa vie et ses idéaux à tout ce qui ressortit au plan matériel de l’existence (...)

Auteur: Ducay Paul

Info: Sur philitt.fr, René Guénon et la réforme de l’Occident, 27 juin 2022 - extrait

[ anti-rationalisme ] [ traditionalisme ] [ post-cybernétisme ] [ christianisme diachronique ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

corps-esprit

L'IA a besoin d'un corps pour passer à l'étape suivante de l'IA générale (AGI)

Un corps est le seul moyen pour elle d'apprendre le monde par l'interaction, d'après les chercheurs d'Huawei

L'intelligence artificielle a fait des progrès considérables depuis la publication du ChatGPT d'OpenAI. Toutefois, pour que l'intelligence artificielle passe à l'étape suivante, celle de l'intelligence artificielle générale (AGI), les chercheurs d'Huawei estiment qu'elle aura besoin d'un corps. Les chercheurs, qui font partie du laboratoire Noah's Ark d'Huawei basé à Paris, ont publié un rapport préliminaire sur la question. Dans ce rapport, les chercheurs d'Huawei parlent d'"intelligence artificielle incarnée", ou E-AI en abrégé. Selon l'équipe de chercheurs d'Huawei, donner un corps à l'IA est le seul moyen pour elle d'apprendre le monde par l'interaction.

L'intelligence artificielle générale, ou AGI, est considérée comme l'objectif final de la recherche sur l'IA. Il s'agit d'une IA capable de penser au même niveau que les humains et de s'attaquer à pratiquement n'importe quelle tâche. Cependant, il n'existe pas de définition concrète de l'AGI. Bien que l'IA se soit considérablement développée à ce jour, elle est encore loin d'atteindre l'AGI. C'est pourquoi les chercheurs d'Huawei proposent l'IA incarnée comme solution.

"On croit généralement que le simple fait d'augmenter la taille de ces modèles, en termes de volume de données et de puissance de calcul, pourrait conduire à l'AGI. Nous contestons ce point de vue", écrivent les chercheurs. "Nous proposons que la véritable compréhension, non seulement la vérité propositionnelle mais aussi la valeur des propositions qui nous guident dans nos actions, ne soit possible que par l'intermédiaire d'agents E-AI qui vivent dans le monde et l'apprennent en interagissant avec lui."

Le cadre d'incarnation des chercheurs semble être un plan pour un avenir lointain. La technologie n'existe pas vraiment aujourd'hui pour réaliser quelque chose comme l'IA incarnée. Tout d'abord, les grands modèles de langage (LLM) qui alimentent les chatbots d'IA sont massifs. Ils ne sont pas stockés localement, ce qui constituerait un défi pour l'IA incarnée. Les chercheurs eux-mêmes soulignent qu'il s'agit là d'un obstacle à surmonter.

Voici un extrait de l'étude :

Nous proposons l'IA incarnée (E-AI) comme la prochaine étape fondamentale dans la poursuite de l'intelligence générale artificielle (AGI), en la juxtaposant aux progrès actuels de l'IA, en particulier les grands modèles de langage (LLM). Nous parcourons l'évolution du concept d'incarnation dans divers domaines (philosophie, psychologie, neurosciences et robotique) pour souligner comment l'E-AI se distingue du paradigme classique de l'apprentissage statique. En élargissant la portée de l'E-AI, nous introduisons un cadre théorique basé sur les architectures cognitives, mettant l'accent sur la perception, l'action, la mémoire et l'apprentissage en tant que composantes essentielles d'un agent incarné.

Ce cadre est aligné sur le principe d'inférence active de Friston, offrant ainsi une approche globale du développement de l'E-AI. Malgré les progrès réalisés dans le domaine de l'IA, des défis importants persistent, tels que la formulation d'une nouvelle théorie d'apprentissage de l'IA et l'innovation d'un matériel avancé. Notre discussion établit une ligne directrice fondamentale pour la recherche future en matière d'IA électronique. En soulignant l'importance de créer des agents d'IA électronique capables de communiquer, de collaborer et de coexister avec des humains et d'autres entités intelligentes dans des environnements réels, nous visons à orienter la communauté de l'IA vers la résolution des défis à multiples facettes et à saisir les opportunités qui s'offrent à nous dans la quête de l'AGI.

Conclusion

Dans cet article, nous avons articulé le rôle critique que joue l'IA incarnée sur la voie de la réalisation de l'AGI, en la distinguant des méthodologies d'IA dominantes, notamment les LLM. En intégrant des idées provenant d'un large éventail de domaines de recherche, nous avons souligné comment le développement de l'E-AI bénéficient des connaissances existantes, alors que les LLM améliorent le potentiel d'interactions intuitives entre les humains et les entités d'IA émergentes.

Nous avons présenté un cadre théorique complet pour le développement de l'IA électronique, fondé sur les principes des sciences cognitives, mettant en évidence la perception, l'action, la mémoire et l'apprentissage, situant l'IA électronique dans le contexte du cadre d'inférence active de Friston, offrant ainsi une toile de fond théorique très large pour notre discussion. Malgré ces perspectives, le chemin à parcourir est semé d'embûches, notamment la formulation d'une nouvelle théorie de l'apprentissage adaptée à l'IA et la création de solutions matérielles sophistiquées. Ce document vise à servir de feuille de route pour les recherches en cours et à venir sur l'IA électronique, en proposant des orientations qui pourraient conduire à des avancées significatives.

Auteur: Internet

Info: Jade Emy, 14 février 2024

[ expérience incompressible ] [ intelligence externe ] [ intégration holistique ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

procréation médicalement assistée

La PMA est promise à devenir l’une de ces techniques qu’on utilise par défaut, à avoir la destinée de l’automobile : plus les gens l’utilisent, plus elle est rentable pour ceux qui la promeuvent et la produisent (eu égard aux infrastructures et institutions nécessaires à son fonctionnement), mais moins elle est utile, c’est-à-dire efficace pour satisfaire les besoins (la voiture allonge les distances, ralentit les déplacements par rapport au temps investi dans son coût et réduit les possibilités de déplacement aux trajets prévus par l’infrastructure, tout en rendant impossibles ou problématiques les autres modes de déplacements). Une telle technique devient aussi de plus en plus indispensable : on ne peut pas s’en passer parce qu’il n’y a plus d’alternatives instituées.

Dans le film Gattaca (1997), des parents décident de faire un enfant de manière "naturelle", c’est-à-dire sans PMA et sans modification des gènes de l’embryon par thérapie génique ; l’enfant né de cette union est parfaitement normal, cependant que dans la société où il naît, l’immense majorité des gens choisissent de modifier leur enfant pour qu’il soit conforme aux critères socialement en vigueur, autrement dit qu’il soit génétiquement compétitif (d’autant qu’il est un investissement).
L’enfant "naturel" se retrouve rejeté des institutions comme anormal, fut-ce parce qu’il ne peut plus être assuré et parce que sa santé présente un risque statistiquement indéfendable pour un employeur. Même les enfants modifiés se retrouvent hiérarchisés en fonction des modifications apportées, des investissements consentis (donc des revenus) des parents, et, finalement, ces mêmes enfants n’ont pas plus de chance qu’auparavant de s’en tirer mieux, puisque leur avantage génétique est comparatif, donc relatif aux normes et modes en vigueur – la technique est dès lors devenue aussi indispensable (c’est-à-dire, au fond, obligatoire) qu’inutile. Ce film met admirablement en scène le processus en jeu dans ces techniques génétiques et le résultat que les choix individuels peuvent avoir sur le fonctionnement global, structurel d’une société.

Le scénario est le suivant : plus les gens vont (pouvoir) utiliser la PMA, moins elle va être chère et plus elle sera techniquement confortable (son principal défaut actuel étant d’être une procédure très lourde et encore fort souvent inefficace), ce qui entraînera plus de gens à l’utiliser et donc plus d’offres de services dans une véritable gamme de produits dérivés, souvent bien plus intéressantes que le produit de base, et déjà très avancées techniquement, telles que le dépistage pré-préimplantatoire et les thérapies géniques germinales (impossibles in utero), ou encore la possibilité, encore à l’étude, du développement de l’embryon hors de l’utérus.

En amont – et sans parler de ce qui concerne la loi, les mentalités, les représentations sociales et la demande –, son infrastructure nécessite des laboratoire, des techniciens et des institutions hospitalières spécialisées, répondant pour partie à des besoins-prétextes bien réels (la pollution chimique amenant de plus en plus de cas de stérilité ou de déficiences spermatiques), ainsi que du sperme (bientôt peut-être des ovules, puisque l’on est en passe d’utiliser un seul ovule pour créer plusieurs gamètes) et tout le travail de classification et de rentabilité autour de sa récolte et de sa distribution.

En aval, ce dispositif conduira à l’utilisation de larges produits dérivés (thérapies géniques, DPI, voire utérus artificiel, etc.), à des techniques de conservation des spermatozoïdes ou des gamètes, ou encore à l’utilisation des embryons surnuméraires à des fins de recherches (qui concernent souvent les techniques dérivées) ou pour la production de cellules souches. Or, à des degrés divers, tout cela est en ordre de bataille : notamment, en aval, le DPI et, désormais, les thérapies géniques (grâce au développement récent de l’outil "crispr cas 9") sont parfaitement au point, même s’il reste des limites (énormes) dans la connaissance des interactions entre gènes, de leur activation ; et la recherche sur les utérus artificiels – qui a notamment pour prétexte le sauvetage des grands prématurés – avance à grands pas.

La consommation de la PMA est le nœud du processus : son augmentation rendra l’infrastructure en amont rentable et plus efficace, et nourrira les produits dérivés, les rendant, là encore, plus rentables et plus efficaces. De plus, concourant avec la panique hygiéniste à laquelle se réduit actuellement la question environnementale, on fait du désir d’enfant un droit à assouvir (comme, par exemple, on en a fait un de l’accès à l’Internet) et un enjeu d’égalité ou de non-discrimination : on légitime, on adoube la technologie, pendant que tout le reste de la structure technique (la pollution qui rend stérile) et économique (les exigences de production et de consommation qui tendent à faire de la naissance de l’enfant un obstacle imprévisible et difficile à gérer s’il n’est pas planifié) la rendent "utile".

Auteur: Dufoing Frédéric

Info: https://linactuelle.fr/index.php/2020/01/22/pma-veritables-enjeux-frederic-dufoing/

[ enjeux sociétaux ] [ marchandisation du vivant ] [ big pharma ] [ fuite en avant ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

matérialogie

La plupart des matériaux semblent suivre une mystérieuse " règle de quatre ", que les chercheurs ne comprennent toujours pas 

La découverte de régularités et de corrélations dans des données enthousiasme généralement les scientifiques, du moins lorsqu’ils peuvent l’expliquer. Dans le cas contraire, il arrive d’estimer que les données présentent des biais ayant mené à l’apparition de telles corrélations, faisant de l’étude un véritable casse-tête. Ces défauts dans les données sont communément appelés " artefacts expérimentaux ". Récemment, des chercheurs de l’École Polytechnique Fédérale de Lausanne (EPFL), après avoir constaté que la structure de base de la majorité des matériaux inorganiques suit une étrange " règle de quatre ", n’ont pas réussi à trouver d’explication à ce schéma (impliquant une ou plusieurs corrélations inexpliquées).

Tout est parti de l’analyse de deux bases de données largement utilisées sur les structures électroniques (Materials Project et Materials Cloud3-Dimensional). Ces deux collections comprennent environ 80 000 structures électroniques de matériaux expérimentaux et prédits. En principe, tous les types de structures électroniques devraient être présentés de manière égale. Cependant, les résultats ont révélé que cela est loin d’être le cas.

Les scientifiques ont en effet constaté que 60 % des matériaux possèdent une cellule unitaire primitive (la cellule la plus petite dans une structure cristalline) constituée d’un multiple de 4 atomes. Cette récurrence est appelée " règle de quatre " par la communauté scientifique.

Des difficultés à trouver une explication définitive

Comme les scientifiques ont tendance à le faire, l’équipe de recherche en question (EPFL), dirigée par Nicola Marzari, a tenté de trouver des explications à ce schéma inattendu. Au départ, les chercheurs ont estimé que l’émergence d’un tel modèle signifiait qu’il y avait un biais quelque part dans les données.

Une première raison intuitive pourrait venir du fait que lorsqu’une cellule unitaire conventionnelle (une cellule plus grande que la cellule primitive, représentant la pleine symétrie du cristal) est transformée en cellule primitive, le nombre d’atomes est typiquement réduit de quatre fois ", a déclaré Elena Gazzarrini, ancienne chercheuse à l’EPFL et travaillant actuellement au CERN (Genève). " La première question que nous nous sommes posée visait à déterminer si le logiciel utilisé pour transformer en cellule primitive la cellule unitaire l’avait fait correctement, et la réponse était oui ", poursuit-elle.

Une fois la piste des erreurs évidentes écartée, les chercheurs ont effectué des analyses approfondies pour tenter d’expliquer la " règle de quatre ". L’équipe s’est alors interrogée si le facteur commun pouvait être le silicium, étant donné qu’il peut lier 4 atomes à son atome central. " Nous pourrions nous attendre à constater que tous les matériaux suivant cette règle de quatre incluent du silicium ", a expliqué Gazzarrini. Malheureusement, cela n’est pas le cas.

Gazzarrini et son équipe se sont alors basés sur les énergies de formation des composés. « Les matériaux les plus abondants dans la nature devraient être les plus énergétiquement favorisés, c’est-à-dire les plus stables, ceux avec une énergie de formation négative », explique Gazzarini. " Mais ce que nous avons constaté avec les méthodes informatiques classiques, c’est qu’il n’y avait aucune corrélation entre la règle de quatre et les énergies de formation négatives ".

En considérant ces constats, Gazzarrini a envisagé la possibilité qu’une analyse plus fine recherchant une corrélation entre les énergies de formation et les propriétés chimiques puisse fournir une explication à cette règle de quatre. Ainsi, l’équipe a fait appel à l’expertise de Rose Cernosky de l’Université du Wisconsin, experte en apprentissage automatique, pour créer un algorithme d’analyse plus puissant. L’algorithme en question regroupait notamment les structures en fonction de leurs propriétés atomiques. Ensemble, Cernosky et l’équipe de Gazzarrini ont ensuite examiné les énergies de formation au sein de classes de matériaux partageant certaines similitudes chimiques. Cependant, une fois de plus, cette nouvelle approche n’a pas permis de distinguer les matériaux conformes à la règle de quatre de ceux qui ne le sont pas.

Un mystère persistant, mais qui mène vers une découverte prometteuse

Bien que jusqu’à présent l’équipe n’a pas pu résoudre l’énigme de la règle de quatre, elle a toutefois fait une belle avancée : l’exclusion de plusieurs hypothèses logiques. Les chercheurs ont également fait une découverte prometteuse (la règle de quatre), qui pourrait servir à des études futures sur ce phénomène structurel.

En effet, avec un algorithme Random Forest, le groupe est en mesure de prédire avec 87 % de précision si un composé suit la règle de quatre ou non. " C’est intéressant, car l’algorithme utilise uniquement des descripteurs de symétrie locaux plutôt que globaux ", déclare Gazzarrini. " Ceci suggère qu’il pourrait y avoir de petits groupes chimiques dans les cellules (encore à découvrir) qui pourraient expliquer la règle de quatre ", a-t-elle conclu.



 

Auteur: Internet

Info: https://trustmyscience.com/ - Kareen Fontaine & J. Paiano·24 avril 2024 - Source : NPJ Computational materials

[ interrogation ] [ tétravalence ] [ physique appliquée ]

 

Commentaires: 0

Ajouté à la BD par miguel

épigénétique

De la biologie quantique dans la photosynthèse ? La biologie actuelle en est-elle au stade où était la physique classique avant la découverte de la physique quantique ? Certains le soupçonnent depuis quelques années, et une publication récente dans Nature Communications vient d'apporter de l'eau à leur moulin. Il y aurait bien des processus quantiques derrière l'efficacité de la photosynthèse.

(On note Ψ la fameuse fonction d'onde décrivant les amplitudes de probabilité en mécanique quantique depuis les travaux de Schrödinger sur sa célèbre équation. On a de nouvelles raisons de penser que la vie exploite les lois de la mécanique quantique pour rendre certains processus plus efficaces, en particulier la photosynthèse. © Engel Group, University of Chicago - En commentaire de la photo d'une feuille au soleil)

C'est un fait bien établi que l'existence des atomes, des molécules et des liaisons chimiques ne sont pas compréhensibles en dehors des lois de la mécanique quantique. En ce sens, la physique et la chimie d'un bloc de métal ou d'une cellule sont quantiques. Mais on sait bien que le comportement de ces objets ne manifeste pas directement la nature quantique de la matière, ils font partie du monde de la physique classique. Cependant, certains phénomènes comme la supraconductivité ou la superfluidité débordent du domaine quantique d'ordinaire réservé à la microphysique pour entrer dans le monde à notre échelle. Lorsque la nécessité de la physique quantique s'est révélée aux physiciens explorant la matière et la lumière, ce fut essentiellement avec deux phénomènes qui semblaient au départ être de simples anomalies bien localisées dans l'univers de la physique classique : le rayonnement du corps noir et l'effet photoélectrique. Nous savons aujourd'hui qu'ils étaient la pointe émergée du monde quantique et que, fondamentalement, le réel est fort différent de la vision du monde bâtie par les fondateurs de la science classique comme Galilée, Descartes et Newton.

La biologie quantique pour expliquer la photosynthèse
De nos jours, les biologistes qui réfléchissent sur le fonctionnement des cellules, de l'ADN ou des neurones considèrent que ces objets sont majoritairement décrits par les lois de la physique classique. Il n'est pas nécessaire d'utiliser l'équation de Schrödinger ou les amplitudes de probabilités qu'elle gouverne pour comprendre l'origine de la vie, les mutations, l'évolution ou l'apparition de la conscience dans un cerveau. Pourtant, ces dernières années, quelques résultats expérimentaux en biologie, notamment sur la photosynthèse, semblaient défier les lois de la physique classique.

Il était et il est encore bien trop tôt pour savoir si la photosynthèse finira par être, pour une éventuelle biologie quantique, ce que le rayonnement du corps noir a été pour la physique quantique. Toutefois, Alexandra Olaya-Castro et Edward O'Reilly, des chercheurs du célèbre University College de Londres, viennent de publier dans Nature Communications un article, également disponible en accès libre sur arxiv, dans lequel ils affirment que des macromolécules biologiques utilisent bel et bien des processus quantiques pour effectuer de la photosynthèse. Jusqu'à présent, le doute planait sur l'inadéquation des processus classiques pour décrire le comportement de chromophores attachés à des protéines qu'utilisent les cellules végétales pour capter et transporter l'énergie lumineuse.

Selon les deux physiciens, certains des états de vibrations moléculaires des chromophores facilitent le transfert d'énergie lors du processus de photosynthèse et contribuent à son efficacité. Ainsi, lorsque deux chromophores vibrent, il arrive que certaines énergies associées à ces vibrations collectives des deux molécules soient telles qu'elles correspondent à des transitions entre deux niveaux d'énergie électronique des molécules. Un phénomène de résonance se produit et un transfert d'énergie en découle entre les deux chromophores.

Distributions de probabilités quantiques négatives
Or, si le processus était purement classique, les mouvements et les positions des atomes dans les chromophores seraient toujours décrits par des distributions de probabilités positives. Alexandra Olaya-Castro et Edward O'Reilly ont découvert qu'il fallait employer des distributions négatives. C'est une signature indiscutable de l'occurrence de processus quantiques. Mieux, il s'agit dans le cas présent de la manifestation d'une superposition d'états quantiques à température ambiante assistant un transfert cohérent d'énergie. On retrouve ces vibrations collectives de macromolécules dans d'autres processus biologiques comme le transfert d'électrons dans les centres de réaction des systèmes photosynthétiques, le changement de structure d'un chromophore lors de l'absorption de photons (comme dans les phénomènes associés à la vision). Selon les chercheurs, il est donc plausible que des phénomènes quantiques assistant des processus biologiques que l'on croyait classiques soient assez répandus. Si tel est le cas, on peut s'attendre à découvrir d'autres manifestations hautement non triviales de la mécanique quantique en biologie. Cela n'aurait certainement pas surpris Werner Heisenberg, et encore moins Niels Bohr qui, il y a déjà plus de 60 ans, prédisaient que l'on pourrait bien rencontrer des limites de la physique classique avec les systèmes vivants.

Auteur: Internet

Info: https://www.futura-sciences.com/. Laurent Sacco. 20- 01-2014

[ biophysique ]

 

Commentaires: 0

Ajouté à la BD par miguel

artificialisation

L’élevage paysan est menacé parce que les lobbies financiers, ceux de l’agriculture productiviste et même une partie du lobby de la viande industrielle ont décidé de remplacer la vraie viande, plus assez rentable à leurs yeux, par de la fausse viande, du faux lait, du faux fromage, des faux œufs, beaucoup plus rentables.

Le système industriel de production de protéines animales est un échec financier comme le dénonce depuis trois décennies Via Campesina: les épizooties coûtent de 18 à 50 % du chiffre d’affaires, la Banque mondiale chiffre le coût de la grippe aviaire à 1250 milliards de dollars… mais pas question pour ces lobbies de laisser se développer l’élevage paysan. Leur réponse est simple : toujours plus d’industrialisation grâce aux biotech.

Ces lobbies veulent gagner la bataille de l’opinion publique car ils se souviennent de l’échec de la viande clonée qu’ils avaient précédemment voulu imposer, c’est pourquoi ils financent mondialement des groupes animalistes. L214 a reçu ainsi plus de 1,3 million de dollars d’une organisation états-unienne qui finance, par ailleurs le secteur de la fausse viande et notamment celui des faux œufs. Chacun appréciera à sa valeur qu’une organisation fondée par deux militants anarchistes soient subventionnée par le grand capital international et qu’elle se retrouve aux côtés des lobby financiers, de la malbouffe et de ce qu’il y a de pire dans l’industrie de la viande contre l’Internationale Via Campesina… Ce généreux donateur de L214, prénommé Open Philanthropy Project (OP2), a été créé par le fonds d’investissement de Dustin Moskovitz, co-fondateur de Facebook et son épouse Cari Tuna, journaliste au Wall Street Journal. Ce généraux donateur travaille aussi avec le Fonds d’investissement de Google, et avec des milliardaires comme Bill Gates, William Hewlett (Packard), etc…

Le secteur de la fausse viande n’est pas séparable des autres biotechnologies alimentaires, comme les OGM 2eet 3egénérations, comme les imprimantes 3D alimentaires, qui fonctionnent comme une imprimante classique sauf qu’elles utilisent différents ingrédients sous forme de pâte dont des hydro-colloïdes, une substance gélatineuse chimique que l’on peut structurer, aromatiser, coloriser à volonté.. La première imprimante 3D végane a été lancée, en avril 2019, en Israël, par la société Jet Eat, dont le PDG Eshchar Ben Shitrit est un personnage central de l’industrie alimentaire sous forme d’impression 3D ….

Les grandes firmes disposent déjà de tout un vocabulaire marketing pour imposer leurs productions, elles parlent de "viande propre", de "viande éthique", de "viande cultivée", une façon de sous-entendre que la vraie viande, le vrai fromage, le vrai lait, les vrais œufs ne seraient ni propres, ni éthiques, ni même, peut être, ne relèveraient d’une quelconque culture…

La fabrication industrielle de faux produits carnés comprend une production dite a-cellulaire et une autre dite cellulaire. La production acellulaire est une technique de biologie synthétique qui utilise des micro-organismes comme des bactéries, des levures, pour synthétiser des protéines et molécules. Le gène codant d’une protéine donnée est alors clonée dans un micro-organisme qui est ensuite en mesure de le produire. Pour obtenir des protéines de lait ou de blanc d’œuf, on cultive des micro-organismes génétiquement modifiés (des bactéries, des levures et autres champignons) et on mélange ensuite ces protéines à d’autres substances végétales.

La production cellulaire consiste à reconstituer des tissus animaux en mettant en culture des cellules prélevées sur l’animal. Elle utilise pour cela des bioréacteurs sur le modèle de ceux utilisés en médecine pour fabriquer de la fausse peau. La culture des cellules se fait avec du sérum de fœtus de veau. Certaines start-up, financées par la NASA, ont pour objectif de remplacer ce sérum par des extraits de champignon… Cette fausse viande cellulaire suppose toujours un animal donneur de cellules sous forme de biopsie (sous anesthésie locale) mais un seul échantillon pourrait permettre de produire jusqu’à 20 000 tonnes de viande. Mosa Meat explique que 150 vaches suffiraient pour satisfaire la demande actuelle mondiale de viande. Cette firme néerlandaise avait précédemment inventé le premier hamburger à base de cellules (un simple collage de 20 000 fibres). Son coût de 325 000 euros avait été financé par Sergey Brin, co-fondateur de Google, Patron de la firme Alphabet inc, une émanation de Google dénoncée pour être un faux nez permettant d’échapper à l’impôt via les paradis fiscaux, il dirige aussi Google X chargé de développer la voiture automatique Google et un service mondial de livraison par drone. Il fallait donc absolument dans l’intérêt de Google que la viande soit accusée de tous les maux plutôt que les transports. Sergey Brin est non seulement la treizième fortune mondiale, mais l'une des vedettes du Forum économique de Davos dont les membres, à peine descendus de leur jet privé, ordonnait en février 2019, au petit peuple de consommer moins de viande pour… sauver la planète (prétendent-ils).

Auteur: Ariès Paul

Info: https://blogs.mediapart.fr/paul-aries/blog/230419/futurs-deputes-europeens-resisterez-vous-au-lobby-de-la-viande-de-laboratoire?

[ apprentis sorciers ] [ culpabilité ] [ schizophrénie ] [ rendement économique ] [ malbouffe ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par Coli Masson

lobbysme

Big Pharma : la criminalité organisée
Beaucoup de ceux qui ont lu ce livre se demandent si Peter n'exagère pas en suggérant que ses activités permettent de comparer l'industrie pharmaceutique à la criminalité organisée, dont les caractéristiques sont définies dans la loi des États-Unis : extorsion, fraude, infractions fédérales sur les drogues, corruption, détournement de fonds, obstruction à la justice, obstruction de l'application de la loi, subornation de témoins et corruption politique.
Peter apporte la preuve, presque toujours en détail, que les compagnies pharmaceutiques sont coupables de la plupart de ces infractions.
Et il est pas le premier à comparer cette industrie avec la mafia - ou mob, puisqu'il cite un ancien vice-président de Pfizer, qui a dit en son temps: "Il est effrayant de voir à quel point il y a des similitudes entre notre industrie et la mafia. Le crime organisé prend des quantités obscènes d'argent ; comme cette industrie. Sans parler d'autres effets secondaires comme les homicides et des décès. La mafia corrompt politiciens et autres, de même pour l'industrie des médicaments... "
Beaucoup de gens meurent via Big Pharma, beaucoup plus que ceux qui sont tués dans des crimes. Des centaines de milliers de personnes décèdent chaque année suite aux effets des médicaments donnés sur ordonnance. Beaucoup verront ceci comme inévitable puisque les médicaments sont utilisés pour traiter des maladies qui tuent. Mais c'est surtout parce que les avantages des médicaments sont exagérés, souvent en raison de graves distorsions dans la démonstration de leur efficacité, "crime" qui peut être attribué en toute confiance à Big Pharma...
La majeure partie du livre de Peter est consacrée à démontrer que l'industrie du médicament a systématiquement corrompu la science en jouant les avantages et minimisant les méfaits de ses produits... Il montre aussi comment on achète les médecins, les universitaires, les revues, organisations professionnelles, départements universitaires, journalistes, régulateurs et politiciens. Ce sont bien les méthodes de la mafia...
Les détracteurs de l'industrie médicamenteuse ne cessent d'augmenter. Mais Peter les a tous surpassés, en efficacité et en véhémence, démontrant le parallèle de cette industrie avec le crime organisé.
Moi-même qui avais commencé à réfléchir aux sociétés pharmaceutiques, ne savais pas que quelqu'un avait fait si explicitement cette charge.
Lors des 50 dernières années, c'était l'industrie du tabac qui était considérée comme la méchante. Mais Big Pharma est devenu un concurrent sérieux. Et il est beaucoup plus grand que Big Tobacco, et beaucoup plus méchant. Je ne suis pas tout à fait certain de ce qui est censé être si mauvais à propos de Big Tobacco, en dehors du fait que le tabagisme provoque le cancer du poumon. Ainsi les entreprises pharmaceutiques sont désormais confrontées à des poursuites judiciaires coûteuses en raison des effets secondaires graves causés par de nombreux médicaments. Par exemple Bayer a du payer des milliards aux procureurs dans le procès de la loi sur "Yaz", suite à l'insuffisance des avertissements des effets secondaires sur les étiquettes de ce médicament - qui semble être la cause de la formation de caillots sanguins cause d'AVC chez les jeunes femmes.
Et comme le contrôle du tabac reçoit beaucoup de fonds de Big Pharma, on peut dire que les mauvais se soutiennent.
La lutte anti-tabac se présente toujours comme le bon garçon qui combat les Forces du Mal. "Faire le bien en aidant le fumeur à se sevrer de son produit mortel".
Mais en fait le contrôle du tabac cherche simplement faire en sorte que des fumeurs accrochent aux produits que Big Pharma met en place. Et on utilise la force brutale de la loi - interdiction de fumer, clandestinité et modification l'aspect des produits traditionnels tabagiques suite à la montée en puissance de la taxation du tabac à des niveaux exorbitants. Une industrie qui fait maintenant bonne figure en faisant son autocritique et incitant les fumeurs à se tourner vers de nouveau genre de cigarettes. Il faut conserver une stratégie.
Les gens apprennent de plus en plus que loin de faire du bien, le contrôle du tabac fait de grands dégats, détruisant les communautés et les amitiés, mettant les gens les uns contre les autres, écrasant l'industrie de l'hospitalité, dénigrant son économie, volant les fumeurs. Il tarde que ce masque de sainteté glisse et révèle le loup vorace caché derrière.
Mais avant que cela arrive, les gens auront probablement besoin de se rendre compte que la profession médicale est profondément impliquée ainsi.
Le médecin et auteur Ben Goldacre, dans son livre "Bad Pharma" soulève l'idée intéressante que les médecins, qui en sont venus à considérer comme une relation "normale" leurs rapports avec une industrie de la drogue, seront agressés par le public le jour où il comprendra. Actuellement ce dernier a tendance à faire confiance aux médecins et à se méfier des compagnies pharmaceutiques. Cette confiance pourrait rapidement se perdre.

Auteur: Smith Richard

Info: préface de l'ouvrage, Internet, 28 Octobre 2013

[ consumérisme ]

 

Commentaires: 0

exploration spatiale

Astrolinguistique : comment communiquer en cas de contact avec une civilisation extraterrestre ?
L’astrolinguistique, xénolinguistique, ou encore exolinguistique, est le domaine de recherche de la linguistique qui s’attèle à déterminer et développer des modèles de langages non-humains (extraterrestres) dans le cas où un premier contact avec une civilisation extraterrestre intelligente serait effectué. Un tel événement ne s’étant toujours pas produit, ce domaine reste encore hypothétique, mais donne lieu à un véritable travail de recherche universitaire de la part des scientifiques.

L’univers observable compte des centaines de millions de galaxies, chacune contenant à leur tour des centaines de millions d’étoiles et de planètes potentielles. L’existence de civilisations extraterrestres intelligentes n’est donc pas à exclure. Si aucun contact avec l’Homme ne s’est encore produit, la possibilité d’un tel événement est envisageable. Tant et si bien que les scientifiques commencent déjà à prévoir cette éventualité en tentant de développer des outils de communication.

Loin d’être de la science-fiction, l’astrolinguistique est une discipline universitaire qui s’est développée au cours des 30 dernières années. Certaines universités, comme la Bowling Green State University (États-Unis), l’ont même intégrée à leurs cours afin de former des chercheurs spécialisés dans ce domaine. La xénolinguistique est en réalité une sous-famille de la linguistique théorique dont l’objectif est la construction et la déconstruction de langages fictifs ou existants.

(Le langage des heptapodes utilisé dans le film Premier Contact a été développé par la linguiste Jessica Coon et le scientifique Stephen Wolfram. Il est considéré comme scientifiquement plausible par la communauté scientifique." photo de l'article original absente)

L’un des précurseurs du domaine est le célèbre linguiste américain Noam Chomsky. Pour ce dernier, la théorie de la grammaire universelle empêcherait l’Homme de comprendre naturellement une civilisation extraterrestre. Cette théorie postule que les bases élémentaires et communes de la grammaire humaine sont génétiquement prédéterminées, encodées dans le génome, indépendamment de la culture ou de l’environnement. L’Homme devrait donc difficilement et lentement déchiffrer chaque structure de ce nouveau langage.

Pour la linguiste canadienne Keren Rice, spécialisée dans les langages indigènes, une communication extrêmement basique entre humains et extraterrestres serait possible tant que les éléments contextuels primitifs restent les mêmes. Par exemple, même si les termes pour désigner une planète changent, il est fort probable qu’une civilisation extraterrestre connaisse l’objet lui-même, c’est-à-dire qu’elle ait déjà vu une planète.

L’astrolinguistique est plus largement intégrée au domaine de la Communication avec une intelligence extraterrestre (CETI) sur lequel se penchent de nombreux chercheurs et institutions scientifiques. La question fait régulièrement l’objet de discussions scientifiques lors de l’American Association for the Advancement of Science.

Généralement, quatre formes de langages possibles sont définis : le langage mathématique, le langage pictural, le langage algorithmique et multimodal, et le langage naturel. Les outils linguistiques développés dans le cadre de ces recherches s’appuient sur des études actuelles visant à décrypter des langages humains encore non déchiffrés, comme le Linéaire A, un langage utilisé en Crête ancienne entre 1900 et 1400 av. J.-C.

Le Lincos (pour lingua cosmica) est un des tous premiers langages mathématiques développé par le mathématicien allemand Hans Freudenthal au début des années 1960, dans son livre Lincos: Design of a Language for Cosmic Intercourse. Il utilise une structure mathématique basique pour transmettre des messages, destinée à être comprise par n’importe quelle civilisation intelligente. Par la suite, des scientifiques comme Lancelot Hogben et Carl Sagan proposeront eux aussi des syntaxes reposant sur des principes mathématiques.

Ce disque est embarqué par les sondes Voyager 1 et 2 afin de raconter l’histoire de la Terre. Elle contient un message de bienvenu en 60 langages différents, des échantillons de musiques de plusieurs styles et ethnies, des sons d’origine humaine ainsi que des schémas et informations électroniques compréhensibles par une civilisation avancée.

De la même manière, le message d’Arecibo contenait quelques structures atomiques, les briques de l’ADN, un schéma du Système solaire et un dessin du télescope Arecibo lui-même. Un hybride de langage mathématique et pictural, considéré comme scientifiquement réaliste, a été développé pour le film Premier Contact, sous la direction de la linguiste Jessica Coon.

Le langage multimodal combine plusieurs systèmes de communication afin de maximiser les chances de compréhension. Le Teen-Age Message développé par des scientifiques russes en est un bon exemple.

Ce dernier combine un signal radio destiné à permettre aux destinataires d’en remonter la source, une musique jouée sur un thérémine, ainsi qu’une association d’images semblables à celles du message d’Arecibo. Tandis que le langage algorithmique prend la forme d’un code informatique pouvant être exécuté sur n’importe quelle machine.

Enfin, le langage naturel renvoie au cas où une civilisation communiquerait, volontairement ou non, avec nous dans son langage natif. Dans ce cas, les scientifiques devraient déconstruire le langage en isolant des schémas répétitifs, des rythmes, des taux de répétition, des structures complexes et des propriétés linguistiques sous-jacentes renvoyant à un système de communication intelligent.

Auteur: Internet

Info: https://trustmyscience.com, Thomas Boisson 27 mars 2019

[ rencontre exotique ]

 

Commentaires: 0

Ajouté à la BD par miguel