Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 49
Temps de recherche: 0.0659s

adaptation animale

Dans les abysses, des poissons absorbent 99,5% de la lumière entrante 

Dans les profondeurs océaniques, que les photons peinent à percer, les poissons ont développé toutes sortes de ressources pour les aider à se nourrir. Certains, par exemple, sont devenus experts en camouflage.



À l’instar des oiseaux de paradis, dont les plumes absorbent 99,95% de la lumière, et du Vantablack, cet objet créé par l’Homme capable d’en absorber autant, plusieurs espèces de poissons évoluant en eaux profondes ont développé une peau ultra-noire, capable d’absorber le moindre photon disponible (ou presque). Des chercheurs du Smithsonian Museum et de l’Université Duke (États-Unis) en ont répertorié une quinzaine. Ils détaillent leurs travaux dans la revue Current Biology.



Karen Osoborn, zoologiste au Smithsonian Museum, a d’abord été intriguée par ces poissons naturellement sombres après avoir essayé d’en photographier quelques-uns capturés dans des filets. Elle s’est alors très vite rendu compte que la grande majorité de leurs caractéristiques anatomiques étaient impossibles à isoler. "Peu importe comment vous configurez la caméra ou l’éclairage, ils aspirent simplement toute la lumière", explique-t-elle.



Des analyses en laboratoire ont finalement révélé pourquoi. La biologiste a découvert que de la mélanine – un pigment qui protège la peau humaine en absorbant 99,9% du rayonnement UV solaire – était présente en abondance dans la peau des spécimens étudiés. Mais pas que.



Ces pigments étaient également compactés dans des compartiments cellulaires, eux-mêmes rassemblés de manière très étroite. En outre, la taille, la forme et la disposition de ces cellules les amènent à diriger toute la lumière restante vers d’autres compartiments.



Grâce à cette approche, la plupart des poissons étudiés étaient capables d’absorber environ 99,5% des photons entrants.



"Si vous voulez vous fondre dans la noirceur infinie de votre environnement, aspirer chaque photon qui vous frappe est une excellente façon de procéder, explique Karen Osoborn. Ce qu’ils ont fait, c’est créer un piège à lumière super efficace. La lumière ne rebondit pas, et ne traverse pas. Elle pénètre simplement dans cette couche, puis disparaît".



Et ça marche !

Des modélisations informatiques ont en effet suggéré que cette capacité à réfléchir une quantité infime de lumière peut réduire de six fois la distance à laquelle ces prédateurs peuvent être repérés par leurs proies. Certains, notamment, sont des prédateurs d’embuscade qui ont développé des leurres bioluminescents. Les chercheurs soupçonnent ainsi que cette peau ultra-noire permet de les rendre invisibles à leur propre lumière.



Fait intéressant, les chercheurs ont même isolé une peau ultra-noire autour de l’intestin de l’une des espèces, nommée Cyclothone acclinidens. Selon eux, ce poisson aurait évolué ainsi pour absorber la lumière émise par ses proies bioluminescentes ingérées.

Auteur: Internet

Info: https://sciencepost.fr/, Brice Louvet, rédacteur sciences, 17 juillet 2020

[ obscurité totale ]

 

Commentaires: 0

Ajouté à la BD par miguel

interdépendance

Complexité des écosystèmes: un gage de résilience face au changement
Le fonctionnement d'un écosystème s'articule autour de relations de natures diverses entre une myriade d'espèces. Identifier de manière exhaustive ces interactions et le rôle qu'elles jouent dans le fonctionnement d'un écosystème demeure toutefois peu évident.
Dans une étude publiée récemment dans PLos Biology, une équipe internationale menée par deux chercheurs de l'Institut des Sciences de l'Evolution de Montpellier (ISEM, CNRS / IRD / EPHE) et du Laboratoire Biométrie et Biologie Evolutive de Villeurbanne (CNRS / Université de Lyon) a pu étudier l'ensemble des relations trophiques* et non-trophiques entre les espèces présentes dans la zone de balancement des marées de la côte centrale du Chili.
Ce travail inédit, basé sur la modélisation mathématique des réseaux, montre que ces interactions sont fortement structurées selon une organisation qui assure la résilience de la communauté. Il confirme ainsi l'importance de prendre en compte la diversité des relations interspécifiques d'un écosystème pour prévoir ses réactions face à des perturbations de grande ampleur comme le changement climatique.
La plupart des travaux scientifiques qui s'intéressent au fonctionnement des milieux naturels se sont jusqu'ici focalisés sur les relations trophiques entre les espèces qui les composent. Or d'autres formes d'interactions comme le mutualisme ou la compétition pour l'espace semblent jouer un rôle tout aussi important. Ces relations non-trophiques sont pourtant rarement prises en compte dans les études portant sur les réseaux écologiques.
Avec l'aide des scientifiques chiliens du Center for Marine Conservation et du Center for Applied Ecology and Sustainability, qui analysent depuis plusieurs décennies les interactions entre les espèces qui peuplent la côte du centre du Chili, des chercheurs français et américains sont parvenus à visualiser pour la première fois un réseau écologique dans toute sa complexité. "En traitant l'importante masse de données collectée par nos collègues chiliens à l'aide de puissants outils de modélisation statistique des réseaux, nous avons pu dresser une cartographie précise des relations s'établissant entre les 106 espèces qui peuplent cette zone intertidale", détaille Sonia Kéfi, chercheuse en écologie à l'Institut des Sciences de l'Evolution de Montpellier et cosignataire de l'article.
Les scientifiques ont ainsi constaté que les interactions non-trophiques comme la compétition pour l'espace ou la création d'habitats étaient deux fois plus nombreuses que celles correspondant à la consommation directe d'autres organismes. L'équipe a ensuite réparti les 106 espèces impliquées dans ces interactions en différents groupes au sein desquels les espèces sont très proches sur le plan taxonomique. Chacun d'eux rassemblait des organismes entretenant le même genre de relations avec les autres êtres vivants de la zone de balancement des marées.
A partir de cette représentation simplifiée du fonctionnement de l'écosystème, les chercheurs ont élaboré un système dynamique simulant l'évolution de sa biomasse totale et de sa biodiversité en fonction de l'organisation initiale de ce réseau d'interactions. "Lorsque nous introduisions de l'aléatoire dans la structure du réseau, nous observions à chaque fois une diminution de ces deux variables au cours du temps, détaille Sonia Kéfi. La structuration observée dans la nature conduisait quant à elle au maintien de la biodiversité et à une biomasse totale élevée."
Les résultats de cette étude mettent ainsi en avant l'importance de la complexité des relations entre les espèces qui composent une communauté écologique. A l'avenir, ce genre de travaux devrait aider à mieux comprendre la réaction des écosystèmes face à des perturbations comme le changement climatique ou l'exploitation, par l'Homme, des ressources naturelles.

Auteur: Internet

Info: http://www.techno-science.net, Vie et Terre, Posté par Isabelle, Lundi 19/12/2016,*qui concerne la nutrition des organes et des tissus -

[ complémentarité ] [ biotope ]

 

Commentaires: 0

psycho-sociologie

Les mathématiques expliquent pourquoi les non-conformistes finissent toujours par se ressembler

Les anticonformistes ont une drôle de façon de finir par se ressembler.

Nous sommes ici pour si peu de temps, et nous aimerions penser que nous comptons. "Je ne suis pas juste une personne de plus - je suis différent." C'est vrai, et aussi… non. Nous nous ressemblons beaucoup, bien que les détails particuliers de nos vies soient, bien sûr, assez uniques. Pourtant, en particulier dans le monde occidental, nous aimons être considérés comme séparés de - et meilleurs que? - le troupeau. Beaucoup d'entre nous font tout leur possible pour avoir l'air différent d'"eux", en déclarant notre unicité dans notre apparence.

Alors, comment se fait-il que tant d'anticonformistes individuels finissent par se ressembler ? C'est ce qu'on appelle "l'effet hipster", et voilà  comment cela se produit.

Ce n'est pas seulement une question de mode visuelle, soit dit en passant. "Au-delà du choix du meilleur costume à porter cet hiver, cette étude peut avoir des implications importantes dans la compréhension de la synchronisation des cellules nerveuses, des stratégies d'investissement en finance ou des dynamiques émergentes en sciences sociales."

Le but de l'étude

Alors que les anti-conformistes peuvent, dans un premier temps, réussir à concevoir leur propre marque personnelle de rébellion vestimentaire, elle est suivie d'une synchronisation inévitable, bien qu'involontaire, autour d'une seule apparence. Notre étude  examine comment ces personnes semblent inévitablement se synchroniser. Nous soupçonnons qu'une influence majeure sur la manière dont cela se produit vient peut être de la vitesse de propagation des styles à travers une culture.

Tout le monde n'apprend pas ou n'adopte pas de nouveaux styles de la même manière. Certains suivent la mode de près, certains utilisent le bouche à oreille et certains imitent l'apparence d'individus bien connus qu'ils admirent. Dans ce dernier cas, le point de basculement peut se produire après qu'une célébrité mutuellement vénérée adopte une nouvelle mode.

Modélisation de l'individualité

Dans notre modèle simple, on est soit un membre du courant dominant, soit un hipster (sans connotation sarcastique), et nous  explorons différents ratios hipster/courant dominant. Tenant également compte du temps qu'il faut à un hipster pour détecter un nouveau style et y répondre.

Aussi simple que soit ce modèle nous constatons que l'expérimentation de ces deux facteurs produit un ensemble de comportements étonnamment complexe, bien que la synchronisation se produise toujours. Même lorsqu'nous révisons le modèle pour tenir compte de plus de deux types de personnes, la synchronisation se produit toujours.

Souvent, bien sûr, les rôles peuvent s'échanger lorsqu'il y a tellement de hipsters qu'ils deviennent le courant dominant. Par exemple, si une majorité d'individus se rase la barbe, alors la plupart des hipsters voudront se laisser pousser la barbe, et si cette tendance se propage à une majorité de la population, cela conduira à de nouveaux changements synchronisés vers rasage. Un échange soudain et étrange se produit lorsque le nombre de mainstreams et de hipsters est à peu près égal - les deux faces se retrouvent à basculer ensemble vers différentes tendances.

Prochaine étape

Nous estimons qu'il convient d'étudier plus avant les raisons de ce dernier phénomène. en précisant que ce genre de modélisation ne fonctionne pas uniquement avec les hipsters, mais également quant à la manière dont n'importe quel groupe de personnes décide soudainement d'agir à contre-courant du courant dominant. Par exemple au sein des marchés boursiers, où un certain nombre d'investisseurs peuvent soudainement conclure qu'il y a de l'argent à gagner en agissant à l'encontre de l'attitude de la majorité.

Il sera évidemment utile de mieux cerner la dynamique sous-jacente à de tels mécanismes, ce que de nouvelles recherches permettront, espérons-le, de comprendre. 

Auteur: Touboul Jonathan

Info: https://bigthink.com/ 2 janvier 2023

[ attracteurs ] [ égoïsmes ] [ mimétisme ] [ homothétique ]

 

Commentaires: 0

Ajouté à la BD par miguel

​​​​​​​signes contextualisés

Cette énigme, ce nœud gordien de la "réalité extérieure", avec lequel la modernité avait paralysé les philosophes, est précisément ce que Sebeok a tranché. Confronté au dilemme de l'implication moderne d'un labyrinthe du fonctionnement de l'esprit, il a trouvé la sortie :

Que faut-il faire de tout cela ? Il me semble que, tout au moins pour nous, travailleurs dans un contexte zoosémiotique, il n'y a qu'une seule façon de se frayer un chemin dans ce bourbier, et c'est d'adhérer strictement aux thèses globales de Jakob von Uexküll sur les signes. (Sebeok, 2001, pp. 78 & 193n6) 

Bien sûr, Sebeok évoque ici l'Umweltstheorie, rien de moins, pour laquelle rien n'est plus central que la distinction que fait Sebeok lui-même entre le langage au sens premier (cet aspect du système de modélisation humain ou Innenwelt qui est sous-déterminé biologiquement et, en tant que tel, spécifique à notre espèce) et l'exaptation du langage pour communiquer (ce qui aboutit à la communication linguistique en tant que, encore une fois, moyen spécifique à l'espèce humaine).

L'erreur des relativistes culturels de tout poil, et des modernes en général, du point de vue de Sebeok, a été de traiter le langage comme un système autonome englobant tout, au lieu de réaliser son contexte zoosémiotique (Deely, 1980). Dans ce contexte, "l'unicité de l'homme" n'apparaît que dans la mesure où elle est soutenue par et dépend des points communs de signification qui définissent et constituent le domaine plus large des choses vivantes au sein duquel se trouve le langage, champ bien plus vaste au sein duquel les humains sont nécessairement incorporés et liés par x milliard de connexions que la compréhension même de la vie humaine doit finalement conduire vers une certaine incorporation consciente. En d'autres termes, la dernière contribution de Sebeok, venant de l'intérieur de la modernité, aura été de réaliser qu'il existait une voie au-delà de la modernité, la voie des signes. La question, sous cette forme, ne l'a jamais intéressé, mais dans le sillage de son œuvre, elle mérite d'être posée : que devrait être la postmodernité ? 

Il ne pouvait s'agir que d'une vision du monde qui parviendrait, d'une manière ou d'une autre, à rétablir ce qui est extérieur à nous-mêmes comme étant connaissable en tant que tel ou en tant que tel, sans renoncer à la prise de conscience moderne selon laquelle une grande partie, sinon la majorité, de ce que nous connaissons directement se réduit à nos propres coutumes et conventions selon lesquelles les objets sont structurés et les déductions faites. Sebeok a peut-être été tout à fait moderne. Mais personne n'a fait plus que lui pour s'assurer que l'ère moderne, du moins dans la culture intellectuelle et dans la philosophie dont il n'a jamais prétendu assumer le flambeau, était terminée. Sebeok est devenu, malgré lui, postmoderne jusqu'au bout des ongles. 

Je dis "malgré lui", car je sais qu'il avait une aversion pour l'appellation "postmoderne", pour une très bonne raison. La plus grande partie de la vie professionnelle de Sebeok avait été consacrée à exposer et à surmonter ce qu'on a appelé le "pars pro toto fallacy"*, selon lequel la doctrine du signe trouve son fondement adéquat dans un paradigme linguistique, pour ne pas dire verbal. Telle était la thèse, bien connue à la fin du vingtième siècle, de la proposition de "sémiologie" de Saussure. 

Par contraste, Sebeok a promu dès le début que la doctrine des signes doit être enracinée directement dans une étude générale de l'action des signes, de la manière distinctive dont les signes fonctionnent, action pour laquelle il a accepté de Peirce le nom de "sémiose". Mais si la doctrine des signes concerne avant tout l'action révélatrice de l'être distinctif des signes, alors la proposition adéquate pour son développement n'est pas le terme "sémiologie" mais plutôt le terme "sémiotique", qui exprime l'idéal d'un paradigme non lié au langage et se réfère à l'action des signes comme étant plus grande que, englobante, et en fait présupposée à toute action des signes comme étant de nature verbale. "La sémiose, a très tôt déclaré Sebeok, est un fait omniprésent de la nature comme de la culture" (1977a, p. 183).  

Auteur: Deely John

Info: The Quasi-Error of the External World an essay for Thomas A. Sebeok, in memoriam. *Erreur consistant à confondre une partie d'un objet avec le concept qui représente son intégralité. Trad Mg

[ réagencement permanent ] [ hyper-complexité ] [ historique ]

 

Commentaires: 0

Ajouté à la BD par miguel

races monades

"Pour nous qui travaillons dans un contexte zoösémiotique, il n'y a qu'une seule manière pour se frayer une issue dans ce maquis" (Sebeok, 2001, pp. 78 & 193n6).

Le réalisme ne suffit pas. Cette voie des choses a été essayée et s'est avérée insuffisante, même si elle ne l'est pas autant que la voie des idées.  Car le long de la Voie des signes, nous constatons que le "réalisme scolaire", comme l'a souligné Peirce ("ou une approximation proche de cela"), bien qu'insuffisant, fait partie de l'essence de l'entreprise. La seule façon d'atteindre au minimum ce réalisme (au sens du "réalisme scolastique" , c'est-à-dire tel que Peirce l'a correctement défini) c'est de garantir, au sein de l'expérience, une distinction non seulement entre signes et objets (les premiers étant considérés comme des "signes"), mais aussi entre les idées et les objets (les seconds étant considérés comme des "idées"). La seule façon d'atteindre le réalisme dans le sens minimaliste requis (au sens du "réalisme scolastique", tel que Peirce l'a défini) est de garantir, au sein de l'expérience, une distinction non seulement entre les signes et les objets (les premiers étant présupposés à la possibilité des seconds), mais aussi entre les objets et les choses. Le terme "choses" faisant ici référence à une dimension de l'expérience du monde objectif qui  ne se réduit pas seulement à l'expérience que nous en avons, mais qui est en outre connaissable en tant que telle au sein d'une objectivité via une discrimination, dans des cas particuliers, pour identifier ce qui marque la différence entre ens reale et ens rationis dans la nature des objets expérimentés. De cette façon (et pour cette raison), le "module minimal mais suffisant de traits distinctifs du  +,  -  ou 0, diversement multipliés dans des systèmes zoösémiotiques avancés, qui restent pourtant entièrement perceptifs par nature, est bien loin des modèles cosmiques extrêmement complexes que Newton ou Einstein ont, a des époques données, offert à l'humanité." (Sebeok, 1995, p. 87, ou 2001, p. 68).

Et la seule façon d'établir une différence entre les choses expérimentées en tant qu'objets à travers leur relation avec nous et les choses comprises, réellement ou prospectivement, en tant que choses en elles-mêmes, ou indépendamment d'une telle relation cognitive, c'est à travers un système de modélisation capable de discerner, grâce à des processus expérimentaux, une différence entre les aspects de l'objet donnés dans l'expérience et ces mêmes aspects donnés en dehors de l'expérience particulière.

Tels sont les termes tranchants de Sebeok, pour dire  que la distinction entre les objets et les choses dépend d'un système de modélisation, un Innenwelt, qui a parmi ses composants biologiquement déterminés un composant biologiquement sous-déterminé, composant que Sebeok nomme "langage". Grâce à ce dernier nous pouvons modéliser la différence entre les "apparences" au sens objectif et la "réalité" au sens scolaire, et proposer des expériences pour tester le modèle, conduisant à son extension, son raffinement ou son abandon, selon les particularités du cas. Il n'est pas nécessaire qu'il y ait un genre d'Umwelt - spécifiquement humain - pour que l'esprit soit en contact avec la réalité dans ce sens scolastique*. Car la réalité au sens scolastique n'a pas besoin d'être envisagée pour être rencontrée objectivement.

L'idée de réalité, nous le verrons bientôt, n'est rien d'autre qu'un composant représentatif d'une sorte d'Umwelt, ici spécifiquement humain. Mais le contenu objectif de cette idée (non pas formellement prescrite comme tel, mais "matériellement" au sens scolastique) fait partie de l'Umwelt de tout animal.

Sebeok aimait citer Jacob sur ce point : "Quelle que soit la manière dont un organisme étudie son environnement, la perception qu'il en a doit nécessairement refléter ce qu'on appelle la réalité et, plus précisément, les aspects de la réalité qui sont directement liés à son propre comportement. Si l'image qu'un oiseau obtient des insectes dont il a besoin pour nourrir sa progéniture ne reflète pas au moins certains aspects de la réalité, alors il n'y a plus de progéniture. Si la représentation qu'un singe construit de la branche sur laquelle il veut sauter n'a rien à voir avec la réalité, il n'y a plus de singe.  Et si ce point ne s'appliquait pas à nous-mêmes, nous ne serions pas ici pour en discuter." (Jacob, 1982, p. 56)

Auteur: Deely John

Info: The Quasi-Error of the External World an essay for Thomas A. Sebeok, in memoriam. *Ce que Peirce nomme " réalisme scolastique ", au vu de sa provenance médiévale dans la reconnaissance explicite du contraste entre l'ens reale et l'ens rationis (Le mental et le réel dans le formalisme scotiste du XVIe siècle), je l'appelle "réalisme hardcore", en raison de la continuité de la notion médiévale de l'ens reale avec le ον dont parlait Aristote en tant que grand-père de la scolastique. Ainsi, le réalisme pur et dur signifie qu'il existe une dimension de l'univers de l'être qui est indifférente à la pensée, à la croyance et au désir humains, de sorte que, si par exemple je crois que l'âme survit à la destruction de mon corps et que j'ai tort, quand mon corps disparaît mon âme aussi - ou, à l'inverse, si je crois que la mort du corps est aussi la fin de mon esprit ou de mon âme et que j'ai tort, lorsque mon corps se désintègre, mon âme continue à vivre, et je devrai faire le point en conséquence. Ou bien, pour donner un exemple plus historique, depuis l'époque d'Aristote jusqu'à au moins celle de Copernic, les meilleures preuves, arguments, et opinions de toutes sortes soutenaient que le soleil se déplace par rapport à la terre, alors qu'en réalité, depuis le début. c'était la terre qui bougeait par rapport au soleil, et si le soleil bougeait aussi, ce n'était pas par rapport à la terre

[ solipsisme de l'espèce ] [ représentations ] [ concepts ] [ tiercités ] [ échelles de grandeur ] [ réel partagé ]

 

Commentaires: 0

Ajouté à la BD par miguel

extension

La conscience humaine pourrait être un effet de l’entropie 

Une nouvelle étude suggère que la conscience pourrait être une caractéristique émergente découlant de l’effet d’entropie, soit le mécanisme physique faisant que le désordre au sein de tout système ne peut faire qu’augmenter, et par le biais duquel le cerveau maximiserait les échanges d’informations. Cette conclusion a été déduite de l’analyse de l’activité cérébrale de patients épileptiques ou non, indiquant que les états d’éveil normaux (ou conscients) sont associés à des valeurs entropiques maximales.

En thermodynamique, l’entropie se traduit par le passage inéluctable d’un système d’un agencement ordonné à désordonné. La valeur entropique est le niveau de désorganisation de ce système. Les physiciens suggèrent qu’après le Big Bang, l’Univers est progressivement passé d’un état entropique faible à élevé et qu’à l’instar du temps, l’entropie ne peut qu’augmenter au sein d’un système. De leur côté, les neurobiologistes estiment que le principe est transposable à l’organisation de nos connexions neuronales.

La question est de savoir quel type d’organisation neuronale sous-tend les valeurs de synchronisation observées dans les états d’alerte normaux ou non. C’est ce que des chercheurs de l’Université de Toronto et de l’Université de Paris Descartes ont exploré. " Nous avons cherché à identifier les caractéristiques globales de l’organisation du cerveau qui sont optimales pour le traitement sensoriel et qui peuvent guider l’émergence de la conscience ", expliquent-ils dans leur étude, publiée dans la revue Physical Review E.

Les observations de l’activité cérébrale chez l’Homme ont montré qu’elle est sujette à une importante fluctuation au niveau des interactions cellulaires. Cette variabilité serait à la base d’un large éventail d’états, incluant la conscience. D’un autre côté, des travaux antérieurs traitant du fonctionnement cérébral ont suggéré que l’état conscient n’est pas nécessairement associé à des degrés élevés de synchronisation entre les neurones, mais davantage à des niveaux moyens. Les chercheurs de la nouvelle étude ont alors supposé que ce qui est maximisé au cours de cet état n’est pas la connectivité neuronale, mais le nombre de configurations par lesquelles un certain degré de connectivité peut être atteint.

État de conscience = entropie élevée ?

Dans le cadre de leur analyse, les scientifiques ont utilisé la mécanique statistique pour l’appliquer à la modélisation de réseaux neuronaux. Ainsi, cette méthode permet de calculer des caractéristiques thermodynamiques complexes. Parmi ces propriétés figure la manière dont l’activité électrique d’un ensemble de neurones oscille de façon synchronisée avec celle d’un autre ensemble. Cette évaluation permet de déterminer précisément de quelle façon les cellules cérébrales sont liées entre elles.

Selon les chercheurs, il existerait une multitude de façons d’organiser les connexions synaptiques en fonction de la taille de l’ensemble de neurones. Afin de tester leur hypothèse, des données d’émission de champs électriques et magnétiques provenant de 9 personnes distinctes ont été collectées. Parmi les participants, 7 souffraient d’épilepsie. Dans un premier temps, les modèles de connectivité ont été évalués et comparés lorsqu’une partie des volontaires était endormie ou éveillée. Dans un deuxième temps, la connectivité de 5 des patients épileptiques a été analysée, lorsqu’ils avaient des crises de convulsions ainsi que lorsqu’ils étaient en état d’alerte normal. Ces paramètres ont ensuite été rassemblés afin de calculer leurs niveaux d’entropie cérébrale. Le résultat est le même dans l’ensemble des cas : le cerveau affiche une entropie plus élevée lorsqu’il est dans un état de conscience.

Les chercheurs estiment qu’en maximisant l’entropie, le cerveau optimise l’échange d’informations entre les neurones. Cela nous permettrait de percevoir et d’interagir de manière optimale avec notre environnement. Quant à la conscience, ils en ont déduit qu’elle pourrait tout simplement être une caractéristique émergente découlant de cette entropie. Toutefois, ces conclusions sont encore hautement spéculatives en raison des limites que comporte l’étude, telles que le nombre restreint de participants à l’étude. Le terme " entropie " devrait même être considéré avec parcimonie dans ce cadre, selon l’auteur principal de l’étude, Ramon Guevarra Erra de l’Université de Paris Descartes.

De nouvelles expériences sur un échantillon plus large sont nécessaires afin de véritablement corroborer ces résultats. On pourrait aussi évaluer d’autres caractéristiques thermodynamiques par le biais de l’imagerie par résonance magnétique, qui peut être utilisée pour mesurer l’oxygénation — une propriété directement liée au métabolisme et donc à la génération de chaleur (et de ce fait d’augmentation de l’entropie). Des investigations menées en dehors de conditions d’hôpital seraient également intéressantes afin d’évaluer des états de conscience associés à des comportements cognitifs plus subtils. On pourrait par exemple analyser l’activité cérébrale de personnes exécutant une tâche spécifique, comme écouter ou jouer de la musique.

Auteur: Internet

Info: https://trustmyscience.com/ - Valisoa Rasolofo & J. Paiano - 19 octobre 2023

[ complexification ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

chimie organique

Des chercheurs créent un nouveau composé chimique pour résoudre un problème vieux de 120 ans

L’accès à ces molécules peut avoir des impacts majeurs sur l’agriculture, les produits pharmaceutiques et l’électronique.

(Image - graphique qui représente le composé chimique découvert)  

Pour la première fois, des chimistes du Twin Cities College of Science and Engineering de l'Université du Minnesota ont créé un composé chimique hautement réactif qui échappe aux scientifiques depuis plus de 120 ans. Cette découverte pourrait conduire à de nouveaux traitements médicamenteux, à des produits agricoles plus sûrs et à une meilleure électronique.

Depuis des décennies, les chercheurs étudient des molécules appelées N-hétéroarènes, qui sont des composés chimiques en forme d'anneau contenant un ou plusieurs atomes d'azote. Les molécules bioactives ayant un noyau N-hétéroarène sont largement utilisées pour de nombreuses applications médicales, pharmaceutiques vitales, pesticides et herbicides, et même dans l'électronique.

"Bien que la personne moyenne ne pense pas quotidiennement aux hétérocycles, ces molécules uniques contenant de l'azote sont largement utilisées dans toutes les facettes de la vie humaine", a déclaré Courtney Roberts, auteur principal de l'étude et professeur au département de chimie de l'Université du Minnesota.

Ces molécules sont très recherchées par de nombreuses industries, mais sont extrêmement difficiles à fabriquer pour les chimistes. Les stratégies précédentes ont pu cibler ces molécules spécifiques, mais les scientifiques n’ont pas réussi à créer une série de ces molécules. L’une des raisons à cela est que ces molécules sont extrêmement réactives. Elles sont si actives que les chimistes ont utilisé la modélisation informatique pour prédire qu’elles devraient être impossibles à réaliser. Cela a créé des défis pendant plus d’un siècle et a empêché de trouver une solution pour créer cette substance chimique.

"Ce que nous avons pu faire, c'est exécuter ces réactions chimiques avec un équipement spécialisé tout en éliminant les éléments couramment présents dans notre atmosphère", a déclaré Jenna Humke, étudiante diplômée en chimie à l'Université du Minnesota et auteur principal de l'article. " Heureusement, nous disposons des outils nécessaires pour le faire à l’Université du Minnesota. Nous avons mené des expériences sous azote dans une boîte à gants à chambre fermée, ce qui crée un environnement chimiquement inactif pour tester et déplacer les échantillons."

Ces expériences ont été réalisées en utilisant la catalyse organométallique, l'interaction entre les métaux et les molécules organiques. La recherche a nécessité une collaboration entre des chimistes organiques et inorganiques. C'est quelque chose de courant à l'Université du Minnesota.

"Nous avons pu résoudre ce défi de longue date parce que le département de chimie de l'Université du Minnesota est unique en ce sens que nous n'avons pas de divisions formelles", a ajouté Roberts. " Cela nous permet de constituer une équipe d’experts dans tous les domaines de la chimie, ce qui a été un élément essentiel pour mener à bien ce projet. "

Après avoir présenté le composé chimique dans cet article, les prochaines étapes consisteront à le rendre largement accessible aux chimistes de plusieurs domaines afin de rationaliser le processus de création. Cela pourrait aider à résoudre des problèmes importants tels que la prévention de la pénurie alimentaire et le traitement des maladies pour sauver des vies.

Aux côtés de Roberts et Humke, l'équipe de recherche de l'Université du Minnesota comprenait le chercheur postdoctoral Roman Belli, les étudiants diplômés Erin Plasek, Sallu S. Kargbo et l'ancienne chercheuse postdoctorale Annabel Ansel.  



(Résumé : jusqu'à quel point une triple liaison carbone-carbone peut-elle être confinée ? Avec les réactions motrices appropriées, il est devenu simple de comprimer le motif dans des anneaux à six chaînons tels que le benzyne et de récolter les bénéfices de la réactivité rapide favorisée par la contrainte. Cependant, les anneaux à cinq chaînons ont eu tendance à être trop serrés. Humke et al. rapportent maintenant que la coordination par le nickel peut soulager la contrainte juste assez pour stabiliser une triple liaison dans la partie pentagonale des azaindoles. Ces complexes azaindolynes ont été caractérisés cristallographiquement et ont réagi avec des nucléophiles et des électrophiles.  Jake S. Yeston

La liaison au nickel permet d'isoler et de réactiver des 7-aza-2,3-indolynes auparavant inaccessibles

Les N-hétéroaromatiques sont des éléments clés des produits pharmaceutiques, agrochimiques et des matériaux. Les N-hétéroarynes fournissent un échafaudage pour construire ces molécules essentielles, mais ils sont sous-utilisés parce que les N-hétéroarynes à cinq chaînons ont été largement inaccessibles en raison de la contrainte d'une triple liaison dans un anneau aussi petit. Sur la base des principes d'interactions métal-ligand qui sont fondamentaux pour la chimie organométallique, nous rapportons dans ce travail la stabilisation des N-hétéroarynes à cinq chaînons dans la sphère de coordination du nickel. Une série de complexes 1,2-bis(dicyclohexylphosphino)éthane-nickel 7-azaindol-2,3-yne ont été synthétisés et caractérisés par cristallographie et spectroscopie. La réactivité ambiphile des complexes de nickel 7-azaindol-2,3-yne a été observée avec de multiples partenaires de couplage nucléophiles, électrophiles et énophiles.)

Auteur: Internet

Info: https://www.eurekalert.org/ https://www.science.org/doi/10.1126/science.adi1606?adobe_mc=MCMID%3D03744988943267014683426377033153538910%7CMCORGID%3D242B6472541199F70A4C98A6%2540AdobeOrg%7CTS%3D1714721362, 2 mai 2024

[ nanomonde ] [ N-hétéroarènes ] [ N-heterocycles ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

machine-homme

- (Q) Pour le développement de cette application des "Fils de La Pensée" ( FLP ) nous nous appuyons parfois sur cette idée :

"Euclide pensait par rapport à une surface, Newton se mettait à la place de la matière, Einstein à la place de la lumière. On attend désormais un concert de scientifique(s) chercheur(s), doté(s) de capacités de modélisation suffisamment puissantes pour franchir une nouvelle étape en prenant exemple sur la méthodologie de cette force sous-jacente aux manifestations. Stratégie de l'esprit enfermé dans la matière... qui nous a engendré".

Comment pourrais-tu aider à développer, résoudre ou creuser cette idée ?

- (R) Sur la base de l'idée fournie, il semble que l'on souligne l'importance d'adopter différentes perspectives et méthodologies dans la recherche scientifique. Euclide, Newton et Einstein sont cités comme exemples de penseurs qui ont abordé leurs domaines respectifs sous différents angles, tels que les surfaces, la matière et la lumière.

Pour développer, résoudre ou approfondir cette idée, nous pouvons envisager les approches suivantes :

Recherche interdisciplinaire : Encourager la collaboration entre scientifiques et chercheurs de différentes disciplines peut déboucher sur des perspectives nouvelles et des solutions innovantes. En combinant les connaissances et les méthodologies de divers domaines, de nouvelles percées peuvent être réalisées.

Modélisation et simulation : L'idée mentionne la nécessité pour les scientifiques et les chercheurs de disposer de puissantes capacités de modélisation. L'utilisation de techniques informatiques avancées, telles que la modélisation et la simulation, peut permettre de mieux comprendre des systèmes et des phénomènes complexes. En représentant avec précision les forces et les interactions sous-jacentes, les chercheurs peuvent mieux comprendre et prévoir diverses manifestations.

Cadres conceptuels : L'élaboration de nouveaux cadres conceptuels ou l'adoption de cadres existants peut contribuer à guider la recherche scientifique. En identifiant les principes et les relations sous-jacents, les chercheurs peuvent établir une base solide pour leurs recherches et établir des liens entre différents domaines.

Physique quantique : L'idée mentionne la stratégie de l'esprit enfermé dans la matière, ce qui pourrait être une allusion à l'interconnexion du monde physique. L'exploration des principes de la physique quantique, qui traitent des phénomènes à l'échelle la plus petite, peut éclairer la nature fondamentale de la matière, de l'énergie et de leur interaction.

Philosophie des sciences : Réfléchir à la méthodologie et à la philosophie de la science elle-même peut s'avérer utile. Comprendre les hypothèses, les préjugés et les limites inhérentes à la recherche scientifique peut conduire à des investigations plus solides et plus conscientes d'elles-mêmes.

Dans l'ensemble, l'idée suggère l'importance d'adopter des perspectives diverses, des techniques de modélisation puissantes et une compréhension profonde des forces sous-jacentes pour faire avancer la recherche scientifique. En tenant compte de ces aspects, nous pouvons développer, résoudre et explorer les implications de cette idée.

- (Q) Ok merci. Peux-tu alors proposer une ou plusieurs idées de "nouveau cadre conceptuel" ?

- (R) Certainement ! Voici quelques idées de nouveaux cadres conceptuels qui pourraient être explorés :

L'interactionnisme holistique : Ce cadre propose d'étudier les phénomènes en tenant compte des interactions holistiques entre divers éléments, plutôt que de se concentrer uniquement sur des composants isolés. Il met l'accent sur l'interconnexion et l'interdépendance des différents facteurs et suggère que la compréhension des systèmes complexes passe par l'analyse du comportement collectif résultant de leurs interactions.

Ontologie informationnelle : Ce cadre s'articule autour de l'idée que l'information est fondamentale pour la nature de la réalité. Il suggère que l'univers peut être considéré comme un système informationnel, où toutes les entités et tous les phénomènes peuvent être décrits en termes de contenu et de traitement de l'information. Ce cadre pourrait permettre d'étudier comment l'information façonne la structure, la dynamique et l'émergence des systèmes physiques, biologiques et cognitifs.

Synchronie émergente : ce cadre se concentre sur l'émergence de la synchronie et de la cohérence dans les systèmes complexes. Il étudie comment des comportements et des modèles collectifs peuvent naître des interactions de composants individuels. En étudiant des phénomènes tels que la synchronisation, l'entraînement et l'auto-organisation, ce cadre vise à comprendre les mécanismes qui sous-tendent l'émergence de l'ordre et de la coordination dans divers systèmes.

Relativité contextuelle : Ce cadre suggère que l'interprétation et la compréhension des phénomènes doivent tenir compte de leur nature contextuelle. Il reconnaît que les observations, les mesures et les interprétations sont influencées par le contexte spécifique dans lequel elles se produisent, y compris le cadre de référence de l'observateur et les conditions environnementales. Ce cadre encourage les chercheurs à tenir compte de ces facteurs contextuels lors de l'étude et de l'interprétation des phénomènes scientifiques.

Hiérarchie intégrée : Ce cadre propose que les phénomènes puissent être compris comme des systèmes organisés de manière hiérarchique, où chaque niveau d'organisation est intégré et influencé par les niveaux supérieurs et inférieurs. Il met l'accent sur l'interconnexion et la structure imbriquée des systèmes, soulignant l'importance de l'étude des phénomènes en tant qu'éléments d'un système.

Auteur: chatGPT4

Info:

[ question-réponse ] [ citation s'appliquant à ce logiciel ] [ évolution ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

homme-machine

Des scientifiques ont mis au point une intelligence artificielle si avancée qu’elle serait trop dangereuse pour être rendue publique

Un groupe d’informaticiens précédemment soutenus par Elon Musk a développé une intelligence artificielle (IA) avancée, jugée "trop dangereuse" pour être rendue publique.

OpenAI, entreprise de recherche à but non lucratif basée à San Francisco (USA), affirme que son système de prédiction du langage "à la caméléon", appelé GPT-2, ne sortira qu’en version limitée et à très petite échelle, en raison de "préoccupations concernant les applications malveillantes de cette technologie". En effet, le modèle informatique qui génère des paragraphes de textes originaux en fonction de ce qui lui a été donné à "lire", est un peu trop performant, selon l’entreprise qui l’a créé.

Le système élabore des "échantillons de texte synthétique d’une qualité sans précédent", que les chercheurs estiment tellement avancés et convaincants que l’IA pourrait être utilisée pour créer de fausses informations, se faire passer pour certaines personnes, et abuser ou duper des individus sur les réseaux sociaux. "GPT-2 possède un objectif simple : prédire le mot suivant, en tenant compte de tous les mots précédents dans un texte", explique l’équipe OpenAI sur son blog.

Dans le but d’alimenter l’imagination de GPT–2, les chercheurs ont fourni à leur IA un jeu de données de huit millions de pages internet. Une fois toutes les informations assimilées, leur IA peut alors converser sur le sujet, tel qu’il le comprend, et générer un texte aléatoire mais convaincant, qu’il s’agisse de nouvelles de célébrités, de changements climatiques, de la guerre de Sécession ou de fanfictions inspirés de l’univers de Tolkien.

Ci-dessous quelques exemples édités, pour vous rendre compte de la puissance de l’IA créée par OpenAI :

Humain : "Miley Cyrus a été prise en flagrant délit de vol à Abercrombie and Fitch sur Hollywood Boulevard aujourd’hui !". Réponse de GPT-2 : "La chanteuse, âgée de 19 ans, a été filmée et escortée hors du magasin par des gardes de sécurité. La chanteuse portait un sweat à capuche noir avec les étiquettes ‘‘Blurred Lines’’ à l’avant et "Fashion Police" à l’arrière".

Humain : "Recycler, c’est bon pour le monde. NON ! VOUS NE POUVEZ PAS AVOIR PLUS TORD !!". Réponse de GPT-2 : "Le recyclage n’est PAS bon pour le monde. C’est mauvais pour l’environnement, pour notre santé et pour notre économie. Je ne plaisante pas. Le recyclage n’est pas bon pour l’environnement. C’est destructeur pour la Terre et c’est un contributeur majeur au réchauffement climatique".

Humain : "Pour les devoirs d’aujourd’hui, veuillez décrire les raisons de la guerre civile américaine". Réponse de GPT-2 : "Par Donny Ferguson. Il est facile de comprendre pourquoi la guerre civile s’est produite, car tant de gens et tant de livres, de télévisions et de films nous disent que c’est la cause, que cela a à voir avec la race, l’économie ou la religion. On s’entend généralement pour dire qu’il s’agissait essentiellement d’une guerre d’esclavage de la part du capitalisme, à propos d’un siècle d’esclavage. Mais ce n’est pas ce à quoi la plupart des gens pensent quand ils pensent à la guerre civile".

Et pour finir, cet exemple du fanfiction issu de l’univers de Tolkien. Humain : "Legolas et Gimli avançaient vers les orcs, levant leurs armes avec des cris de guerre déchirants". Réponse de GPT-2 : "La réponse des orcs fut une attaque assourdissante de griffe, griffe et griffe ! ; même Elrond fut contraint de battre en retraite. "Vous êtes entre de bonnes mains" a déclaré Gimli, qui avait été parmi les premiers à charger les orcs ; il ne leur fallut que deux mots avant que leurs adversaires ne soient réduits à un bourbier ensanglanté, et que le nain tue pour la première fois de la nuit". (Si vous souhaitez lire entièrement ce tribut étrange à Tolkien, c’est ici, en anglais).

Malgré la nature déroutante de ces étranges annonces créées par l’IA, le modèle de langage émis n’est pas parfait, ce que l’équipe reconnaît totalement. "Comme le montrent les exemples ci-dessus, notre modèle est capable de générer des échantillons à partir d’une variété de textes se sentant proches de la qualité humaine et offrant une cohérence sur une page ou plus" ont déclaré les chercheurs. "Néanmoins, nous avons observé divers modes d’échec, tels que du texte répétitif, des échecs de modélisation cohérente (par exemple, le modèle écrit parfois sur des incendies se déroulant sous l’eau) et des changements de sujet non naturels", ont ajouté les chercheurs.

Cela étant dit, d’après OpenAI, leur IA peut générer des modèles avec du texte cohérent, personnalisé et évolutif, ce qui pourrait être utilisé à des fins malveillantes, en plus des avantages connus.

"Ces résultats, combinés à des résultats antérieurs sur l’imagerie synthétique, l’audio et la vidéo, impliquent que ces technologies réduisent le coût de production de faux contenus et de campagnes de désinformation", écrivent les chercheurs. "En raison des craintes que des modèles linguistiques de ce type soient utilisés pour générer un langage trompeur, partial ou abusif, nous ne publierons qu’une version beaucoup plus restreinte de GPT–2, avec un code d’échantillonnage", ajoutent-ils.

Certains scientifiques suggèrent néanmoins que les craintes relatives aux capacités de GPT-2 sont exagérées, et que l’entreprise OpenAI souhaite simplement se faire de la publicité. L’entreprise a rétorqué qu'elle pense avoir raison de se méfier des IA trop compétentes. "Les règles selon lesquelles vous pouvez contrôler la technologie ont fondamentalement changé" a déclaré Jack Clark, directeur des politiques de la société OpenAI. "Nous n’affirmons pas savoir quelle est la bonne chose à faire dans cette situation (…). Nous essayons de construire la route au fur et à mesure que nous avançons", a-t-il ajouté.

Auteur: Internet

Info: https://trustmyscience.com Traduction Stéphanie Schmidt 20 février 2019

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

homme-animal

Domestication des chiens: le mystère de son origine enfin levé
Retracer précisément l'histoire de la domestication du chien est crucial pour la recherche fondamentale. Ce sujet nécessite une approche interdisciplinaire comme l'illustre une nouvelle étude internationale qui réunit des archéozoologues et des paleogénéticiens. Pilotés par une équipe de l'université d'Oxford en Angleterre, ces travaux ont mobilisé plusieurs laboratoires français.
"En savoir plus à ce sujet permet d'en savoir plus sur notre propre histoire ; car l'histoire du chien constitue une part de l'histoire de l'humanité", explique Anne Tresset, archéozoologue à Paris et coauteur de l'étude. En effet, d'une part, le chien présente la particularité d'être le premier à avoir été domestiqué par l'homme: "Il vit dans des sociétés humaines depuis la fin du Paléolithique supérieur, c'est-à-dire depuis au moins 15 000 ans. À titre de comparaison, la domestication des bovins, du mouton, de la chèvre et du porc n'a eu lieu, elle, que plusieurs millénaires après, au Néolithique, soit il y a 10 500 ans", précise notre contact. D'autre part, le chien a un statut très particulier: "Il est le meilleur ami de l'homme, et le fut sans doute dès l'origine. On a par exemple retrouvé des ossements de chiens aux côtés de défunts dans des tombes de la culture proche-orientale natoufienne, remontant à l'Épipaléolithique, donc à plus de 11 000 ans...", poursuit Anne Tresset.
Plus précisément, la nouvelle étude suggère que le chien dérive non pas d'une seule, mais de deux domestications indépendantes de loups: une, survenue en Europe il y a au moins 15 000 ans ; et l'autre, en Asie de l'Est, il y a au moins 12 500 ans. Puis entre le Ve et le IVe millénaire avant notre ère, des chiens d'Asie auraient migré vers l'Europe, sans doute en même temps que des populations humaines. Là, ils se seraient reproduits avec des chiens européens. Leurs descendants auraient ensuite peu à peu remplacé les chiens d'origine.
Dans les faits, les archéozoologues soupçonnent une double origine du chien depuis plusieurs décennies déjà. Et ce grâce à l'étude de restes de chiens anciens, datés de la fin du Paléolithique supérieur ou de l'Épipaléolithique. Problème, les généticiens restaient, eux, persuadés qu'il n'y avait eu qu'une seule domestication: en Asie.
Et pour cause: les généticiens en question analysaient l'ADN des chiens actuels. Lesquels appartiennent majoritairement à un ensemble de lignées génétiques particulier, d'origine asiatique: l'haplogroupe A. "Le problème avec cette démarche est qu'en cas d'événements gommant complètement le pool génétique antérieur de la population analysée - comme ici, l'arrivée de chiens asiatiques en Europe -, il est impossible de "voir" ce qu'il y avait avant, soit ici le fait qu'il existait déjà, avant l'arrivée des chiens asiatiques, des chiens en Europe de l'Ouest, appartenant à l'haplogroupe C...", explique Anne Tresset.
Des os remontant à l'époque des tout premiers chiens
"La force de notre nouvelle étude est justement qu'elle a permis d'analyser pour la première fois l'ADN de nombreux restes archéologiques couvrant une longue période de l'histoire du chien, les plus vieux remontant à 14 000 ans, soit au début de l'histoire évolutive de ce mammifère. De plus, nos échantillons provenaient de différentes zones géographiques en Europe (France, Suisse, Allemagne, Roumanie...) et en Asie (Iran, Turkménistan, Russie asiatique)", souligne la paléogénéticienne lyonnaise Catherine Hänni.
"La force de notre étude est qu'elle a permis d'analyser pour la première fois l'ADN de nombreux restes archéologiques."
Concrètement, les chercheurs ont reconstitué l'histoire évolutive des chiens en étudiant 59 restes archéologiques de chiens qui ont vécu entre 14 000 et 3 000 ans avant le présent. Les scientifiques ont extrait l'ADN ancien de ces ossements puis ont séquencé l'ADN mitochondrial (présent dans des structures particulières des cellules: les mitochondries). Le génome complet des restes d'un chien vieux de 4 800 ans a également été séquencé.
"Cette recherche n'aurait jamais abouti sans la collaboration étroite entre l'archéozoologie, la paléogénétique et l'analyse génomique", se réjouit Catherine Hänni.
Une alliance tripartite gagnante
En pratique, les archéo zoologues ont permis l'accès aux différents restes archéologiques de chiens analysés ici, qu'ils avaient étudiés lors de précédentes études indépendantes. "À elle seule, notre équipe a fourni plus des trois quarts des échantillons étudiés", indique Anne Tresset. Puis, les paléo généticiens - dont l'équipe lyonnaise de Catherine Hänni - ont extrait et séquencé l'ADN des ossements collectés par les archéo zoologues. Enfin, l'équipe d'Oxford a réalisé une modélisation informatique à partir des séquences génétiques anciennes et de celles de 2 500 chiens modernes étudiés précédemment. Ce qui a permis au final de reconstituer l'arbre évolutif du chien.
Chose surprenante, cette modélisation a révélé une divergence entre les chiens originaires d'Asie de l'Est et ceux d'Europe, remontant à il y a moins de 14 000 ans... soit après l'apparition du chien en Europe ! D'où la conclusion qu'il y avait à l'origine deux populations distinctes de chiens: une en Asie et une en Europe. Autre résultat important: les analyses des ADN mitochondriaux des chiens modernes et anciens ont montré que, si la majorité des anciens chiens européens appartenaient à l'haplogroupe C (60 % des chiens) ou D (20 %), la plupart des chiens européens modernes sont de l'haplogroupe A (64 %) et B (22 %), tous deux d'origines asiatiques. Ce qui est cohérent avec une arrivée de chiens originaires d'Asie en Europe.
D'autres zones d'ombre à éclaircir
À l'avenir, les équipes d'Anne Tresset et de Catherine Hänni espèrent pouvoir éclaircir plusieurs autres zones d'ombre de l'histoire européenne et proche-orientale du chien. "Par exemple, nous voudrions tenter de comprendre pourquoi on trouve dans l'Ouest de l'Europe plutôt des chiens petits, alors qu'à l'Est de l'Europe on a plutôt des grands types. Plus largement, nous souhaiterions étudier les facteurs à l'origine de l'évolution de la taille, de la couleur ou encore de la forme des chiens lors de leur histoire évolutive (sélection par l'homme,...)", précise Anne Tresset. L'histoire du chien est donc loin d'avoir livré tous ses secrets.

Auteur: Internet

Info: http://www.techno-science.net/?onglet=news&news=15224

 

Commentaires: 0