Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 37
Temps de recherche: 0.0559s

savoirs consensuels

Le monde objectif de l'expérience humaine est donc au mieux un mélange de nature et de culture, mais un mélange dans lequel les modèles formels prédominants proviennent davantage de la culture que de la nature. Ces modèles formels de la culture sous-tendent la présentation des objets dont nous faisons directement l'expérience. La situation à cet égard n'était en fait pas différente pour les anciens ou les médiévaux, mais ils n'étaient pas conscients de ce fait. Qui sont nos parents ? Voilà ce dont dépend le système de parenté qui prévaut dans la culture qui nous a imprégné. Quelle est notre religion ? Si l'on tient compte des exceptions individuelles, là encore la réponse dépend principalement du contexte et des circonstances historiques au sein desquelles nous avons grandi.  

Les modernes, s'éveillant à tout cela, avaient de bonnes raisons de voir dans les objets expérimentés de pures créations du travail de l'esprit humain. Même la science pourrait être réduite à cela : telle fut l'expérience kantienne, entreprise sous l'impulsion des discours de Hume qui affirmait qu'il n'y avait rien de plus à expérimenter que les associations habituelles entre les objets. Si toutes les pensées reflètent de simples habitudes, et si tous les objets ne peuvent être considérés que comme des auto-représentations mentales, quels que soient les doutes que nous puissions avoir sur la base du "bon sens" quant à l'idée d'un monde indépendant de nous, le scepticisme demeure la garantie finale de toute connaissance. Ce qui, pour Kant, c'était inacceptable. Il pouvait avaler tout ce que ses prédécesseurs traditionnels lui avaient enseigné, mais pas le scepticisme. Leur erreur, selon lui, avait été de réduire la connaissance à la subjectivité - c'est-à-dire qu'elle consistait à attribuer les idées de l'esprit individuel aux objets de l'expérience directe. Ils ne pouvaient saisir que la connaissance est essentiellement de structure relationnelle, et que les relations sont au-dessus du sujet. Ainsi, les idées dans l'individu donnent naissance ou "fondent" des relations cognitives avec les objets. Mais ces objets sont ce sur quoi les relations finissent, et non ce sur quoi les relations sont fondées et d'où elles proviennent. Et la manière dont ces relations sont générées pour donner forme aux objets est conforme à un modèle intégré, a-priori, dans l'esprit humain.

Or, lorsqu'il s'agit des objets de la connaissance spécifiquement scientifique, selon Kant, nous avons affaire à une universalité et une nécessité qui proviennent de l'esprit et non d'une simple habitude ou d'une généralisation usuelle. Même si le monde extérieur reste inconnaissable en tant que tel, nous savons néanmoins qu'il est là ; et notre façon de le penser intellectuellement n'est pas capricieuse ou culturellement relative mais universelle et nécessaire, identique pour tous les humains. Même si nous ne connaissons que ce que nos représentations donnent à connaître, et que ces représentations sont entièrement le fait de notre esprit, il n'en reste pas moins qu'elles deviennent des objetsm non par association, mais bien a priori, indépendamment des aléas de la coutume et de l'expérience individuelle ; et leur contenu cognitif n'est pas subjectif mais objectif, c'est-à-dire donné au terme de relations que nos représentations ont été les seules à trouver. Le noyau scientifique de l'expérience humaine, contrairement à la conviction animant les scientifiques eux-mêmes, mais selon le philosophe moderne Kant, est prospectivement le même pour tous parce que le mécanisme sensoriel générant les représentations impliquées et le mécanisme conceptuel organisant les relations découlant de ces représentations est le même pour tous : des causes semblables entraînent toujours toujours des effets semblables. Telle est la version de Kant de l'adage médiéval, agens facit simile sibi . Grâce à ce simple expédient, Kant pensait avoir réglé l'objectivité de la connaissance et mis à distance le scepticisme. Le scandale de ne pas être en mesure de prouver qu'il existe un monde extérieur à l'esprit humain était ainsi supprimé par la démonstration qu'effectivement il y a un domaine inconnaissable qu'on ne peut pas atteindre, et ce domaine est précisément le monde extérieur, dont on sait avec certitude qu'il existe puisqu'il stimule nos représentations (via la perception sensorielle) et inconnaissable en soi (avec un mécanisme de concepts qui ne produisent de la connaissance que par corrélation avec les représentations des intuitions sensorielles pour aboutir un autre domaine inatteignable, le noumène, pour qui essaye d'aller  au-delà de la limite de ce qui est représenté par ces  perceptions sensorielles).

Auteur: Deely John

Info: The Quasi-Error of the External World an essay for Thomas A. Sebeok, in memoriam

[ limitation anthropique ]

 

Commentaires: 0

Ajouté à la BD par miguel

disponibilité mentale

Une zone du cerveau qui serait la porte de la conscience

Le cortex insulaire antérieur serait la porte de la conscience, d'après de nouveaux travaux américains. Inactivée, elle empêcherait la prise de conscience des stimuli.

Parmi les milliers de stimuli visuels, auditifs ou autres que notre cerveau traite en continu chaque jour, seuls certains passent la porte de notre conscience. Mais le mécanisme qui permet de sélectionner les stimuli dont nous avons conscience des autres n'est toujours pas clair. Pour des chercheurs du Center for Consciousness Science du Michigan Medicine (Etats-Unis), la clé se situerait dans une partie de notre cerveau appelée le cortex insulaire antérieur. Ces travaux sont publiés dans la revue Cell Reports.

LES 4 THÉORIES DE LA CONSCIENCE. Pour comprendre, mais aussi pour analyser les observations issues des expériences, la science de la conscience a besoin de théories. Il en existe quatre principales : l’espace de travail global, l’ordre supérieur, l’information intégrée et le processus récurrent ou de premier ordre. Pour en savoir plus, lisez le passionnant numéro de La Recherche d'avril-juin 2021 !

Une "structure critique" contrôlerait l'entrée des informations dans la conscience

"Le traitement de l'information dans le cerveau a deux dimensions : le traitement sensoriel de l'environnement sans conscience et celui qui se produit lorsqu'un stimulus atteint un certain niveau d'importance et entre dans la conscience", explique dans un communiqué Zirui Huang, premier auteur de la publication. "Malgré des décennies de recherche en psychologie et en neurosciences, la question de savoir pourquoi certains stimuli sensoriels sont perçus de manière consciente alors que d'autres ne le sont pas reste difficile à résoudre", introduisent les auteurs dans la publication. Ils émettent alors l'hypothèse qu'il existe une "structure critique" où "l'accès conscient aux informations sensorielles est contrôlé". Ils ont même un suspect : le cortex insulaire antérieur, qui a précédemment été reconnu comme une plaque tournante centrale du cerveau, notamment "car il reçoit des entrées de différentes modalités sensorielles et de l'environnement interne", comme les émotions. 

Lorsque le cortex insulaire antérieur est éteint, la conscience aussi

Pour le prouver, l'équipe se penche sur 26 sujets qu'ils examinent à l'IRM fonctionnelle, qui permet de voir les zones activées du cerveau dans le temps. Ils leur injectent alors un anesthésiant, le propofol, pour contrôler leur niveau de conscience. Comme imaginer une action active les mêmes zones du cerveau que de les réaliser réellement, les chercheurs ont ensuite demandé aux sujets de s'imaginer dans plusieurs situations. Ils devaient s'imaginer en train de jouer au tennis, de marcher le long d'un chemin ou de serrer leur main, ainsi que d'effectuer une activité motrice (serrer une balle en caoutchouc) alors qu'ils perdaient progressivement conscience et la retrouvaient après l'arrêt du propofol.

Résultat, la perte de conscience due au propofol "crée un dysfonctionnement du cortex insulaire antérieur" ainsi qu'une altération des réseaux cérébraux nécessaires aux états de conscience. En revanche, aucune des autres régions impliquées dans la régulation sensorielle ou l'éveil, comme le thalamus, ne répondaient de cette façon. "Un stimulus sensoriel active normalement le cortex insulaire antérieur", explique Hudetz. "Mais lorsque vous perdez conscience, le cortex insulaire antérieur est désactivé et les changements de réseau dans le cerveau qui soutiennent la conscience sont perturbés." Le cortex insulaire antérieur pourrait donc agir comme un filtre qui ne permet qu'aux informations les plus importantes d'entrer dans la conscience.

Le cortex insulaire antérieur serait la porte de la conscience

Pour confirmer ces résultats, la deuxième expérience cherche à savoir si l'activation du cortex insulaire antérieur est prédictive de la prise de conscience d'une information. Pour le savoir, les chercheurs montrent un visage sous forme d'image subliminale – qui reste 33 millisecondes à l'écran – à 19 volontaires sains placés dans l'IRM fonctionnelle. Les volontaires doivent ensuite dire s'ils ont vu ou non le visage. Les scientifiques constatent alors que l'activation préalable du cortex insulaire antérieur était prédictif de la capacité du sujet à percevoir consciemment l'image du visage. "Le cortex insulaire antérieur a une activité qui fluctue continuellement", explique Zirui Huang. "La détection d'un stimulus dépend de l'état de l'insula antérieure lorsque l'information arrive dans le cerveau : si l'activité de l'insula est élevée au moment du stimulus, vous verrez l'image. Sur la base des résultats de ces deux expériences, nous concluons que le cortex insulaire antérieur pourrait être une porte pour la conscience."



 

Auteur: Internet

Info: https://www.sciencesetavenir.fr/ - Camille Gaubert, 4.05.2021

[ présence ] [ joignable ] [ accessible ] [ disponible ]

 

Commentaires: 0

Ajouté à la BD par miguel

syndrome cognitif

Dans un de ses cours consacrés aux mécanismes cérébraux impliqués dans la lecture, Stanislas Dehaene, professeur au Collège de France, citait cet extrait de Feu pâle, de Vladimir Nabokov : "Nous sommes absurdement accoutumés au miracle de quelques signes écrits capables de contenir une imagerie immortelle, des tours de pensée, des mondes nouveaux avec des personnes vivantes qui parlent, pleurent, rient. (…) Et si un jour nous allions nous réveiller, tous autant que nous sommes, et nous trouver dans l’impossibilité absolue de lire ?"

Comme c'est en général la règle dans les études de cas, on n'aura que ses initiales. Institutrice américaine de quarante ans, M. P. a eu la douleur de faire de l'hypothèse de Nabokov sa réalité. Racontée le 7 janvier dans la revue Neurology, son histoire commence un jeudi d'octobre 2012, en classe, devant ses jeunes élèves de maternelle. Comme tous les matins, l'enseignante doit faire l'appel. Mais à sa grande surprise, la liste de présence dont elle se sert tous les jours est couverte de signes mystérieux auxquels elle ne comprend goutte. Ainsi qu'elle se le rappelle, la feuille "aurait pu aussi bien être couverte de hiéroglyphes". Les notes qu'elle a préparées pour faire sa classe s'avèrent elles aussi incompréhensibles... M. P. rentre chez elle ce jeudi et, au cours des 48 heures qui suivent, elle éprouve de nouvelles difficultés : elle a du mal à trouver ses mots et sa réflexion est ralentie. Le samedi, sa mère l'emmène aux urgences.

C'est un accident vasculaire cérébral (AVC) qui a causé tout cela. M. P. ne s'est rendue compte de rien mais, dans son cerveau, une petite zone située dans la région occipito-temporale gauche s'est déconnectée et elle restera hors service toute sa vie. On la connaît sous le nom d'aire de la forme visuelle des mots (AFVM) et c'est elle qui est responsable de l'identification visuelle de l'écrit. Cette désactivation n'interrompt pas l'accès au reste des aires cérébrales impliquées dans le langage. M. P. comprend ce qu'on lui dit, parle normalement mais elle ne peut plus lire. En revanche, elle sait toujours écrire ! Les neuroscientifiques parlent d'alexie (incapacité à lire) sans agraphie (incapacité à écrire) ou bien d'alexie pure. Les cas sont très rares et le premier que la littérature scientifique recense est un cas français, décrit en 1892 par le neurologue Jules Dejerine.

M. P. croit d'abord que la zone lésée s'est juste remise à zéro et qu'avec les outils qu'elle connaît bien, elle va pouvoir réapprendre à lire. Et elle ne veut pas laisser sa passion pour les mots écrits s'envoler sans se battre. Mais la porte est fermée et pour de bon : M. P. ne peut pas faire du "b-a ba", tout simplement parce qu'elle ne "voit" ni les "b", ni les "a". Le message que ses yeux lui envoient à la vue des lettres arrive bien à son cerveau mais il ne passe pas la douane des mots. Toutefois, M. P. est tenace. Elle s'aperçoit qu'un autre sens que la vue peut venir à sa rescousse et c'est probablement ce qui fait la beauté de son cas, si l'on met de côté l'ironie cruelle qu'il y a à voir une spécialiste de l'apprentissage de la lecture frappée d'alexie.

Sa roue de secours, M. P. va la trouver dans... le geste. Ses yeux ne lui sont pas d'une grande aide mais sa main a encore la mémoire des lettres tracées. En voyant un mot, l'enseignante ne reconnaît pas la première de ses lettres. Alors, elle se met à dessiner avec le doigt toutes les lettres de l'alphabet, jusqu'à ce qu'elle arrive à celle dont elle voit la forme sans savoir le nom. L'exemple donné dans l'étude est celui du mot "mother" (mère en anglais). M. P. utilise son astuce pour les trois premières lettres, "m", "o" et "t", puis elle complète le mot d'elle-même. Les auteurs de l'article précisent d'ailleurs que, dans son travail de rééducation, M. P. a de vagues réminiscences à la vue de certains mots, des "émotions qui semblent appropriées". Ainsi, à la vue du mot "dessert", elle s'exclame : "Oh, j'aime ça !" En revanche, en voyant le mot "asperge", elle explique ne pas vouloir le déchiffrer car quelque chose en lui la dérange.

Malgré tous ses efforts, malgré la "béquille" qu'elle a trouvée pour déchiffrer, très laborieusement, quelques mots, M. P. ne relira plus jamais de manière automatique et fluide. Elle a dû abandonner son métier et travaille désormais à l'accueil d'un centre sportif. Lire une histoire aux enfants, comme elle le faisait dans sa classe, est la chose qui lui manque le plus, plus encore que dévorer un ouvrage pour elle-même. Et elle a l'intention d'écrire les mémoires d'une institutrice qui ne sait plus lire.

Auteur: Barthélémy Pierre

Info: 9 janvier 2014, sur son blog. Le cas décrit ici est très similaire à celui d'Howard Engel

[ altération mentale ]

 
Commentaires: 3
Ajouté à la BD par miguel

tétravalence

J'ai toujours aimé Céline, sa créativité sous forme de rage impuissante. Il se lâche, se défrustre... vitupère...  Tu vis tu perds !

En défendant toutes griffes dehors son indépendance, positionné avec le petit peuple, Céline se retouve automatiquement du "bon côté", celui des prolétaires de son époque, ceux au front de la vie, qui prennent sur eux, empathiques et solidaires... qui font que le monde fonctionne. Créatifs pragmatiques issus du terrain. Comme lui. 

Ceci - par contraste - avec Proust le fortuné, qui péta dans la soie sa vie durant pour finalement nous gratifier du grand art de ses phrases interminables. 

En collant à un binarisme littéraire de ce genre les choses sont tranchées ; les prolos directs et agissants du bas représentent l'envers de nantis souvent spécialistes en délicatesses, théoriciens "hors-sol", en général issus du haut, affiliés aux pouvoirs, c'est à dire à l'argent et ses influences. Théoriciens qui auront quasi toujours raison au sens où la raison parle d'un point de vue supérieur, celui où on influence les éducations, le politiquement correct, le langage, etc. Là où toute stratégie digne de ce nom se fait, où les orientations du monde se décident depuis toujours. Lieux du pouvoir. Et le pouvoir humain est un positionnement doté d'un défaut majeur : sa propension à l'autoconservation, souvent "à tout prix". Ainsi de la démocratie, même s'il faut reconnaitre que cette dernière apparait à ce jour comme le moins mauvais système, surtout une démocratie directe dotée d'une presse libre, c'est à dire d'un médium qui fait office de contrepouvoir. 

On verra donc les milieux dirigeants  développer certaines formulations "pour se défendre des prolos". Par exemple, si on en vient à se demander comment anticiper le monde de demain : comment canaliser les énergies vers des activités nouvelles, déplacer les pôles de lutte. Comment savoir et apprendre à passer le temps intelligemment ? Comment arriver à gérer l'humain tel le simple artefact de l'environnement qu'il est - sans basculer dans la barbarie ? Comment abandonner l'impasse matérialiste sans que les individus s'abatardissent ? Tout en conservant un moteur, propre à chacun, moteur que les publicités clinquantes ont désormais orienté vers le confort individuel, les "apparences" du bonheur et autres jalousies subséquentes ? 

Questionnements souvent présentés ainsi par les gens du haut : "Ces réflexions et idées complexes peuvent-elles se concevoir depuis un environnement où on lutte sans cesse, sous pression de la réalité, des lendemains difficiles et des flux tendus du monde post-industriel ?". Sous entendu : venant des gens du bas.  

Alors que la question est la même pour tous : Comment réorienter le capitalisme qui produit du superflu après avoir créé le besoin en stimulant de simples et compulsifs réflexes d'accumulation, (bien naturel pour une survie de base, celle qui permet de passer l'hiver par exemple). Socio-capitalisme post-industriel qui a aussi "donné des habitudes" aux gens, des envies... voyages exotiques... Confort minimum... Etat providence.

C'est donc au travers de ce très franco-français exemple de dualité "Proust-Céline" que nous voudrions indiquer que le binarisme humain apparait comme une fondation logique peu capable de gérer ne seraient que les complexités qui s'entrelacent et se développent à partir des quelques données qui précèdent. 

Autre exemple : comment peut-on être assez imbu de certitude pour proférer une phrase comme "La religion est une erreur criminelle et la foi une insulte à l'intelligence." alors que tout démontre que nous ne savons rien à ce sujet ?. Inconnaissance probablement renforcée par un savoir anthropocentré qui ressemble de plus en plus à la stupidité d'une espèce égoïste parce qu'asymbiotique, vu qu'elle ne sait pas interagir sagement avec son environnement. 

Tenez : les fourmis coupeuses de feuilles (du genre Atta) utilisent couramment des antibiotiques pour protéger leurs cultures de champignons. Elles le font de façon tellement sage et modérée que depuis les quelques 50 millions d'années qu'elles utilisent cette méthode aucune résistance aux antibiotiques n'est apparue chez les parasites qu'elles combattent ! Et nous, humains impatients, nous retrouvons, au bout de quelques années de leur utilisation avec des maladies nosocomiales quasi incurables dans nos centres de soins spécialisés !

Ici on dirait que la nature nous parle. Les mécanismes que dévoile petit à petit l'épigénétique semblent bien s'articuler autour d'un incessant et éternel dialogue des forces fondamentales impliquées dans notre univers Gaïa. Forces qui s'articulent entre autres sur la souplesse adaptative offerte par les possibilités combinatoires du carbone sur lesquelles s'est développée la vie telle que nous la connaissons. 

Faut-il s'en inspirer pour aller au-delà de cette dualité simpliste, celle qui nous a amené là où nous sommes en début de 3e millénaire. Faut-il  maintenant mettre en place une nouvelle logique opérante ? Une logique indépendante de son propre langage ?

Auteur: Mg

Info: 30 janv 2022, suivant une idée amenée par JP Petit, prétendument issue des récits ummites

[ interrogation ] [ prospective ]

 
Commentaires: 2
Ajouté à la BD par miguel

homme-animal

Ce que l'Homme et le gorille ont en commun
Des chercheurs du Wellcome Trust Sanger Institute (Royaume-Uni), avec la participation de l'équipe d'Emmanouil Dermitzakis, professeur Louis-Jeantet à la Faculté de médecine de l'UNIGE, ont réussi à séquencer le génome du gorille, le seul hominidé dont le génome n'avait pas encore été décodé. Cette étude a révélé qu'une partie du génome humain ressemble davantage à celui du gorille qu'à celui du chimpanzé. Les résultats de cette recherche offrent des perspectives inédites sur l'origine de l'Homme.
L'être humain, le chimpanzé et le gorille présentent de nombreuses similitudes anatomiques et physiologiques. Des études moléculaires ont confirmé que l'Homme est plus proche des grands singes d'Afrique, en particulier du chimpanzé, que des ourang-outans. Des analyses complémentaires ont ensuite exploré les différences fonctionnelles entre les espèces de grands singes et déterminé leur influence sur l'évolution de l'être humain à travers le séquenc¸age de l'ADN du chimpanzé et de l'orang-outan, mais pas celui du gorille.
L'équipe de chercheurs menée par le Wellcome Trust Sanger Institute propose la première analyse génomique du gorille jamais réalisée qui constitue une base d'étude de l'évolution des hominidés. C'est la première fois que des scientifiques réussissent à comparer les génomes des quatre espèces d'hominidés: les humains, les chimpanzés, les gorilles et les orangs-outangs.
"Le séquençage du génome du gorille est important puisqu'il permet de lever le voile sur la période de l'évolution durant laquelle nos ancêtres ont commencé à s'éloigner de nos cousins les plus proches. Nous pouvons ainsi examiner les similitudes et les dissemblances entre nos gènes et ceux du gorille, le plus grand des primates anthropoi¨des, explique Aylwyn Scally du Wellcome Trust Sanger Institute. Nous avons assemblé l'ADN de Kamilah, un gorille femelle des plaines de l'ouest, et nous l'avons comparé aux génomes d'autres grands singes. Nous avons également prélevé l'ADN d'autres gorilles afin d'analyser les différences génétiques entre les espèces de gorille."
Cette étude met en lumière la période à laquelle trois espèces étroitement liées, le gorille, le chimpanzé et l'Homme, ont commencé à se différencier. Contrairement à ce que l'on pourrait penser, les espèces ne divergent pas toujours brutalement à un moment donné, elles se séparent parfois progressivement sur une longue période.
L'équipe a découvert que la divergence génétique entre les gorilles et les humains et chimpanzés date d'il y a environ 10 millions d'années. La dissemblance génomique entre les gorilles des plaines de l'est et de l'ouest est, quant à elle, beaucoup plus récente et remonte à 1 million d'années. Leur génome se sont graduellement éloignés jusqu'à être complètement distincts. Cette divergence est comparable, à certains égards, à celle qui existe entre les chimpanzés et les bonobos, et entre l'Homme moderne et l'homme de Néanderthal. L'équipe a analysé plus de 11 000 gènes chez l'humain, le chimpanzé et le gorille afin de déterminer les changements génétiques apparus au cours de l'évolution.
Bien que l'Homme et le chimpanzé soient génétiquement proches, les chercheurs ont découvert que cette ressemblance ne s'appliquait pas à la totalité du génome. En réalité, 15% du génome humain se rapproche davantage de celui du gorille que de celui du chimpanzé. Les chercheurs ont découvert que, chez ces trois espèces, les gènes liés à la perception sensorielle, à l'oui¨e et au développement cérébral, ont montré des signes d'évolution accélérée, particulièrement chez l'humain et le gorille. Les résultats de cette recherche ont révélé non seulement des dissemblances entre les espèces, mettant en lumière des millions d'années de divergence évolutionniste, mais également des similarités.
Les gorilles et les humains partagent en effet de nombreuses modifications génétiques, impliquées notamment dans l'évolution de l'audition. Il y a quelques années, des scientifiques avaient suggéré que l'évolution rapide des gènes humains liés à l'audition était en corrélation avec celle du langage. Cette déclaration est aujourd'hui remise en question puisque cette étude démontre que les gènes de l'audition ont évolué au même rythme chez l'être humain et chez le gorille.
Grâce à cette recherche, les scientifiques ont fait le tour de toutes les comparaisons entre les espèces d'hominidés. Après des décennies de débats, leurs interprétations génétiques sont désormais cohérentes avec le registre fossile. Les paléontologues et les généticiens peuvent dorénavant travailler sur les mêmes bases.
"Cette étude offre des perspectives inédites sur l'évolution de nos ancêtres et de nos origines. Les conclusions de ce travail de recherche sont pertinentes d'un point de vue historique, mais ce n'est pas tout. Elles sont d'une importance fondamentale pour la compréhension de notre génome, de la variabilité génétique et des conséquences médicales des mutations", commente Emmanouil Dermitzakis. Avec son équipe genevoise, ce a participé à l'analyse des activités génétiques à partir de cellules prélevées chez le gorille, l'Homme, le chimpanzé et le bonobo. Ses résultats démontrent que d'un point de vue général l'expression des gènes correspond aux différences génétiques entre les espèces.

Auteur: Internet

Info: http://www.unige.ch/communication/archives/2012/gorilles.html

[ quadrumane ] [ métamorphose ]

 

Commentaires: 0

secours

Je suis assis à l'arrière d'un C17 de la RAAF sur le chemin du retour en Australie avec Craig et les étonnants membres de l'équipe australienne du ministère des Affaires étrangères et du Commerce, de la Police fédérale australienne et des Forces de défense australiennes. C'est maintenant la première occasion de s'arrêter et de réfléchir sur les événements extraordinaires des 8 derniers jours depuis que Craig et moi avons été déployés en tant que petite équipe AUSMAT à la rescousse dans les grottes de Tham Luang (Chang Rai) au nord de la Thaïlande.

Quand nous sommes arrivés sur le site, des plongeurs locaux comme Ben Reymenants et l'impressionnant quatuor britannique (John Volanthen, Rick Stanton, Jason Mallinson et Chris Jewell) avaient déjà effectué les plongées les plus extraordinaires à travers la grotte et posé la corde très robuste qui a rendu toutes les plongées ultérieures non seulement possibles, mais aussi sûres. On ne peut sous-estimer les efforts et l'habileté de ces gars pour ouvrir la voie. Suivre la ligne de quelqu'un d'autre est beaucoup plus facile que de trouver son propre chemin. Rick et John n'ont pas seulement trouvé les enfants et l'entraîneur vivants, mais ils ont communiqué la gravité de la situation au reste du monde. Les 4 Britanniques ont ensuite effectué d'autres plongées pour amener matériel et vivres aux joueurs de football, à l'entraîneur et aux quatre plongeurs de la marine thaïlandaise, ce qui a permis de se préparer et de subvenir à la suite du sauvetage.

Pendant ce temps sur le terrain, les Thaïlandais et la communauté internationale ont envoyé des essaims d'hommes et de femmes pour assurer la restauration, les communications, les médias et, bien sûr, d'énormes équipes d'ouvriers qui ont rempli la grotte de tonnes et de tonnes d'équipement pour essayer d'abaisser l'eau et soutenir les opérations de plongée. Je n'ai jamais rien vu de tel quant à la lutte de l'homme pour contrôler les forces naturelles des eaux de la mousson. Les travailleurs locaux et autres escaladeurs ont gréé la section sèche de la grotte avec des cordes pour simplifier le sauvetage et ont fouillé la brousse au-dessus pour trouver d'autres entrées de la grotte. Les équipes de forage ont tenté de traverser près d'un kilomètre de roche jusqu'à l'endroit où se trouvait les garçons. Pendant tout ce temps, 4 braves plongeurs de la Marine Thailandaise sont restés avec l'équipe des sangliers, sachant qu'ils étaient aussi en danger que les enfants.

Lorsque toutes les autres options semblèrent épuisées, la décision de sortir les garçons à la nage a été prise. Pour la sortie des enfants, les 4 plongeurs sauveteurs britanniques furent soutenus par Craig et moi ainsi que trois autres jeunes plongeurs très talentueux du Royaume-Uni (Connor, Josh et Jim) avec des plongeurs européens (Erik, Ivan, notre bon ami Claus et Nikko). La pression exercée sur ces gars était immense, ils n'ont jamais baissé les bras une seconde.

Lorsque les enfants et l'entraîneur étaient amenés dans la chambre 3, les équipes américaines de parachutistes, les plongeurs de l'AFP SRG, le CD australien, les plongeurs chinois et les médecins de la marine de l'armée thaïlandaise les évaluaient, avant de les emmener hors de la grotte vers un hôpital de campagne et les transférer ensuite dans l'immense hôpital du centre de Chang Rai. Sur le chemin du retour à la maison nous avons eu la chance de visiter les garçons, l'entraîneur et les Seals ainsi que tout le beau personnel médical et infirmier de l'hôpital

Je voulais écrire ceci afin de donner crédit à toutes les personnes impliquées d'une manière ou d'une autre. Craig et moi avons eu un coup de projecteur sur nos efforts et nous voulons faire comprendre que bien que nous soyons devenus le visage de ce sauvetage pour quelque raison que ce soit, tout le monde doit savoir que le rôle que nous avons joué ne fut ni plus ni moins important que les centaines (peut-être milliers) mentionnées. Un rôle donné comme beaucoup plus noble qu'il ne le fut en réalité. Nous nous considérons chanceux d'avoir eu des compétences pour pouvoir contribuer à ce merveilleux résultat.

Remerciements particuliers au NCCTRC et à l'AUSMAT, DFAT, au personnel de l'ambassade d'Australie en Thaïlande, à la police touristique thaïlandaise (nos protecteurs !), à la liaison locale, aux spéléologues locaux. Nos sincères condoléances à la famille de l'ex Navy Seal Saman Gunan, décédé au cours des opérations de sauvetage.

Chez nous, nous devons remercier nos familles d'avoir traité avec les médias et de l'inquiétude que nous leur avons causé (elles y sont habituées je le crains). À MedSTAR et au SA Ambulance Service pour l'aide et le soutien importants, en particulier les Drs James Doube et Andrew Pearce. À l'équipe des Services d'anesthésie spécialisée. A l'Association des plongeurs spéléo de l'île de Cave. L'Australie pour la gestion de la vague d'intérêt pour notre sport... L'équipe dirigeante de ce pays a a été incroyable, surtout notre meilleur pote John Dalla-Zuanna. A la communauté mondiale des spéléologues et plongeurs qui se sont comportés avec grâce et dignité et ont essayé d'expliquer quelques faits aux médias de temps en temps ! Enfin, aux milliers de sympathisants de Thaïlande et du monde entier, nous promettons d'avoir lu tous les messages !

Auteur: Harris Richard

Info: En compagnie de Craig Challen

[ solidarité internationale ]

 

Commentaires: 0

cosmologie

Vivons-nous dans un trou noir ?

Notre univers pourrait bien se trouver dans un vaste trou noir.
Remontons le temps : avant la venue de l’Homme, avant l’apparition de la Terre, avant la formation du soleil, avant la naissance des galaxies, avant toute lumière… il y a eu le Big Bang. C’était il y a 13,8 milliards d’années.

Mais avant cela ? De nombreux physiciens avancent qu’il n’y avait rien avant cela. Le temps a commencé à s’écouler, insistent-ils, au moment du Big Bang et méditer sur tout ce qui aurait pu se produire avant ne relève pas de la science. Nous ne comprendrons jamais à quoi pouvait ressembler le pré-Big Bang, ou bien ce dont il était constitué, ou encore qui a provoqué son explosion ayant mené à la formation de notre univers. Toutes ces notions vont au-delà de la compréhension dont l’Homme est capable.

Pourtant, quelques scientifiques non-conventionnels ne sont pas d’accord. D’après la théorie de ces physiciens, un peu avant le Big Bang, toute la masse et l’énergie de l’univers naissant étaient compactées dans une boule incroyablement dense – mais pas infinie. Appelons-la la graine d’un nouvel univers.

On imagine cette graine d’une taille incroyablement petite, peut-être des trillions de fois plus petite que n’importe quelle particule observable par l’Homme aujourd’hui. Et pourtant, il s’agit d’une particule capable de déclencher la particule de toutes les autres particules, sans oublier les galaxies, le système solaire, les planètes et les êtres vivants.

S’il n’y avait qu’une chose à appeler la particule de Dieu, cela y ressemble bien.

Mais comment une telle graine peut-elle se former ? Il y a bien une idée qui circule depuis quelques années, notamment soutenue par Nikodem Poplawski de l’Université de New Haven, selon laquelle la graine de notre univers a été forgée dans le four ultime, probablement l’environnement le plus extrême qui soit : dans un trou noir.

LA MULTIPLICITÉ DU MULTIVERS
Avant d’aller plus loin, il est essentiel d’avoir en tête qu’au cours des vingt dernières années, de nombreux physiciens théoriciens en sont venus à croire que notre univers n’est pas le seul. Au lieu de cela, nous faisons plus probablement partie du multivers, un immense tableau constitué d’univers distincts, chacun centré sur son étoile brillant dans le ciel de la nuit.

Comment, ou même si, un univers est lié à un autre fait l’objet de nombreuses discussions, toutes extrêmement spéculatives et impossibles à prouver à l’heure actuelle. Selon une théorie convaincante, la graine de l’univers ressemble à celle d’une plante : il s’agit d’un fragment de matériau essentiel, très compressé, caché dans une enveloppe protectrice.

C’est précisément ce qui se crée au sein d’un trou noir. Les trous noirs sont les restes d’étoiles géantes. Lorsqu’une telle étoile arrive à cours d’énergie, son noyau se détruit à l’intérieur et la gravité se charge de transformer le tout en un ensemble incroyablement puissant. Les températures atteignent 100 milliards de degrés ; les atomes sont écrasés ; les électrons sont broyés ; et tous ces éléments sont ballottés encore et encore.

À ce stade, l’étoile est devenue un trou noir dont l’attraction gravitationnelle est telle que pas même un faisceau de lumière ne peut s’en échapper. La frontière entre l’intérieur et l’extérieur d’un trou noir est nommée" l’horizon des événements". D’énormes trous noirs, certains des millions de fois plus massifs que le soleil, ont été découverts au centre de presque toutes les galaxies, dont notre propre Voie Lactée.

DES QUESTIONS À L'INFINI
Si vous vous basez sur les théories d’Einstein pour déterminer ce qui se produit au fond d’un trou noir, vos calculs vous mèneront à un endroit infiniment dense et petit : un concept hypothétique appelé singularité. Mais les infinités n’ont pas vraiment leur place dans la nature et le fossé se creuse avec les théories d’Einstein, qui permettent une incroyablement bonne compréhension du cosmos mais ont tendance à s’effondrer dès lors que d’énormes forces sont impliquées, comme celles en action dans un trou noir ou encore celles qui ont rythmé la naissance de notre univers.

Des physiciens comme le Dr. Poplawski avancent que la matière d’un trou noir atteint un point à partir duquel elle ne peut plus être écrasée. Aussi petite puisse-t-elle être, cette "graine" pèse le poids d’un milliard de soleils et est bien réelle, contrairement à une singularité.

Selon le Dr. Poplawski, le processus de compaction cesse car les trous noirs sont en rotation, ce qui dote la graine compactée d’une bonne torsion. Elle n’est alors pas seulement petite et lourde ; elle devient tordue et compressée, comme ces jouets montés sur ressorts, prêts à jaillir de leur boîte.

Jouets qui peuvent rapidement se rétracter lorsqu’on les y force. Appelez ça le Big Bang – ou le "big bounce" (le grand rebond) comme le Dr. Poplawski aime à le dire.

En d’autres termes, il est possible que le trou noir soit comme un conduit – une "porte à sens unique", explique le Dr. Poplawski – entre deux univers. Cela signifie que si vous tombez dans le trou noir au centre de la Voie Lactée, on peut imaginer que vous (ou du moins les particules complètement éclatées dont vous étiez auparavant composés) finirez dans un autre univers. Celui-ci ne se situe pas dans le nôtre, comme l’ajoute le scientifique : le trou fait tout bonnement office de lien, comme une racine partagée qui connecterait entre eux deux peupliers.

Qu’en est-il de nous autres, ici, dans notre propre univers ? Nous pourrions alors bien être le produit d’un autre univers, plus ancien. Appelons-le notre univers "mère". La graine que cette mère a forgée au sein d’un trou noir aurait peut-être connu son grand rebond il y a 13,8 milliards d’années. Et même si notre univers s’est étendu rapidement depuis, il se pourrait bien que nous soyons toujours cachés derrière l’horizon des événements d’un trou noir.

Auteur: Internet

Info: De Michael Finkel sur https://www.nationalgeographic.fr, avril 2019

[ spéculation ]

 

Commentaires: 0

Ajouté à la BD par miguel

horizon anthropique

Qu'est-ce que le paradoxe cérébral de Boltzmann ? Le cerveau est-il l'univers ultime ?

Avez-vous déjà contemplé la nature de votre existence et vous êtes-vous demandé si vous étiez vraiment une personne ayant vécu une vie, ou simplement un cerveau récemment formé avec des souvenirs artificiels, développant momentanément une réalité qui n'est pas réelle ? Cette question, connue sous le nom de paradoxe du cerveau de Boltzmann, peut sembler absurde, mais elle trouble les cosmologistes depuis des générations.

Le paradoxe tire son nom de Ludwig Boltzmann, un éminent physicien du XIXe siècle qui a apporté des contributions significatives au domaine de la thermodynamique. À son époque, les scientifiques étaient engagés dans des débats passionnés sur la question de savoir si l'univers a une durée infinie ou finie. Boltzmann a révolutionné notre compréhension de l'entropie, qui mesure le désordre au sein d'un système. Par exemple, un verre est considéré comme ordonné, alors qu'un verre brisé est dans un état de désordre. La deuxième loi de la thermodynamique affirme que les systèmes fermés tendent à devenir plus désordonnés avec le temps ; un verre brisé ne se reconstitue pas spontanément dans son état originel.

Boltzmann a introduit une nouvelle interprétation de l'entropie en appliquant un raisonnement statistique pour expliquer le comportement des systèmes. Il a mis en évidence que les systèmes évoluent vers un état plus désordonné parce qu'une telle transformation est la plus probable. Cependant, si la direction opposée n'est pas impossible, elle est incroyablement improbable. Par exemple, nous ne verrons jamais des œufs brouillés redevenir des œufs crus. Néanmoins, dans un univers infiniment vieux, où le temps s'étend sans limites, des événements hautement improbables, tels que la formation spontanée de structures complexes à partir de combinaisons aléatoires de particules, finiraient par se produire.

Qu'est-ce que cela signifie dans le contexte d'un univers hypothétique qui existe depuis un temps infini ? Imaginez une étendue apparemment banale de quasi-néant, où environ huit octillions* d'atomes convergent fortuitement pour créer le "Le Penseur" de Rodin, sauf qu'elle est cette fois entièrement constituée de pâtes alimentaires. Cependant, cette sculpture de pâtes se dissout rapidement en ses particules constitutives. Ailleurs dans cette vaste toile cosmique, les particules s'alignent spontanément pour former une structure ressemblant à un cerveau. Ce cerveau est rempli de faux souvenirs, simulant une vie entière jusqu'au moment présent où il perçoit une vidéo véhiculant ces mêmes mots. Pourtant, aussi rapidement qu'il est apparu, le cerveau se décompose et se dissipe. Enfin, en raison de fluctuations aléatoires, toutes les particules de l'univers se concentrent en un seul point, déclenchant l'émergence spontanée d'un univers entièrement nouveau.

De ces deux derniers scénarios, lequel est le plus probable ? Étonnamment, la formation du cerveau est nettement plus probable que la création spontanée d'un univers entier. Malgré sa complexité, le cerveau est minuscule par rapport à l'immensité d'un univers entier. Par conséquent, si l'on suit ce raisonnement, il apparaît très probable que tout ce que nous croyons exister n'est rien d'autre qu'une illusion fugace, destinée à disparaître rapidement.

Bien que Boltzmann lui-même n'ait pas approfondi ces conclusions, les cosmologistes qui se sont inspirés de ses travaux ont introduit le concept des cerveaux de Boltzmann. Il est intéressant de noter que ces cosmologistes, comme la majorité des individus, étaient raisonnablement certains de ne pas être eux-mêmes des cerveaux éphémères. D'où le paradoxe suivant : comment pouvaient-ils avoir raison dans leur hypothèse tout en postulant l'existence d'un univers éternel ?

Le paradoxe a trouvé sa résolution dans un concept communément accepté aujourd'hui : notre univers n'existe pas de manière infinie mais a eu un commencement connu sous le nom de Big Bang. On pourrait donc penser que le paradoxe a été résolu une fois pour toutes. Or, ce n'est peut-être pas le cas. Au cours du siècle dernier, les scientifiques ont découvert des preuves substantielles à l'appui de la théorie du Big Bang, mais la question de savoir ce qui l'a précédé et causé reste sans réponse. Que l'univers soit apparu dans un état extrêmement ordonné et improbable ? Notre univers pourrait-il faire partie d'un cycle sans fin de création et d'effondrement, ou sommes-nous simplement l'un des innombrables univers en expansion dans un vaste multivers ?

Dans ce contexte intrigant, le paradoxe de Boltzmann a suscité un regain d'intérêt chez les cosmologistes contemporains. Certains affirment que les modèles dominants de l'univers suggèrent encore que les cerveaux de Boltzmann ont plus de chances d'exister que les cerveaux humains, ce qui soulève des inquiétudes quant à la validité de ces modèles. Cependant, d'autres réfutent ces arguments en proposant de légères modifications des modèles cosmologiques qui élimineraient le problème ou en affirmant que les cerveaux de Boltzmann ne peuvent pas se manifester physiquement.

Dans le but d'explorer les probabilités impliquées, certains chercheurs ont même tenté de calculer la probabilité qu'un cerveau émerge spontanément à partir de fluctuations quantiques aléatoires et survive suffisamment longtemps pour générer une seule pensée. Le résultat de leurs calculs a donné un nombre étonnamment grand, avec un dénominateur dépassant 10 élevé à une puissance environ un septillion de fois plus grande que le nombre d'étoiles dans l'univers.

Malgré sa nature apparemment absurde, le paradoxe du cerveau de Boltzmann est utile. Il place la barre très haut pour les modèles cosmologiques. Si l'état actuel de l'univers semble excessivement improbable par rapport à des nombres d'une telle ampleur, cela indique que quelque chose ne va pas dans le modèle. Ce paradoxe nous pousse à remettre en question notre compréhension de la réalité et nous incite à rechercher une représentation plus complète et plus précise de l'univers.

Alors que nous continuons à explorer les mystères du cosmos, la nature énigmatique de notre existence reste une source de fascination et un catalyseur pour la poursuite de la recherche scientifique. Dans notre quête de réponses, nous pourrons peut-être découvrir des vérités profondes qui nous éclaireront sur la nature de notre réalité et sur la tapisserie complexe de l'univers.

Auteur: Sourav Pan

Info: *un octillion = 10 puissance 48)

[ humain miroir ] [ monde consensuel ]

 

Commentaires: 0

Ajouté à la BD par miguel

réseaux sociaux

L’Américaine Sarah T. Roberts a écrit, après huit ans de recherches, "Behind The Screen" (Yale university press), un livre sur le travail des modérateurs. Elle en a rencontré des dizaines, chargés de nettoyer les grandes plates-formes (Facebook, YouTube, etc.) des pires contenus, et entourés d’une culture du secret.

C’est un métier dont on ne connaît pas encore bien les contours, et qui est pourtant au coeur du fonctionnement des grandes plates-formes du Web : les modérateurs sont chargés de les débarrasser des contenus postés par les utilisateurs (photos, vidéos, commentaires, etc.) qu’elles interdisent. Répartis dans des open spaces aux quatre coins du monde, gérés par des sous-traitants, ces milliers de petites mains examinent, tout au long de leur journée de travail, les pires contenus qui circulent sur Internet, et décident de leur sort.

Nous l’avons interviewée lors de son passage à Paris pour participer à un cycle de conférences sur "le côté obscur du travail", organisé à la Gaîté-Lyrique, à Paris.

(MT) - Les géants du Web (Facebook, YouTube, Twitter, etc.) sont très réticents à parler de la façon dont ils modèrent les contenus. Pourquoi ?

- Quand ces entreprises ont été lancées il y a une quinzaine d’années, la dernière chose qu’elles voulaient, c’était d’avoir à prendre des décisions sur le contenu. Elles se concentraient sur les technologies, et se présentaient auprès des pouvoirs publics américains comme faisant partie de la catégorie "fournisseurs d’accès à Internet". Cela leur a permis d’affirmer que le contenu n’était pas leur coeur de métier, et d’avancer sans qu’on ne leur demande de rendre des comptes.

Ce positionnement leur a permis de grandir. Il fallait donc que les décisions que prenaient ces entreprises du Web sur le contenu restent secrètes. Elles vendaient cette idée aux utilisateurs qu’il n’y avait aucune intervention, que vous pouviez vous exprimer sur YouTube ou Facebook sans aucune barrière. Elles ne voulaient pas qu’il y ait un astérisque, elles ne voulaient pas entrer dans les détails. Il y a pourtant eu, dès leurs débuts, des contenus supprimés.

(MT) - Dans votre livre, vous allez jusqu’à dire que ces entreprises "effacent les traces humaines" de la modération. C’est une formule très forte…

-Ces entreprises pensent profondément que les solutions informatiques sont meilleures que les autres, et il y a cette idée chez elles qu’il y aura bientôt une technologie assez forte pour remplacer ces travailleurs. Elles semblent dire "ne nous habituons pas trop à l’idée qu’il y a des humains, c’est juste temporaire".

De plus, si les utilisateurs savaient qu’il y avait des humains impliqués, ils demanderaient des explications. Et ces entreprises ne voulaient pas être responsables de ces décisions. Elles ont donc choisi de rendre ce processus invisible et croisé les doigts pour que les gens ne posent pas trop de questions.

(MT) - La modération est un travail difficile. Quels sont les risques auxquels sont confrontés ces travailleurs ?
- Il y en a plusieurs, à commencer par les risques psychologiques. Les modérateurs à qui j’ai parlé me disaient souvent : "Je suis capable de faire ce travail, des gens sont partis au bout de deux semaines. Mais moi, je suis fort." Et quelques minutes plus tard, ils me disaient "je buvais beaucoup" ou "je ne veux plus sortir avec des amis, car on parle toujours de travail, et je ne veux pas en parler, et d’ailleurs je n’en ai pas le droit".

Quand des gens me disent qu’ils ne peuvent pas cesser de penser à une image ou une vidéo qu’ils ont vue au travail, c’est inquiétant. Une femme, qui était modératrice il y a une quinzaine d’années pour Myspace, m’a dit qu’elle n’aimait pas rencontrer de nouvelles personnes et leur serrer la main. "Je sais ce que les gens font, et ils sont ignobles. Je n’ai plus confiance en qui que ce soit."

Il y a aussi d’autres choses difficiles, qui paraissent moins évidentes. Vous devez être très cultivé pour être un bon modérateur, beaucoup ont fait des études de littérature, d’économie, d’histoire, parfois dans des universités prestigieuses. Mais c’est considéré comme un travail de bas niveau, assez mal payé.

(MT) - Comment les conditions de travail des modérateurs ont-elles évolué ?
- C’est difficile à dire, ce sont souvent des conditions de call centers : d’un point de vue purement matériel, c’est relativement confortable. Aux Philippines, des gens travaillent dans des gratte-ciel avec l’air conditionné, ce qui est important là-bas.

(MT) - Mais... En quoi cela change quelque chose à ce qu’ils voient tous les jours ?
- Certaines entreprises ont mis à disposition des psychologues. Mais les employés sont méfiants : quand le psychologue est payé par votre employeur, cela crée une relation compliquée, ça peut être difficile pour le travailleur de s’ouvrir sincèrement.

(MT) - Mais si ces entreprises ne mettaient pas de psychologues à disposition, on le leur reprocherait…
- C’est vrai. Mais est-ce vraiment efficace ou est-ce juste pour faire joli ? Un modérateur m’a dit : "Le problème, c’est que si je me lève pour aller parler au psychologue, mon manager et mes collègues me voient tous me lever et comprennent que j’ai un problème. Je ne veux pas qu’ils le sachent." Et puis, ce sont des solutions de court terme.

(MT) - Que devraient faire ces entreprises pour assurer le bien-être de leurs salariés ?
- Pour commencer, ils pourraient les payer davantage. Ensuite, le fait que leur travail ne soit pas reconnu est très dur pour eux, tout comme les accords de confidentialité. Tout cela fait qu’ils ont peur de parler de leur travail, qu’ils ne soient pas en lien avec les autres. Ils ne savent même pas qui sont les autres modérateurs. Ce sont des choses qui pourraient facilement changer. Et sur la psychologie, il faudrait étudier les effets de ce travail sur le long terme. Il n’existe aucune étude de ce type, à ma connaissance.

(MT) - Pourrait-on se passer de modérateurs ? A quoi ressemblerait Internet sans eux ?
- Au forum 4chan [connu pour sa modération très faible, et la virulence de certains de ses membres anonymes] ? Ce serait pire ! La plupart des gens ne veulent pas de ça, et doivent donc avoir à faire à des modérateurs. Or les internautes passent beaucoup de temps sur les grandes plates-formes mainstream, financées par la publicité, et le fait qu’ils ne comprennent pas comment ces espaces sont modérés est problématique, car cela reflète des valeurs.

L’idée d’un Internet sans modération n’a pas beaucoup existé. Certes, j’ai donné l’exemple de 4chan. Mais à un moment donné il y a eu une décision, à 4chan, que l’approche serait de tout laisser passer. C’est une posture idéologique là aussi. Et il est important de noter que c’est ce que veulent certaines personnes.

(MT) - Vous écrivez que ce sujet de recherche représente "le travail d’une vie". Quels aspects de la modération vous intéressent le plus pour la suite ?
- C’est le travail d’une vie parce que cela change tout le temps : Facebook change ses règles toutes les deux semaines ! Et si aujourd’hui on a 100 000 personnes qui travaillent comme modérateurs, où en sera-t-on dans deux, cinq ou dix ans ?

Je m’intéresse aussi beaucoup à la question de la régulation de ces entreprises. Ainsi qu’à la façon dont les Américains ont adopté depuis quinze ans ces technologies. Nous approchons de l’élection présidentielle de 2020, et ces plates-formes sont très impliquées, on a eu des déclarations intéressantes de Facebook sur la véracité des informations diffusées… Tout cela est d’une certaine manière lié à la question de la modération. Ces entreprises sont désormais considérées comme responsables, alors qu’elles n’ont jamais voulu l’être ! Devoir gérer ça est leur pire cauchemar, et elles doivent désormais le faire tout le temps.

Auteur: Tual Morgane

Info: Propos recueillis par MT, 11 janvier 2020, www.lemonde.fr. Sujet : Sarah T. Roberts : "Les géants du Web ont choisi de rendre le processus de modération invisible"

[ homme-machine ]

 

Commentaires: 0

Ajouté à la BD par miguel

coévolution bio-linguistique

Cerveau humain, langage et culture matérielle : Quand archéologues et neurobiologistes coopèrent.

Ce sont Chris Renfrew, Chris Frith et Lambros Malafouris, qui ont souligné cette intrication. (in The Sapient Mind, sous-titré Archaeology meets neuroscience - eds, 2009)

- Les patterns observés concernant l’activation [cérébrale] et la superposition avec les circuits du langage suggèrent que la fabrication d’outils et le langage ont une base commune dans une aptitude humaine plus générale à une action complexe et finalisée. Ces résultats sont compatibles avec des hypothèses coévolutionnaires associant l’émergence du langage, la fabrication d’outils, la latéralisation fonctionnelle à l’échelle d’une population et l’expansion du cortex associatif dans l’évolution humaine. (D. Stout & al., “Neural correlates of Early Stone Age toolmaking : technology, language and cognition in human evolution”. 2009 : 1) 

- Les développements récents de l’imagerie cérébrale révèlent des bases communes aux dispositions sociales des hommes et des primates les plus évolués

- L’accroissement des liens sociaux se reflète dans l’accroissement du volume du cerveau, et au moment où l’espèce humaine se dissémine sur le globe et où les liens sociaux risquent ainsi de se déliter, c’est la diffusion d’une même culture matérielle qui va maintenir le lien que l’éloignement géographique fragilise. (Fiona COWARD & Clive GAMBLE “Big brains, small world : material culture and the evolution of mind” 2009) 

Les modifications de l’expression des gènes gouvernant le développement cortical au cours de l’évolution des mammifères ont fourni les conditions à la fois d’un accroissement de taille considérable et d’un retard dans la maturation du cerveau, qui a conféré une influence déterminante aux perceptions, aux actions, à l’apprentissage pour la formation des spécialisations corticales. En même temps, de nouvelles régions ont vu le jour dans le cortex, et de nouvelles connexions se sont mises en place avec les aires primaires, sensorielles et motrices. (Philippe Vernier, 2005 : “Évolution du cerveau et émergence du langage”. - Références : Talmy GIVÓN, Functionalism and Grammar (1995), dernier chapitre : “The co-evolution of language and brain” - Terrence DEACON, The symbolic Species, sous-titré : The co-evolution of Language and Brain 1997 - Ray JACKENDOFF Foundations of Language, sous-titré Brain, Meaning, Grammar, Evolution 2002

- Alors que Vernier ne mentionne que l’évolution des aires corticales, K. Gibson suit de son côté la voie ‘subcorticale’ ouverte par Lieberman (2000) et insiste sur les zones centrales du cerveau également impliquées dans l’administration de la parole et du langage. Kathleen GIBSON (“Not the neocortex alone : other brain structures also contribute to speech and language”, 2013)

Trois manières pour les organismes de s’adapter à des fins évolutives.

(a) Le cas le plus simple est l’évolution génétique, quand la sélection naturelle agit sur les variétés dans une population, sélectionnant au détriment des allèles qui délivrent la moindre convenance (fit) avec l’environnement.

(b) La seconde voie est celle de l’utilisation de la plasticité phénotypique d’un génotype.

(c) La troisième voie exploite des systèmes et des organes qui ont évolué pour s’adapter à des environnements en évolution rapide et qui ont également une assise génétique - p.158. (S. Számadó / E. Szathmáry, “Evolutionary biological foundations of the origin of language : the coevolution of language and brain” 2013

Leur conclusion :

1) Les variantes linguistiques aisées à apprendre et à retenir sont favorisées en termes d’évolution culturelle et donc se répandent plus vite dans une population donnée ;

2) Les cerveaux plus aptes à assimiler les variétés et le changement linguistique offrent des avantages biologiques adaptatifs à leurs porteurs ; donc les gènes responsables des différences adaptatives vont se répandre dans la population.

3) En conséquence, les langues entrent en connexion neuronale avec les besoins du cerveau humain, et les cerveaux s’adaptent à l’apprentissage et au traitement linguistiques. Si bien que les humains peuvent effectuer une foule d’activités qui tirent profit d’un usage plus efficace de la langue (coopération, utilisation d’outils, maintenance des traditions, etc.)

L’évolution de la parole et l'ingénierie neuromimétique

Entreprises de modélisation et de simulation informatique des processus dont on présume qu’ils ont piloté l’émergence et l’évolution du langage.

- L’un des arguments en faveur des approches computationnelles et robotiques de l’évolution du langage est leur nature interdisciplinaire : Cela permet un dialogue direct avec des discipines empriques concernées par le langage et la cognition, telles que les neurosciences cognitives, la psychologie, la linguistique cognitive, la primatologie et l’anthropologie (…). L’ajout de contraintes aux modèles robotiques sur la base de données empiriques améliore aussi l’aptitude de la robotique et des modèles calculatoires pour générer des prédictions basées sur des théories descriptives, lesquelles peuvent être à leur tour validées ou invalidées par de nouvelles études empiriques et modélisatrices (…).” (références : Simon KIRBY, Function, selection, and innateness – The emergence of linguistic universals, 1999. Pierre-Yves OUDAYER automate de simulation de l’origine de la parole : Self-organization in the evolution of speech 2006. Angelo CANGELOSI, “Robotics and embodied agent modelling of the evolution of language” 2013 

Cerveau des primates et mutations génétiques susceptibles d'avoir facilité l'émergence du langage chez les primates humains

Hypothèse mutationniste :

- “Il est extrêmement improbable que le langage humain ait résulté de la simple adaptation du système de communication d’une espèce antérieure. Rien de ce que nous savons de la neuro-anatomie humaine pertinente pour le langage en rapport avec le complexe Aire de Broca-POT [Jonction pariétale-occipitale temporale dans l’anatomie du cerveau humain] ne nous inciterait à imaginer des homologues dans les structures cérébrales directement pertinentes pour les systèmes de communication des singes [apes and monkeys]. (Wendy Wilkins, Towards an evolutionary biology of language through comparative neuroanatomy, 2013 : 206)

Hypothèse adaptationniste :

- En fin de compte, plus on cherche des continuités entre les primates humains et non humains, non seulement en matière de latéralisation mais dans des secteurs décisifs de l’évolution cognitive, plus on trouve de similarités. A notre avis, on peut présumer clairement au minimum que le langage et la parole ne sont pas des conditions nécessaires pour que s’exprime la spécialisation hémisphérique chez les primates non-humains et il est temps de considérer d’autres variables ou facteurs susceptibles d’avoir contribué à la différenciation hémisphérique entre individus et entre espèces. (J. Vauclair / H. Cochet, “Speech-gesture links in the ontogeny and phylogeny of gestural communication”, 2013 : 196)

Consensus et dissensus

Plus personne ne cherche une explication simpliste (ni le ‘tout génétique’, ni le ‘tout social’) et tous reconnaissent l’importance de la dimension épigénétique, prenant en compte l’environnement en expansion et donc diversifié des hominidés qui se sont engagés dans des productions symboliques vocales en marge de leurs productions gestuelles.

Questions centrales actuellement sans réponse consensuelle :

- La faculté de langage est-elle issue du ‘GESTE’ ou du ‘CRI’ ? La réponse d’Arbib vise actuellement à intégrer les deux hypothèses par une boucle rétroactive.

- Le langage est-il apparu au terme de PROCESSUS ADAPTATIFS, sans nécessaire intervention de mutations génétiques modifiant les bases organiques ou à la suite de mutations et par détournement (exaptation) de mécanismes mis en place pour satisfaire d’autres besoins ? 

Essai de compromis :

Schéma en trois phases pour les traits dominants de l’évolution de la parole humaine :

a) L’évolution de la bipédie devenue obligatoire chez Homo erectus a entraîné les effets EXAPTATIFS de la descente du larynx et la perte des air sacs ainsi que le hiatus intervocalis,

b) Durant le pleistocène moyen le contrôle de la respiration pour la parole humaine a évolué comme une ADAPTATION spécifique à la parole, et

c) Avec l’évolution des humains modernes , les proportions idéales du tractus vocal (1:1) ont été atteintes par ADAPTATION ”. (Ann MACLARNON, "The anatomical and physiological basis of human speech production : adaptations and exaptations" 2013 : 235)

Auteur: François Jacques

Info: Fin de sa conférence du 11 décembre 2014. Traductions de l'anglais par FJ

[ interdisciplinarité ] [ sémiose ] [ état des lieux ] [ phylogénétique ] [ mémétique ] [ proto-phonation ]

 

Commentaires: 0

Ajouté à la BD par miguel