Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 310
Temps de recherche: 0.0477s

homme-animal

Les découvertes sur la conscience des animaux doivent nous faire réagir

Le 19 avril, la Déclaration de New York soulignait le vaste consensus scientifique sur l’existence d’une conscience chez les animaux. Pour l’auteur de cette tribune, il s’agit maintenant d’en tirer des conséquences concrètes. 

Les pieuvres peuvent-elles ressentir de la souffrance et du plaisir ? Et les poissons, les crabes, les crevettes ou les grillons ? Ces questions ont longtemps été négligées par la science, mais un nouveau domaine interdisciplinaire plein de vitalité émerge aujourd’hui pour les aborder. Il s’appuie sur l’expertise des neurosciences, de la psychologie, de la biologie évolutive, des sciences vétérinaires et de l’étude des comportements animaux. Bien que de nombreuses incertitudes subsistent, certains points de consensus sont apparus. 

La Déclaration de New York sur la conscience animale, publiée le 19 avril et cosignée par les plus grands experts du domaine, affirme la capacité des oiseaux et des mammifères à vivre des expériences conscientes. Avec prudence, les scientifiques établissent également une présomption raisonnable de subjectivité chez tous les autres vertébrés ainsi que chez de nombreux invertébrés, parmi lesquels les pieuvres, les crustacés et les insectes.

Des formes d’expérience qui nous font défaut

Qu’est-ce que la conscience ? Il peut s’agir d’expériences sensorielles ( celle, par exemple, d’un toucher, d’une odeur, d’une vue, d’un goût particuliers) et d’expériences agréables ou désagréables (l’expérience du plaisir, de la douleur, de l’espoir ou de la peur, notamment). L’expérience subjective exige plus que la simple aptitude à détecter des stimuli ; cependant, elle ne nécessite pas de facultés sophistiquées.

Bien sûr, des capacités linguistiques et rationnelles humaines permettent d’avoir des formes d’expérience que d’autres animaux n’ont probablement pas. Mais, de même, de nombreux animaux peuvent avoir des formes d’expérience qui nous font défaut, qu’elles soient sensorielles ou possiblement émotionnelles.

Pour accompagner la Déclaration de New York, les auteurs listent les surprenants résultats des dix dernières années d’études sur la cognition et les comportements animaux.

(Photo : Les couleuvres d’eau peuvent identifier leur propre odeur.)

Les couleuvres d’eau passent une forme de test de conscience de soi que la plupart d’entre nous ne réussiraient pas, en reconnaissant leur propre odeur et en remarquant ses changements. Le labre nettoyeur, petit poisson d’une dizaine de centimètres, réagit avec agressivité face à un miroir, puis il semble comprendre qu’il lui montre son image et il en étudie le reflet.

Si un expérimentateur lui place une tâche sur le corps, il essaie alors de la retirer en la frottant contre une surface. Chez les humains, un tel comportement de reconnaissance de soi n’est observé qu’à partir de l’âge de 18 mois. 

Les pieuvres ont une aversion durable pour les lieux où elles ont reçu une injection douloureuse et gardent un penchant pour ceux où l’on a soulagé leur douleur avec un anesthésiant local.

Les rats, les iguanes et les crabes font des compromis subtils entre plusieurs préoccupations. Exemple : si la lumière extérieure devient trop vive, les crabes se réfugient dans un abri, mais ils y renoncent s’ils y ont subi un choc électrique par le passé. Leur décision dépend de l’intensité du choc, dont ils gardent la mémoire, et de la force de la luminosité. Cet arbitrage entre des priorités concurrentes suggère qu’ils ont une faculté similaire à la nôtre de soupeser et de gérer des besoins de nature très différente.

Souffrances inimaginables

Du côté des insectes, les bourdons semblent apprécier de jouer avec des billes de bois, d’autant plus s’ils sont en situation de détente. Et, comme les humains, les mouches drosophiles connaissent diverses phases de sommeil, mais ont un repos perturbé si on les place en isolement social.

Les dernières découvertes nous montrent que nous avons amplement sous-estimé les capacités cognitives et émotionnelles des animaux. Ce genre d’erreur n’est pas nouveau, mais a des conséquences morales dramatiques. Jusque dans les années 1970, il était par exemple courant de penser que les bébés humains ne ressentaient pas la douleur, ce qui amenait à les opérer sans anesthésie. De nos jours, les femmes et les patients noirs subissent encore des discriminations face au traitement de leurs douleurs.

La croyance en une différence significative entre les ressentis des humains et ceux des autres animaux, davantage issue de notre culture religieuse et d’un mécanisme d’évitement de la culpabilité plutôt que de résultats scientifiques concrets, nous a aussi amenés à tolérer la création d’industries provoquant des souffrances inimaginables à un nombre colossal d’animaux. 

(Photo : Des découvertes récentes ont permis de prouver que les iguanes étaient capables d’effectuer des compromis pour prendre leurs décisions.)

En France, des centaines de milliers d’animaux soumis à l’expérimentation animale des laboratoires subissent des douleurs intenses et prolongées. Les poissons sont trente à quarante fois plus nombreux que les animaux terrestres à mourir pour l’industrie alimentaire et quasiment rien n’est fait pour atténuer leurs souffrances.

" Renoncer à des habitudes spécistes "

De nouveaux types d’élevages industriels, dont nous nous passions bien jusqu’ici, sont à l’étude en France et en Europe. Des milliards d’insectes seront bientôt réduits en farine chaque année pour nourrir de nouveaux élevages intensifs de saumons. Des projets d’élevage de pieuvres promettent l’exploitation intensive à ces animaux solitaires et particulièrement intelligents, dont l’alimentation dépendra principalement de la pêche d’animaux sauvages, aux dépens de la vie marine.

En 2022, des centaines de chercheurs internationaux ayant dédié leur carrière à l’étude de l’éthique avertissaient du caractère foncièrement injuste de faire subir des violences non nécessaires à des animaux. Dans la Déclaration de Montréal sur l’exploitation animale, ils s’accordaient sur " la nécessité de condamner l’ensemble des pratiques qui supposent de traiter les animaux comme des choses ou des marchandises " et d’œuvrer au développement d’une agriculture végétale.

" Ceci requiert en particulier, poursuivaient-ils, de renoncer à des habitudes spécistes bien ancrées et de transformer […] certaines de nos institutions. " Posons-nous sincèrement la question : nos préférences collectives pour les plats carnés et les poissons justifient-elles les souffrances que l’industrie alimentaire inflige aux animaux ?

Auteur: Riberolles Gautier

Info: https://reporterre.net/ - 13 mai 2024

[ entendement ] [ comparaison ]

 

Commentaires: 0

Ajouté à la BD par miguel

interdépendances

La première idée de Gaïa naît donc du raisonnement suivant  : "Si les humains actuels, par leur industrie, peuvent répandre partout sur Terre des produits chimiques que je détecte par mes instruments, il est bien possible que toute la biochimie terrestre soit, elle aussi, le produit des organismes vivants. Si les humains modifient si radicalement leur environnement en si peu de temps, alors les autres vivants peuvent l’avoir fait, eux aussi, sur des centaines de millions d’années." La Terre est bel et bien une sorte de technosphère artificiellement conçue dont les vivants seraient les ingénieurs aussi aveugles que les termites. Il faut être ingénieur et inventeur comme Lovelock pour comprendre cette intrication.

Gaïa n’a donc rien d’une idée New Age sur l’équilibre millénaire de la Terre, mais émerge au contraire d’une situation industrielle et technologique très particulière : une violente rupture technologique, mêlant la conquête de l’espace, la guerre nucléaire et la guerre froide, que l’on résume désormais par le terme d’ "anthropocène" et qui s’accompagne d’une rupture culturelle symbolisée par la Californie des années 1960. Drogue, sexe, cybernétique, conquête spatiale, guerre du Vietnam, ordinateurs et menace nucléaire, c’est la matrice où naît l’hypothèse Gaïa : dans la violence, l’artifice et la guerre. Toutefois le trait le plus étonnant de cette hypothèse est qu’elle tient au couplage de deux analyses diamétralement opposées. L’analyse de Lovelock imagine la Terre vue de Mars comme un système cybernétique. Et celle de Lynn Margulis regarde la planète par l’autre bout de la lorgnette, à partir des plus minuscules et des plus anciens des organismes vivants.

A l’époque, dans les années 1970, Margulis est l’exemple typique de ce que les Anglais appellent une maverick : une dissidente qui secoue les néodarwiniens alors en plein essor. L’évolution, dans leur esprit, suppose l’existence d’organismes suffisamment séparables les uns des autres pour qu’on leur attribue un degré de réussite inférieur ou supérieur aux autres. Or Margulis conteste l’existence même d’individus séparables : une cellule, une bactérie ou un humain. Pour la simple et excellente raison qu’ils sont "tous entrelacés", comme l’indique le titre d’un livre récent.

Une cellule est une superposition d’êtres indépendants, de même que notre organisme dépend non seulement de nos gènes, mais de ceux des bestioles infiniment plus nombreuses qui occupent notre intestin et couvrent notre peau. Il y a bien évolution, mais sur quel périmètre porte celle-ci et quels sont les participants entrelacés qui en tirent profit, voilà qui n'est pas calculable. Les gènes ont beau être "égoïstes", comme l’avançait naguère Richard Dawkins, le problème est qu’ils ne savent pas où s’arrête exactement leur ego ! Chose intéressante, plus le temps passe, plus les découvertes de Margulis prennent de l’importance, au point qu’elle s’approche aujourd’hui de l’orthodoxie grâce à l’extension foudroyante du concept de holobionte, terme qui résume à lui seul la superposition des vivants pliés les uns dans les autres.

Que se passe-t-il quand on combine l’intuition de Lovelock avec celle de Margulis ? Au cours du séminaire auquel je participe le lendemain avant que la neige ne vienne ensevelir le sud de l’Angleterre, la réponse m’apparaît assez clairement : la théorie Gaïa permet de saisir les "puissances d’agir" de tous les organismes entremêlés sans aussitôt les intégrer dans un tout qui leur serait supérieur et auquel ils obéiraient. En ce sens, et malgré le mot "système", Gaïa n’agit pas de façon systématique, en tout cas ce n'est pas un système unifié. Comme Lenton le démontre, selon les échelles d’espace et de temps, la régulation est très forte ou très lâche : l’homéostasie d’un organisme et la régulation plutôt erratique du climat ne sont pas du même type. C’est que la Terre n'est pas un organisme. Contrairement à tous les vivants, elle se nourrit d’elle-même en quelque sorte, par un recyclage continu avec très peu d’apport extérieur de matière (en dehors bien sûr de l’énergie solaire). On ne peut même pas dire que Gaïa soit synonyme du globe ou du monde naturel puisque, après tout, les vivants, même après plusieurs milliards d’années d’évolution, ne contrôlent qu’une mince pellicule de la Terre, une sorte de biofilm, ce que les chercheurs avec qui je travaille maintenant appellent "zones critiques".

Je comprends alors les erreurs commises dans l’interprétation de la théorie Gaïa par ceux qui l’ont rejetée trop vite comme par ceux qui l’ont embrassée avec trop d’enthousiasme : les premiers autant que les seconds ont projeté une figure de la Terre, du globe, de la nature, de l’ordre naturel, sans prendre en compte le fait qu’il s’agissait d’un objet unique demandant une révision générale des conceptions scientifiques.

Ah mais alors j’avais bien raison d’établir un parallèle avec Galilée ! Bloqué sous ma couette en attendant qu’il pleuve assez pour que les Anglais osent se risquer hors de chez eux, je comprenais cette phrase étonnante de Lovelock : "L’hypothèse Gaïa a pour conséquence que la stabilité de notre planète inclut l’humanité comme une partie ou un partenaire au sein d’un ensemble parfaitement démocratique." Je n’avais jamais compris cette allusion à la démocratie chez un auteur qui ne la défendait pas particulièrement. C’est qu’il ne s’agit pas de la démocratie des humains mais d’un renversement de perspective capital pour la suite.

Avant Gaïa, les habitants des sociétés industrielles modernes, quand ils se tournaient vers la nature, y voyaient le domaine de la nécessité, et, quand ils considéraient la société, ils y voyaient, pour parler comme les philosophes, le domaine de la liberté. Mais, après Gaïa, il n’y a plus littéralement deux domaines distincts : aucun vivant, aucun animé n’obéit à un ordre supérieur à lui et qui le dominerait ou auquel il lui suffirait de s’adapter – cela est vrai des bactéries comme des lions ou des sociétés humaines. Cela ne veut pas dire que tous les vivants soient libres au sens un peu simplet de l’individualisme puisqu’ils sont entrelacés, pliés, intriqués les uns dans les autres. Cela veut dire que la question de la liberté et de la dépendance vaut autant pour les humains que pour les partenaires du ci-devant monde naturel.

Galilée avait inventé un monde d’objets, posés les uns à côté des autres sans s’influencer et entièrement soumis aux lois de la physique. Lovelock et Margulis dessinent un monde d’agents qui interagissent sans cesse entre eux.

Auteur: Latour Bruno

Info: L’OBS/N°2791-03/05/2018

[ interactions ] [ redistribution des rôles ]

 
Commentaires: 2
Ajouté à la BD par miguel

chronos

Comment les physiciens explorent et repensent le temps

Le temps est inextricablement lié à ce qui pourrait être l’objectif le plus fondamental de la physique : la prédiction. Qu'ils étudient des boulets de canon, des électrons ou l'univers entier, les physiciens visent à recueillir des informations sur le passé ou le présent et à les projeter vers l'avant pour avoir un aperçu de l'avenir. Le temps est, comme l’a dit Frank Wilczek, lauréat du prix Nobel, dans un récent épisode du podcast The Joy of Why de Quanta, " la variable maîtresse sous laquelle le monde se déroule ".  Outre la prédiction, les physiciens sont confrontés au défi de comprendre le temps comme un phénomène physique à part entière. Ils développent des explications de plus en plus précises sur la caractéristique la plus évidente du temps dans notre vie quotidienne : son écoulement inexorable. Et des expériences récentes montrent des façons plus exotiques dont le temps peut se comporter selon les lois de la mécanique quantique et de la relativité générale. Alors que les chercheurs approfondissent leur compréhension du temps dans ces deux théories chères, ils se heurtent à des énigmes qui semblent surgir de niveaux de réalité plus obscurs et plus fondamentaux. Einstein a dit en plaisantant que le temps est ce que mesurent les horloges. C'est une réponse rapide. Mais alors que les physiciens manipulent des horloges de plus en plus sophistiquées, on leur rappelle fréquemment que mesurer quelque chose est très différent de le comprendre. 

Quoi de neuf et remarquable

Une réalisation majeure a été de comprendre pourquoi le temps ne s'écoule qu'en avant, alors que la plupart des faits physiques les plus simples peuvent être faits et défaits avec la même facilité.  La réponse générale semble provenir des statistiques des systèmes complexes et de la tendance de ces systèmes à passer de configurations rares et ordonnées à des configurations désordonnées plus courantes, qui ont une entropie plus élevée. Les physiciens ont ainsi défini une " flèche du temps " classique dans les années 1800, et dans les temps modernes, les physiciens ont remanié cette flèche probabiliste en termes d’intrication quantique croissante. En 2021, ma collègue Natalie Wolchover a fait état d’une nouvelle description des horloges comme de machine qui ont besoin du désordre pour fonctionner sans problème, resserrant ainsi le lien entre emps et entropie. 

Simultanément, les expérimentateurs se sont fait un plaisir d'exposer les bizarres courbures et crépitements du temps que nous ne connaissons pas, mais qui sont autorisés par les lois contre-intuitives de la relativité générale et de la mécanique quantique. En ce qui concerne la relativité, Katie McCormick a décrit en 2021 une expérience mesurant la façon dont le champ gravitationnel de la Terre ralentit le tic-tac du temps sur des distances aussi courtes qu'un millimètre. En ce qui concerne la mécanique quantique, j'ai rapporté l'année dernière comment des physiciens ont réussi à faire en sorte que des particules de lumière fassent l'expérience d'un écoulement simultané du temps vers l'avant et vers l'arrière.

C'est lorsque les physiciens sont confrontés à la formidable tâche de fusionner la théorie quantique avec la relativité générale que tout ça devient confus ; chaque théorie a sa propre conception du temps, mais les deux notions n’ont presque rien en commun.

En mécanique quantique, le temps fonctionne plus ou moins comme on peut s'y attendre : vous commencez par un état initial et utilisez une équation pour le faire avancer de manière rigide jusqu'à un état ultérieur. Des manigances quantiques peuvent se produire en raison des façons particulières dont les états quantiques peuvent se combiner, mais le concept familier du changement se produisant avec le tic-tac d’une horloge maîtresse reste intact.

En relativité générale, cependant, une telle horloge maîtresse n’existe pas. Einstein a cousu le temps dans un tissu espace-temps qui se plie et ondule, ralentissant certaines horloges et en accélérant d’autres. Dans ce tableau géométrique, le temps devient une dimension au même titre que les trois dimensions de l'espace, bien qu'il s'agisse d'une dimension bizarroïde qui ne permet de voyager que dans une seule direction.

Et dans ce contexte, les physiciens dépouillent souvent le temps de sa nature à sens unique. Bon nombre des découvertes fondamentales de Hawking sur les trous noirs – cicatrices dans le tissu spatio-temporel créées par l’effondrement violent d’étoiles géantes – sont nées de la mesure du temps avec une horloge qui marquait des nombres imaginaires, un traitement mathématique qui simplifie certaines équations gravitationnelles et considère le temps comme apparié à l'espace. Ses conclusions sont désormais considérées comme incontournables, malgré la nature non physique de l’astuce mathématique qu’il a utilisée pour y parvenir.

Plus récemment, des physiciens ont utilisé cette même astuce du temps imaginaire pour affirmer que notre univers est l'univers le plus typique, comme je l'ai rapporté en 2022. Ils se demandent encore pourquoi l'astuce semble fonctionner et ce que signifie son utilité. "Il se peut qu'il y ait ici quelque chose de profond que nous n'avons pas tout à fait compris", a écrit le célèbre physicien Anthony Zee à propos du jeu imaginaire du temps dans son manuel de théorie quantique des champs.

Mais qu’en est-il du temps réel et à sens unique dans notre univers ? Comment les physiciens peuvent-ils concilier les deux images du temps alors qu’ils se dirigent sur la pointe des pieds vers une théorie de la gravité quantique qui unit la théorie quantique à la relativité générale ? C’est l’un des problèmes les plus difficiles de la physique moderne. Même si personne ne connaît la réponse, les propositions intrigantes abondent.

Une suggestion, comme je l’ai signalé en 2022, est d’assouplir le fonctionnement restrictif du temps en mécanique quantique en permettant à l’univers de générer apparemment une variété d’avenirs à mesure qu’il grandit – une solution désagréable pour de nombreux physiciens. Natalie Wolchover a écrit sur la suspicion croissante selon laquelle le passage du temps résulte de l'enchevêtrement de particules quantiques, tout comme la température émerge de la bousculade des molécules. En 2020, elle a également évoqué une idée encore plus originale : que la physique soit reformulée en termes de nombres imprécis et abandonne ses ambitions de faire des prévisions parfaites de l’avenir.

Tout ce que les horloges mesurent continue de s’avérer insaisissable et mystérieux. 

Auteur: Internet

Info: https://www.quantamagazine.org/ - Charlie Wood, 1 avril 2024

 

Commentaires: 0

Ajouté à la BD par miguel

peur du vide

En 1930, John Maynard Keynes avait prédit que d’ici la fin du siècle, les technologies seraient suffisamment avancées pour que des pays comme le Royaume-Uni ou les États-Unis mettent en place une semaine de travail de 15 heures. Tout laisse à penser qu’il avait raison. En termes technologiques, nous en sommes tout à fait capables. Et pourtant cela n’est pas arrivé. Au contraire, la technologie a été mobilisée dans le but de trouver des moyens de nous faire travailler plus. Pour cela, des emplois effectivement inutiles, ont dû être créés. Des populations entières, en Europe et en Amérique du Nord particulièrement, passent toute leur vie professionnelle à effectuer des tâches dont ils pensent secrètement qu’elles n’ont vraiment pas lieu d’être effectuées. Les dommages moraux et spirituels que cette situation engendre sont profonds. Ils sont une cicatrice sur notre âme collective. Et pourtant presque personne n’en parle.

Pourquoi l’utopie promise par Keynes — et qui était encore très attendue dans les années 60 — ne s’est-elle jamais matérialisée ? La réponse standard aujourd’hui est qu’il n’a pas pris en compte la croissance massive du consumérisme. Entre moins d’heures passées à travailler et plus de jouets et de plaisirs, nous avons collectivement opté pour la deuxième alternative. Il s’agit d’une jolie fable morale, sauf qu’en l’analysant, ne serait-ce qu’un court instant, nous comprenons que cela n’est pas vrai. Oui, nous avons été les témoins de la création d’une grande variété d’emplois et d’industries depuis les années 20, mais très peu d’entre eux ont un rapport avec la production et la distribution de sushis, d’iPhones ou de baskets à la mode.

Quels sont donc ces nouveaux emplois précisément ? Un rapport récent comparant l’emploi aux États-Unis entre 1910 et 2000 nous en donne une image claire et nette (il faut au passage souligner qu’un rapport similaire a été produit sur l’emploi au Royaume-Uni). Au cours du siècle dernier, le nombre de travailleurs, employés dans l’industrie ou l’agriculture a considérablement chuté. Parallèlement, les emplois de "professionnels, administrateurs, managers, vendeurs et employés de l’industrie des services" ont triplé, passant "de un quart à trois quarts des employés totaux". En d’autres termes, les métiers productifs, comme prédit, ont pu être largement automatisés (même si vous comptez les employés de l’industrie en Inde et Chine, ce type de travailleurs ne représente pas un pourcentage aussi large qu’avant).

Mais plutôt que de permettre une réduction massive des heures de travail pour libérer la population mondiale afin qu’elle poursuive ses propres projets, plaisirs, visions et idées, nous avons pu observer le gonflement, non seulement des industries de "service", mais aussi du secteur administratif, et la création de nouvelles industries comme les services financiers, le télémarketing, ou l’expansion sans précédent de secteurs comme le droit corporatiste, les administrations universitaires et de santé, les ressources humaines ou encore les relations publiques. Et ces chiffres ne prennent pas en compte tous ceux qui assurent un soutien administratif, technique ou sécuritaire à toutes ces industries, voire à toutes les autres industries annexes rattachées à celles-ci (les toiletteurs pour chiens, les livreurs de pizzas ouverts toute la nuit) qui n’existent que parce que tous les autres passent la majeure partie de leur temps à travailler pour les premières.

C’est ce que je propose d’appeler des "métiers à la con".

C’est comme si quelqu’un inventait des emplois inutiles, dans le seul but de continuer à nous faire tous travailler. Et c’est ici que réside tout le mystère. Dans un système capitaliste, c’est précisément ce qui n’est pas censé se produire. Dans les anciens et inefficaces états socialistes, comme l’URSS, où l’emploi était considéré à la fois comme un droit et un devoir sacré, le système fabriquait autant d’emploi que nécessaire (c’est une des raisons pour lesquelles il fallait trois personnes dans les supermarchés pour vous servir un morceau de viande). Mais, bien sûr, c’est précisément le genre de problème que la compétition de marché est censée régler. Selon les théories économiques, en tout cas, la dernière chose qu’une entreprise recherchant le profit va faire, c’est de débourser de l’argent à des employés qu’elle ne devrait pas payer. C’est pourtant ce qui se produit, d’une certaine façon.

Alors que les entreprises s’engagent dans des campagnes de restrictions impitoyables, ces licenciements touchent principalement la classe des gens qui produisent, déplacent, réparent ou maintiennent les choses; alors qu’à travers une étrange alchimie que personne ne peut expliquer, le nombre de "gratte-papier" semble gonfler, et de plus en plus d’employés finissent, à l’instar des travailleurs de l’ex-URSS, par travailler 40 ou 50 heures par semaine, mais avec un temps effectif de travail utile de 15 heures, exactement comme Keynes l’avait prédit, puisque le reste de leur temps consiste à organiser ou à participer à des séminaires de motivation, à mettre à jour leur profil Facebook ou à télécharger des séries télévisées.

La réponse n’est de toute évidence pas économique : elle est morale et politique. La classe dirigeante a compris qu’une population heureuse, productive et bénéficiant de temps libre est un danger mortel (pensez à ce qui s’est passé lorsque cela a commencé à se réaliser dans les années 60). Et, d’un autre côté, le sentiment selon lequel le travail étant une valeur morale intrinsèque et que quiconque refusant de se soumettre à une forme intense de travail pendant ses journées ne mérite rien, est extraordinairement pratique pour eux.

Autrefois, considérant l’augmentation apparemment infinie des responsabilités administratives dans les départements universitaires britanniques, j’en ai déduit une vision possible de l’enfer. L’enfer, c’est un groupe d’individus qui passent le plus clair de leur temps à effectuer des tâches qu’ils n’aiment pas et pour lesquelles ils ne sont pas spécialement doués. Disons qu’ils ont été engagés parce qu’ils étaient de très bons menuisiers, et qu’ils découvrent ensuite qu’ils doivent passer une grande partie de leur temps à cuire du poisson. Effectuer cette tâche n’est pas non plus indispensable, mais au moins il y a une quantité très limitée de poissons à faire cuire. Et pourtant, ils deviennent tous complètement obsédés par le fait que certains de leurs collègues passent peut-être plus de temps à faire de la menuiserie sans contribuer de manière équitable à faire frire du poisson et, très rapidement, des piles entières de poisson mal cuits et inutiles envahissent l’atelier, et cuire du poisson est devenu l’activité principale.

Auteur: Graeber David

Info: Thought Info http://partage-le.com/2016/01/a-propos-des-metiers-a-la-con-par-david-graeber/

[ déséquilibre ] [ absurde ] [ diminution du travail ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

âme

Panpsychisme, l'esprit des pierres La plupart pense que tous les humains sont conscients, ainsi que beaucoup d'animaux. Certains, comme les grands singes, semblent même être timides comme nous. D'autres, comme les chiens et les chats, les porcs, manquent d'un sens de l'ego mais ils semblent éprouver les états intérieurs de plaisir, etc... Pour les créatures plus petites, comme des moustiques, nous ne sommes pas aussi sûrs et n'avons pas de scrupules pour les massacrer. Quant aux plantes, elles n'ont évidemment pas d'esprit, excepté dans des contes de fées. Et encore moins les choses non vivantes comme les tables et les pierres. Les Atomes Mentaux "Si l'évolution fonctionne en douceur, une certaines forme de conscience doit être présente à l'origine même des choses. On constate que les philosophes évolutionnistes commencent à en poser le principe. Chaque atome de la galaxie, supposent-ils, doit avoir eu un atome original de conscience lié avec lui. Les atomes mentaux... sont alors fondu en de plus grandes consciences : nous-mêmes et peut-être chez nos camarade-animaux." James William, Principes de Psychologie 1890 Tout paraît de bon sens. Mais le bon sens n'a pas toujours été un si bon guide pour comprendre le monde et sa partie la plus récalcitrante à notre compréhension à l'heure actuelle est bien la conscience elle-même. Comment les processus électrochimiques de notre cerveau, peuvent-ils exister et donner ce jeu en technicolor de la conscience, avec ses transports de joie, ses coups d'angoisse et autres moments de contentement doux alternant avec l'ennui ?... Voici peut-être une des dernières frontières des sciences. Elle nourrit les énergies intellectuelles de la communauté scientifique, les psychologues, philosophes, physiciens, informaticiens et aussi, de temps en temps, le Dalai Lama. Ceci amène certains à une hypothèse un peu folle. Peut-être, disent-ils, que l'esprit n'est pas limité aux cerveaux de quelques animaux. Peut-être est-il partout, présent dans chaque atome, des électrons et neutrinos jusqu'aux galaxies, sans exclure les choses de taille moyenne comme un verre de l'eau ou une plante en pot. Il n'aurait donc pas soudainement surgi quand quelques particules physiques sur une certaine planète se sont retrouvées, après évolution, dans la bonne configuration. Mais plutôt : il y a une conscience dans le cosmos depuis toujours. Cette doctrine que la substance du monde est fondamentalement esprit s'appelle panpsychisme. Il y a quelques décennies, le philosophe américain Thomas Nagel a montré que c'était une conséquence logique de quelques faits raisonnables. D'abord, nos cerveaux se composent de particules matérielles. Ensuite ces particules, dans certains arrangements, produisent des pensées et des sentiments subjectifs. Troisièmement, les propriétés physiques ne peuvent expliquer en elles-mêmes la subjectivité. (Comment l'ineffable expérience qui consiste à goûter une fraise pourrait-elle résulter en équations physiques ?) Nagel a donc théorisé que les propriétés d'un système complexe comme le cerveau ne surgissent pas simplement dans l'existence à partir de nulle part. Elles doivent dériver des propriétés des constituants de ce système. Ces constituants doivent par conséquent avoir eux-mêmes des propriétés subjectives - propriétés qui, dans les bonnes combinaisons, s'ajoutent jusqu'à donner nos pensées et sentiments intérieurs. Et comme les électrons, les protons et les neutrons constituant nos cerveaux ne sont pas différent de ceux qui constituent le reste du cosmos l'univers entier doit donc se composer d'infimes morceaux de conscience. Nagel n'est pas allé jusqu'au panpsychisme, mais aujourd'hui il peut constater quelque qui ressemble à une mode. Le philosophe australien David Chalmers et le physicien Roger Penrose d'Oxford ont parlé de lui. Dans le livre récent "La conscience et sa place dans la nature," le philosophe britannique Galen Strawson défend le panpsychisme contre de nombreuses critiques. Comment se pourrait-il, demandent les sceptiques, que des morceaux d'esprit poussière, avec des états mentaux vraisemblablement simples, se combinent-ils pour former le genres d'expériences mentales compliquées que nous autres humains vivons ? Après tout, quand on rassemble un groupe de personnes dans une salle, leurs différents esprits ne forment pas un esprit collectif simple. (Quoique!) Ensuite il y a le fait incommode qu'on ne peut pas scientifiquement tester cette affirmation qui, par exemple, dirait que la lune a un fonctionnement mental. (Et cela s'applique aussi aux gens - comment pourrez-vous démontrer que vos camarades de bureau de ne sont pas des robots sans connaissance, comme le commandant Data sur "Star Trek" ?) Il y a aussi cette idée un peu pernicieuse : si quelque chose comme un photon peut avoir des proto-émotions, proto-croyances et proto-désirs. Que pourrait alors être le contenu du désir d'un photon?.. Devenir un quark, ironise un anti panpsychisme. Il est plus facile de parodier le Panpsychisme que le réfuter. Mais même si cette recherche de compréhension de la conscience s'avère être un cul-de-sac, cela pourra éventuellement nous aider à nous élever au-dessus de nos pensées conventionnelles de la perspective cosmique. Nous sommes des êtres biologiques. Nous existons parce que nous sommes des autos réplications de nous-mêmes. Nous détectons et agissons sur l'information de notre environnement de sorte que nos réplications continuent. En tant que sous-produits, nous avons développé des cerveaux qui, nous voulons voir comme les choses les plus complexes de l'univers. Mais pensons à la matière brute. Prenez un rocher. Il ne semble pas faire grand-chose, en tout cas pour ce qui est d'animer nos perceptions. Mais à un nano niveau il se compose d'un nombre inimaginable d'atomes reliés par des liaisons chimiques flexibles, ondoyantes et s'agitant ensembles à des cadences que même notre ordinateur géant le plus rapide pourra envier pour encore longtemps. Et ils ne 'agitent pas au hasard. Les intestins du rocher "voient" l'univers entier au moyen de signaux gravitationnels et électromagnétiques qu'ils reçoivent sans interruption. Un tel système pourrait être regardé comme un processeur polyvalent d'informations, dont la dynamique intérieure pourrait refléter n'importe quelle séquence des états mentaux que nos cerveaux traversent. Et là où il y a de l'information, dit le panpsychisme, il y a de la conscience. Ainsi le slogan de David Chalmers, "l'expérience est information de l'intérieur; la physique est information de l'extérieur." Mais le rocher ne se démène pas lui-même comme résultat de toute cette "réflexion". Pourquoi le devrait-il ? Son existence, à la différence de la nôtre, ne dépend pas d'une lutte pour la survie et la reproduction. Il est indifférent à la perspective d'être pulvérisé. Etant poète on pourrait voir le rocher comme un être purement contemplatif. Et on pourrait dessiner cette morale que l'univers est, et a toujours été, saturé d'esprit. Même si nous autres snobs darwiniens reproducteurs retardataires sommes trop fermés pour le réaliser.

Auteur: Holt Jim

Info: Fortean Times 18 Nov. 2007

[ matière ] [ monade ] [ minéral ] [ métaphysique ] [ chiasme ]

 

Commentaires: 0

analyse holistique

Un type de raisonnement que l'AI ne peut remplacer

L'ingénieur en logiciel et philosophe William J. Littlefield II fait remarquer dans un essai récent qu'il existe trois types de raisonnement. Dont deux d'entre eux que nous avons probablement tous appris à l'école : le raisonnement déductif et inductif. Les ordinateurs peuvent très bien faire les deux.

Le raisonnement déductif : Les chiens sont des chiens. Tuffy est un chien. Tuffy est donc un chien.

Les premiers ordinateurs, dit Littlefield, utilisaient généralement le raisonnement déductif (qu'il considère comme un raisonnement "descendant"). Ce qui permet à de puissants ordinateurs de battre les humains à des jeux comme les échecs et le Go en calculant beaucoup plus de mouvements logiques à la fois qu'un humain ne peut le faire.

Le raisonnement inductif, en revanche, est un raisonnement "ascendant", qui va d'une série de faits pertinents à une conclusion, par exemple :

Un club a organisé 60 compétitions de natation, 20 dans chaque lieu ci-dessous :

Lorsque le Club organise des compétitions de natation à Sandy Point, nous obtenons en moyenne 80 % de votes d'approbation.

Lorsque le Club organise des compétitions de natation à Stony Point, nous obtenons en moyenne 60 % des suffrages.

Lorsque le Club organise des compétitions de natation à Rocky Point, nous obtenons une approbation moyenne de 40 %.

Conclusion : Les membres du club préfèrent les plages de sable fin aux autres types de plages.

Ici aussi l'avènement de nouvelles méthodes comme les réseaux neuronaux a permis à de puissants ordinateurs d'assembler une grande quantité d'information afin de permettre un tel raisonnement inductif (Big Data).

Cependant, le Flop IBM de Watson en médecine (supposée aider à soigner le cancer on vit l'AI incapable de discerner les infos pertinentes dans une grande masse de données) suggère que dans les situations où - contrairement aux échecs - il n'y a pas vraiment de "règles", les machines ont beaucoup de difficulté à décider quelles données choisir. Peut-être qu'un jour une encore plus grande masse de données résoudra ce problème. Nous verrons bien.

Mais, selon Littlefield, le troisième type de raisonnement, le raisonnement abductif, fonctionne un peu différemment :

"Contrairement à l'induction ou à la déduction, où nous commençons par des cas pour tirer des conclusions sur une règle, ou vice versa, avec l'abduction, nous générons une hypothèse pour expliquer la relation entre une situation et une règle. De façon plus concise, dans le raisonnement abductif, nous faisons une supposition éclairée." William J. Littlefield II, "La compétence humaine que l'IA ne peut remplacer"

Le raisonnement abductif, décrit à l'origine par un philosophe américain Charles Sanders Peirce (1839-1914), est parfois appelé "inférence vers la meilleure explication", comme dans l'exemple qui suit :

"Un matin, vous entrez dans la cuisine et trouvez une assiette et une tasse sur la table, avec de la chapelure et une noix de beurre dessus, le tout accompagné d'un pot de confiture, un paquet de sucre et un carton vide de lait. Vous en concluez que l'un de vos colocataires s'est levé la nuit pour se préparer une collation de minuit et qu'il était trop fatigué pour débarrasser la table. C'est ce qui, à votre avis, explique le mieux la scène à laquelle vous êtes confronté. Certes, il se peut que quelqu'un ait cambriolé la maison et ait pris le temps de manger un morceau pendant sur le tas, ou qu'un colocataire ait arrangé les choses sur la table sans prendre de collation de minuit, mais juste pour vous faire croire que quelqu'un a pris une collation de minuit. Mais ces hypothèses vous semblent présenter des explications beaucoup plus fantaisistes des données que celle à laquelle vous faites référence." Igor Douven, "Abduction" à l'Encyclopédie Stanford de Philosophie

Notez que la conclusion n'est pas une déduction stricte qu'il n'y a pas non plus suffisamment de preuves pour une induction. Nous choisissons simplement l'explication la plus simple qui tient compte de tous les faits, en gardant à l'esprit la possibilité que de nouvelles preuves nous obligent à reconsidérer notre opinion.

Pourquoi les ordinateurs ne peuvent-ils pas faire ça ? Littlefield dit qu'ils resteraient coincés dans une boucle sans fin :

Une part de ce qui rend l'enlèvement difficile, c'est que nous devons déduire certaines hypothèses probables à partir d'un ensemble vraiment infini d'explications....

"La raison pour laquelle c'est important, c'est que lorsque nous sommes confrontés à des problèmes complexes, une partie de la façon dont nous les résolvons consiste à bricoler. Nous jouons en essayant plusieurs approches, en gardant notre propre système de valeurs fluide pendant que nous cherchons des solutions potentielles. Plus précisément, nous générons des hypothèses. Où 'un ordinateur peut être coincé dans une boucle sans fin, itérant sur des explications infinies, nous utilisons nos systèmes de valeurs pour déduire rapidement quelles explications sont à la fois valables et probables. Peirce savait que le raisonnement abductif était au cœur de la façon dont nous nous attaquons à de nouveaux problèmes ; il pensait en particulier que c'était la façon dont les scientifiques découvrent les choses. Ils observent des phénomènes inattendus et génèrent des hypothèses qui expliquent pourquoi ils se produisent." William J. Littlefield II, "La compétence humaine que l'IA ne peut remplacer"

En d'autres termes, le raisonnement abductif n'est pas à proprement parler une forme de calcul, mais plutôt une supposition éclairée - une évaluation des probabilités fondée sur l'expérience. Il joue un rôle important dans la création d'hypothèses dans les sciences :

"Par exemple, un élève peut avoir remarqué que le pain semble se moisir plus rapidement dans la boîte à pain que dans le réfrigérateur. Le raisonnement abductif amène le jeune chercheur à supposer que la température détermine le taux de croissance des moisissures, comme l'hypothèse qui correspondrait le mieux aux données probantes, si elle est vraie.
Ce processus de raisonnement abductif est vrai qu'il s'agisse d'une expérience scolaire ou d'une thèse de troisième cycle sur l'astrophysique avancée. La pensée abductive permet aux chercheurs de maximiser leur temps et leurs ressources en se concentrant sur une ligne d'expérimentation réaliste.
L'enlèvement est considéré comme le point de départ du processus de recherche, donnant une explication rationnelle, permettant au raisonnement déductif de dicter le plan expérimental exact." Maryn Shuttleworth, "Abductive Reasining" Chez Explorable.com

Comme on peut le voir, le raisonnement abductif fait appel à une certaine créativité parce que l'hypothèse suggérée doit être développée comme une idée et non seulement additionnée à partir d'informations existantes. Et la créativité n'est pas quelque chose que les ordinateurs font vraiment.

C'est l'une des raisons invoquées par le philosophe Jay Richards dans The Human Advantage : L'avenir du travail américain à l'ère des machines intelligentes, comme quoi l'IA ne mettra pas la plupart des humains au chômage. Au contraire, elle changera la nature des emplois, généralement en récompensant la créativité, la flexibilité et une variété d'autres caractéristiques qui ne peuvent être calculées ou automatisées.

Auteur: Internet

Info: https://mindmatters.ai/2019/10/a-type-of-reasoning-ai-cant-replace/, 10 Oct. 2019

[ optimisme ] [ informatique ]

 
Commentaires: 3
Ajouté à la BD par miguel

déconnexion

La mort telle qu'elle n'avait jamais été vue
L'embrasement final du cerveau mis en lumière par l'expérience de Jens Dreier est-il à l'origine de l'apparition de cette intense lumière blanche que les personnes ayant fait une expérience de mort imminente disent avoir vue briller au bout d'un mystérieux tunnel? Cela, l'étude ne le dit pas.
Une expérience réalisée dans une université berlinoise a permis de visualiser ce qui se passait dans le cerveau d'un mourant au moment fatidique. Et les résultats, inédits, sont étonnants. Cérébralement parlant, la mort est moins une extinction qu'un ultime embrasement électrique.
C'est la grande, la fatidique question : que se passe-t-il dans notre cerveau - et donc dans notre esprit, dans notre conscience - à la minute de notre mort ? La réponse, jusqu'ici, paraissait hors d'atteinte de l'investigation scientifique : personne n'est jamais revenu de l'autre rive pour témoigner de ce qu'il avait vu et ressenti au moment de passer de vie à trépas.

Certes, il y a bien ces récits troublants recueillis sur les lèvres de celles et ceux qui ont frôlé la mort de près. Regroupés sous l'appellation d'"expériences de mort imminente" (EMI), ils sont pris très au sérieux par une partie de la communauté des neuroscientifiques qui les répertorie et les décortique, comme le fait l'équipe du Coma Science Group à l'université de Liège (lire ci-dessous).

Mais, par définition, les survivants dont l'expérience a été reconnue comme authentique EMI après évaluation sur l'échelle de Greyson (du nom du psychiatre américain Bruce Greyson, qui l'a proposée en 1983) ont échappé à la mort. Ils n'en ont vu que l'ombre. La mort elle-même et ce qu'elle provoque dans le cerveau du mourant demeurent entièrement nimbés de mystère. Du moins était-ce le cas jusqu'à cette année...

Dans une étude publiée par la revue "Annals of Neurology" qui a fait sensation - et qui fera sans doute date dans l'histoire encore toute récente de la thanatologie -, le professeur en neurologie expérimentale à l'université Charité de Berlin, Jens Dreier, détaille l'expérience extraordinaire à laquelle son équipe et lui se sont livrés sur neuf patients. Ces neuf personnes, toutes entrées en soins intensifs à la suite de blessures cérébrales, faisaient l'objet d'un monitorage neurologique lourd, plus invasif qu'un simple électroencéphalogramme.

"Il s'agit d'une technique non conventionnelle, qui permet d'enregistrer l'activité électrique du cerveau, y compris à de très basses fréquences, de l'ordre de 0,01 hertz", explique Stéphane Marinesco, responsable du Centre de recherche en neurosciences de Lyon. Les basses fréquences émises par le cerveau ont du mal à traverser le scalp, ce qui les rend indétectables aux appareils d'électroencéphalogramme dont les électrodes sont placées sur le cuir chevelu. Dans le système de monitorage dont étaient équipés les patients du service du Pr Dreier, les électrodes étaient placées à l'intérieur du crâne, et même sous la dure-mère, cette membrane rigide qui entoure le cerveau et la moelle épinière.

Le cerveau, un vaste mystère qui reste à élucider
Cet accès aux très basses fréquences, correspondant à une activité électrique lente, a été la fenêtre qui a permis à Jens Dreier et son équipe de visualiser ce qui se passait dans le cerveau de personnes en train de mourir. Pour leur expérience, les neuroscientifiques allemands ont simplement demandé aux familles, une fois devenu évident que le patient ne survivrait pas à son accident, l'autorisation de poursuivre l'enregistrement jusqu'au bout. Et même un peu au-delà du "bout", c'est-à-dire de la mort cérébrale, ce moment à partir duquel un classique électroencéphalogramme n'enregistre plus aucune activité cérébrale et que l'Organisation mondiale de la santé considère comme le critère médico-légal du décès.

Vague de dépolarisation
Qu'ont montré les enregistrements réalisés à la Charité de Berlin ? Quelque chose de tout à fait fascinant, jusque-là inédit, et qui devrait peut-être amener les spécialistes à reconsidérer leur définition du décès et de son moment exact. Ce phénomène cérébral, indique l'étude, survient entre 2 et 5 minutes après l'ischémie, moment où les organes (dont le cerveau) ne sont plus alimentés en sang et donc en oxygène. Et il dure lui-même une petite dizaine de minutes. On peut l'assimiler à une sorte d'incendie électrique qui s'allume à un bout du cerveau et, de là, se propage à la vitesse de 50 microns par seconde dans tout l'encéphale avant de s'éteindre à l'autre bout, son oeuvre de destruction accomplie. Les neuroscientifiques parlent de "vague de dépolarisation".

Pour maintenir le "potentiel de membrane" qui lui permet de communiquer avec ses voisins sous forme d'influx nerveux, un neurone a besoin d'énergie. Et donc d'être irrigué en permanence par le sang venu des artères qui lui apporte l'oxygène indispensable à la production de cette énergie sous forme d'adénosine triphosphate (ATP). Tout le travail de Jens Dreier a consisté à observer ce qui se passait pour les neurones une fois que, le coeur ayant cessé de battre et la pression artérielle étant tombée à zéro, ils n'étaient plus alimentés en oxygène.

"L'étude a montré que les neurones se mettaient alors en mode 'économie d'énergie'", commente Stéphane Marinesco. Pendant les 2 à 5 minutes séparant l'ischémie de l'apparition de la vague de dépolarisation, ils puisent dans leurs réserves d'ATP pour maintenir leur potentiel de membrane. Pendant cette phase intermédiaire, au cours de laquelle le cerveau est littéralement entre la vie et la mort, celui-ci ne subit encore aucune lésion irréversible : si l'apport en oxygène venait à être rétabli, il pourrait se remettre à fonctionner sans dommages majeurs.

Réaction en chaîne
Mais cette résistance héroïque des cellules nerveuses a ses limites. A un moment donné, en l'un ou l'autre endroit du cerveau, un premier neurone "craque", c'est-à-dire qu'il dépolarise. Les stocks de potassium qui lui permettaient de maintenir son potentiel de membrane étant devenus inutiles, il les largue dans le milieu extra-cellulaire. Il agit de même avec ses stocks de glutamate, le principal neurotransmetteur excitateur du cerveau.

Mais, ce faisant, ce premier neurone initie une redoutable réaction en chaîne : le potassium et le glutamate par lui libérés atteignent un neurone voisin dont ils provoquent aussitôt la dépolarisation ; à son tour, ce deuxième neurone relâche ses stocks et provoque la dépolarisation d'un troisième, etc. Ainsi apparaît et se propage la vague de dépolarisation, correspondant à l'activité électrique lente enregistrée par le système de monitorage spécifique utilisé à la Charité de Berlin. Le "bouquet final" du cerveau sur le point de s'éteindre définitivement.

Il est d'autres circonstances de la vie où l'on observe des vagues de dépolarisation, un peu différentes en ceci qu'elles ne sont pas, comme ici, irréversibles. C'est notamment le cas dans les migraines avec aura, naguère appelées migraines ophtalmiques, car elles s'accompagnent de symptômes visuels qui peuvent être de simples distorsions du champ visuel, mais aussi, parfois, l'apparition de taches lumineuses, voire de véritables hallucinations assez similaires à celles rapportées dans les EMI.

L'embrasement final du cerveau mis en lumière par l'expérience de Jens Dreier est-il à l'origine de l'apparition de cette intense lumière blanche que les personnes ayant fait une expérience de mort imminente disent avoir vue briller au bout d'un mystérieux tunnel ? Cela, l'étude ne le dit pas. Mais l'hypothèse ne paraît pas indéfendable. ,

Auteur: Verdo Yann

Info: Les échos.fr, 25/11 à 17:23

[ cessation ] [ disparition ]

 

Commentaires: 0

Ajouté à la BD par miguel

intelligence artificielle

Cinq indices pour repérer les contenus écrits par ChatGPT, Bard ou d'autres robots conversationnels

Voici des astuces pour détecter ces textes qui ne sont pas écrits par des humaines.

1) Elles font des répétitions (mais pas de fautes)

Donc Si vous trouvez une coquille (faute de frappe, de grammaire, etc.) dans un texte, il s'agit d'un bon moyen de voir que l'article que vous lisez a été au minimum retouché par un être humain. En revanche, les articles rédigés par une IA sans supervision humaine sont souvent truffés de répétitions. L'écriture générative a en effet tendance à reproduire les mêmes termes et structures de phrases – même si c'est de moins en moins le cas. Les IA sont de plus en plus performantes et leurs utilisateurs savent également de mieux en mieux les utiliser pour contourner ces écueils.

Des logiciels ont même été développés afin de rendre encore plus humains les textes écrits par une IA. Le plus connu s'appelle Undetectable.ai et permet "d'humaniser" les textes artificiels en les confrontant aux principaux détecteurs d'IA qui existent. De fait, ces détecteurs deviennent de moins en moins fiables. "Open AI [l'entreprise créatrice de ChatGPT] a récemment abandonné son détecteur, car ça ne marche pas", fait remarquer Virginie Mathivet, spécialiste en la matière.

2 Elles sont capables d'affirmer des absurdités

Les IA sont très performantes pour les tâches très codifiées, comme l'orthographe, mais elles peuvent affirmer des absurdités sans sourciller. "Si vous demandez à une IA d'écrire une recette d'omelette aux œufs de vache, elle peut tout à fait le faire." Indique Amélie Cordier, ingénieure spécialiste des IA. 

Les sites qui utilisent des IA pour produire des articles à la chaîne, à partir de contenus trouvés sur internet, sont souvent confrontés à ce problème. Récemment, le site The Portal, qui traite de l'actualité du jeu vidéo, s'est fait épingler sur Twitter par le journaliste Grégory Rozières. Certains articles contiennent en effet de fausses informations grossières, car l'IA qui les rédige a repris au premier degré des blagues trouvées sur Reddit.

Lorsque vous lisez un article et qu'une information semble absurde, ou qu'un chiffre vous paraît démesuré, cela peut donc être la marque d'une rédaction non-humaine. Pour s'en assurer, le mieux est alors de vérifier l'information douteuse grâce à d'autres sources de confiance. "Cela revient à faire du fact-checking, c'est à l'humain d'avoir un regard critique", commente Virginie Mathivet.

3) Elles font preuve d'une productivité inhumaine

La rédaction par IA est encore loin d'être un gage de qualité, mais permet de produire un très grand nombre d'articles en un temps record. Prudence donc face aux sites qui publient quotidiennement une quantité faramineuse d'articles, sans pour autant employer de nombreuses personnes. "Si on voit qu'un blog publie 200 articles par jour sous le même nom, c'est un indice", explique Virginie Mathivet. Certains articles écrits par des robots sont signés par un nom, comme s'ils avaient été rédigés par une personne. Si cette signature semble trop prolifique, l'utilisation d'une IA est à suspecter fortement. Sur le site The Portal, déjà cité plus haut, un même "journaliste" a ainsi signé près de 7 000 articles en seulement neuf jours.

De plus, si les articles entre eux comportent de nombreuses similitudes dans leur forme et leur structure, il y a fort à parier que ceux-ci soient rédigés automatiquement. Les IA ont en effet tendance à produire des contenus très homogènes, surtout s'ils sont créés à partir de la même consigne utilisée en boucle. "L'IA imite, c'est la façon par laquelle elle fonctionne. Elle homogénéise un peu tout", fait remarquer Amélie Cordier.

4 Elles écrivent mal et citent rarement leurs source

Même si elles signent parfois d'un nom humain, les IA ne peuvent pas incarner leurs articles de la même manière qu'un journaliste en chair et en os. Si un journaliste n'a strictement aucune existence en ligne en dehors de sa page auteur, cela peut faire partie des indices qui laissent à penser à une rédaction par IA. Enfin, les articles publiés grâce à une IA ont souvent un ton très factuel, assez désincarné. Les IA citent très rarement leurs sources et ne font jamais intervenir de personne humaine sous forme de citation comme dans un article de presse.

Elles sont en revanche tout à fait capables d'en inventer si on leur demande de le faire. Dans un numéro paru en avril 2023, le magazine people allemand Die Aktuelle a poussé le vice jusqu'à publier une fausse interview exclusive de Michael Schumacher, générée par une AI, comme le raconte le site spécialisé Numerama. La famille de l'ancien champion de Formule 1 a porté plainte et la rédactrice en chef du magazine a finalement été limogée.

L'IA peut cependant être un outil intéressant, tant qu'elle reste sous supervision humaine. Le journaliste Jean Rognetta, créateur de la newsletter Qant, a quotidiennement recours à l'IA. Selon lui, il n'est "plus possible de reconnaître avec certitude un article écrit par une IA, si ce n'est que c'est souvent du mauvais journalisme". S'il utilise l'IA pour écrire sa newsletter, Jean Rognetta reste en effet convaincu de la nécessité d'effectuer une relecture et une correction humaine. "Notre newsletter est écrite avec, et non par une IA", martèle-t-il. Une approche qui pourrait bientôt se généraliser à d'autres journaux. Le 19 juillet dernier, le New York Times annonçait dans ses pages qu'un outil d'IA, destiné à automatiser certaines tâches effectuées par ses journalistes, était en cours de développement par Google.

5 Elles seront bientôt signalées par un filigrane

Face à la difficulté de plus en plus grande de détecter les contenus générés via une IA, l'Union européenne a adopté en juin dernier le "AI Act", avec l'objectif de réguler le secteur. A partir de l'application de la nouvelle réglementation, pas prévue avant 2026, les contenus générés par IA devront être signalés par un "watermark" (une signature en filigrane) indiquant clairement qu'ils n'ont pas été créés par un humain.

La forme de ce watermark n'est cependant pas encore entièrement définie. Il pourrait prendre la forme d'une phrase d'avertissement ou être dissimulé dans le texte, afin d'être moins facilement effaçable par les utilisateurs. Open AI a récemment annoncé travailler sur un watermark invisible. Comment ? Une récente étude (PDF) de l'université du Maryland propose par exemple que les IA soient programmées pour utiliser plus fréquemment une "liste spéciale" de mots définie à l'avance, permettant aux logiciels de détection d'être plus efficaces.

"Il y a de bonnes intentions au niveau de l'UE et des éditeurs, mais le problème reste la question de la mise en œuvre", estime Amélie Cordier. Si la régulation peut se mettre en place facilement pour les plus gros acteurs comme Open AI, Google, etc., elle sera impossible à imposer aux petites entités qui pullulent.

"Si l'utilisateur a le choix entre un logiciel avec 'watermark', ou un logiciel gratuit indétectable, la régulation risque d'être inefficace."

Une opinion que partage Virginie Mathivet, particulièrement en ce qui concerne les "fake news". "Une personne qui veut faire de la désinformation fera en sorte de ne pas avoir de watermark", conclut-elle.

Auteur: Internet

Info: https://www.francetvinfo.fr/, 2 sept 2023, Pauline Lecouvé

[ homme-machine ] [ machine-homme ]

 

Commentaires: 0

Ajouté à la BD par miguel

neurologie

Construire de meilleures cartes mentales

Des techniques innovantes d'analyse de la fonction et de la structure cérébrales révèlent des détails remarquables de l'architecture neuronale, offrant ainsi de nouvelles pistes pour le diagnostic et le traitement des maladies cérébrales.

Bien que le cerveau humain soit un objet de fascination scientifique depuis des siècles, nous ne faisons qu'effleurer la surface en termes de compréhension de sa fonctionnalité et de sa complexité. Nous connaissons bien les zones fonctionnelles générales du cerveau, mais la manière dont ce réseau interconnecté de neurones traite et transmet les informations pour donner naissance à la pensée et à la mémoire reste un domaine de recherche très actif.

L'étude du fonctionnement du cerveau au niveau physiologique fondamental est l'un des domaines de recherche les plus difficiles, nécessitant de nouvelles méthodes d'expérimentation et de détection de l'activité cérébrale à l'échelle neuronale. Les progrès récents des techniques d'imagerie cérébrale et la compréhension de la structure fine du cerveau ont permis d'explorer les fonctions cérébrales d'une nouvelle manière. Ces découvertes ont des répercussions sur la santé du cerveau et l'intelligence artificielle.

Cerveau/ESPRITS et au-delà

Les projets japonais Brain Mapping by Integrated Neurotechnologies for Disease Studies (Brain/MINDS) et Strategic International Brain Science Research Promotion Program (Brain/MINDS Beyond), qui font partie de plusieurs projets nationaux de recherche à grande échelle sur le cerveau lancés ces dernières années dans le monde entier, visent à étudier les circuits neuronaux qui sous-tendent les fonctions cérébrales supérieures. Il s'agit d'initiatives nationales auxquelles participent des dizaines d'institutions, chacune spécialisée dans un domaine particulier de l'étude du cerveau.

L'étude des primates non humains à l'Université de Tokyo et à l'Institut national des sciences et technologies quantiques (QST) est un domaine qui apporte de nouvelles connaissances sur l'architecture du cerveau.

"Lorsqu'il s'agit de comprendre le cerveau humain et les troubles qui peuvent l'affecter, seuls les autres primates partagent nos fonctions supérieures, telles qu'un cortex visuel hiérarchisé et un cortex préfrontal hautement développé responsable de la fonction exécutive et de la prise de décision", explique Takafumi Minamimoto, qui dirige le groupe des systèmes et circuits neuronaux du département d'imagerie cérébrale fonctionnelle de l'Institut national des sciences et technologies quantiques.

"La recherche sur le cerveau des primates est difficile et coûteuse, mais indispensable. Elle nous permet de mieux comprendre le fonctionnement du cerveau, ce qui peut nous aider à comprendre et à traiter les troubles cérébraux chez l'homme".

L'équipe de Minamimoto se concentre sur le développement de méthodes plus précises d'analyse des fonctions cérébrales. Leur plus grande réussite a été la mise au point d'une méthode chimiogénétique pour désactiver l'activité cérébrale au niveau d'un neurone unique, combinée à la tomographie par émission de positrons (TEP) - une technique d'imagerie pour des molécules spécifiques. Cela a permis de visualiser non seulement l'activité des neurones des primates, mais aussi leur connexion avec d'autres zones du cerveau.

"Avec la chimiogénétique, nous injectons une solution virale inoffensive dans une zone spécifique du cerveau pour modifier génétiquement les neurones afin de les rendre sensibles à un produit chimique suppresseur", explique Minamimoto. "Nous pouvons ensuite injecter le suppresseur afin d'éteindre les neurones modifiés pendant plusieurs heures".

L'équipe a récemment mis au point un produit chimique suppresseur 100 fois plus efficace, ce qui lui permet d'injecter de minuscules doses de ce suppresseur pour affecter sélectivement des groupes individuels de neurones et leurs connexions axonales. Ils ont utilisé cette technique pour réduire au silence des connexions spécifiques afin de découvrir les circuits responsables de la mémoire de travail et de la prise de décision.

Cette approche est également prometteuse pour le traitement des troubles cérébraux chez l'homme. Par exemple, comme modèle potentiel de traitement chez l'homme, le groupe a récemment rapporté que la chimiogénétique peut supprimer les crises d'épilepsie chez les macaques.

Le système visuel

Une autre équipe, située à l'université de Tokyo et dirigée par Kenichi Ohki, étudie la manière dont les informations visuelles sont traitées chez les primates, dont le cortex visuel est très développé et hiérarchisé. Les recherches du groupe sur les ouistitis utilisent une technique d'imagerie calcique à haute sensibilité qui permet de visualiser la façon dont des parties spécifiques du cerveau réagissent à différents stimuli.

"L'imagerie au calcium est une technique utilisée depuis longtemps pour observer le fonctionnement du cerveau chez les souris, mais elle n'était pas assez sensible pour visualiser des groupes discrets de neurones chez les primates avec la même qualité que chez les souris", explique M. Ohki. "En collaboration avec Tetsuo Yamamori du RIKEN, nous avons mis au point une méthode améliorée qui a augmenté de manière significative l'expression de la protéine fluorescente GCaMP6 dans le cerveau des primates, ce qui, combiné à l'imagerie à deux photons basée sur le laser, nous permet de visualiser l'activité des neurones avec une étonnante précision dans des détails.

Le système visuel représente plus de la moitié du cortex cérébral chez les primates et se constitue vie une hiérarchie élaborée d'étapes de traitement de l'information. Il existe des zones distinctes qui traitent les motifs et les angles, par exemple, et les recherches d'Ohki ont montré que les neurones se déclenchent selon des schémas coordonnés sensibles à ces différents stimuli, avec des fonctionnalités différentes au niveau cellulaire.

"L'une des conclusions fascinantes de nos travaux est que la hiérarchie du système visuel semble traiter le bruit dans une direction opposée à celle dont les réseaux neuronaux artificiels traitent généralement les stimuli sonores", explique Ohki. "Il serait intéressant de construire un réseau neuronal artificiel qui permette une telle méthode de traitement du bruit dans le système visuel des primates.

Le groupe de recherche d'Ohki étudie en détail la façon dont le bruit est traité dans ces connexions cortico-corticales, qui semblent fondamentales pour le fonctionnement du cerveau chez les primates. Ces connexions peuvent également expliquer la plasticité du cerveau et la façon dont différentes zones peuvent être enrôlées pour le traitement de l'information si la connexion primaire est entravée.

"Par exemple, nous avons découvert que le développement du système visuel se produit chez le nouveau-né à la suite d'une activité ondulatoire à travers la rétine, qui stimule les connexions thalamo-corticales qui construisent cette structure hiérarchique", explique Ohki4.

Sans ces stimuli, les connexions ne peuvent pas se développer du cortex visuel primaire vers le cortex visuel supérieur. Par ailleurs, si ces connexions ne se développent pas, on peut s'attendre à ce que des connexions alternatives soient établies à partir d'autres zones, telles que le cortex somatosensoriel, vers le cortex visuel supérieur. Ohki suggère que cela pourrait également expliquer comment les patients aveugles utilisent le cortex visuel pour "lire" le braille, bien qu'il s'agisse d'une fonction tactile.

"Les résultats de nos études sur les primates fournissent des indications précieuses sur les troubles neuropsychiatriques humains, en particulier ceux qui sont liés à une mauvaise communication dans le cerveau. Nos techniques seront utiles pour orienter la recherche spécifique et transposer les connaissances des primates à l'homme", déclare M. Minamimoto.

"Nous espérons partager ces connaissances et cette technologie avec le monde entier et collaborer avec d'autres groupes pour faire avancer ce domaine important de la recherche sur le cerveau.

Auteur: Internet

Info: https://www.nature.com, article publicitaire, Réf : Nagai, Y. et al. Nat. Comm. 7, 13605 (2016), Neuro. 23, 1157-1167 (2020), Miyakawa, N. et al. Nat 608, 578-585 (2022). Comm. 14, 971 (2023)

[ visualisation ] [ primatocentrisme ]

 

Commentaires: 0

Ajouté à la BD par miguel

proto-biologie

Suzan Mazur : Donc, avec cette donation, vous allez tenter de déterminer les principes généraux de la vie. Comment définissez-vous la vie ?

C W : C'est le problème, nous ne pouvons pas. Nous n'avons pas encore répondu aux questions centrales sur l'origine de la vie. Nous devons encore obtenir des preuves plus directes de ce que j'appelle une condition pré-Darwinienne, une condition progénote de la vie. C'est l'une des choses sur lesquelles nous travaillons, en essayant d'obtenir autant de preuves directes que possible. Évidemment, comme il s'agit d'un stade de l'évolution qui s'est déroulé il y a trois milliards d'années ou plus, nous n'allons pas obtenir beaucoup de preuves directes. Nous pouvons obtenir des archives fossiles, mais elles ne sont pas fiables. Il faut déduire tout ce qu'on peut de l'analyse intelligente et perspicace des données de la séquence du génome.

SM : Que considérez-vous comme l'évolution ?

CW : L'évolution est en fait ce que la biologie devrait être. Qu'est-ce que la biologie ? Est-ce une description de formes sous le microscope ? Cela ne peut pas être cela. L'évolution est un processus. C'est le processus que nous appelons maintenant biologie, et  qui est très statique. L'évolution, en revanche, est dynamique. Et nous devons comprendre quelles sont les règles que suit cette dynamique.

Alfred North Whitehead disait qu'en biologie et dans d'autres domaines, nous n'avons pas affaire à une procession de formes (ce qui résume le point de vue de Lazcano), nous avons affaire à la forme ou aux formes du processus. C'est dans cette distinction que réside l'essence même de l'institut d'astrobiologie de l'Illinois. Nous allons réellement étudier l'origine évolutive de la vie. Toute personne ayant une intuition biologique peut sentir - que la vie est un processus évolutif. Comme je l'ai dit, ce n'est pas seulement une procession de formes.

SM : Avez-vous des inquiétudes concernant la création d'une protocellule ?

CW : Oh oui. Il y en a, comme vous le savez, Craig Venter bat le tambour sur ce sujet tout le temps, juste pour être à l'avant-garde. Le pouvoir.

SM : Il y a aussi les chercheurs de Harry Lonsdale, qui l'abordent de manière ascendante. David Deamer, scientifique à l'origine de la vie à l'Université de Santa Cruz, par exemple, dit qu'il prévoit de fabriquer une protocellule d'ici une dizaine d'années.

CW : Bonne chance.

SM : ça vous préoccupe, la protocellule ?

CW : Je suis préoccupé par les scientifiques qui pensent qu'ils sont Dieu quand il s'agit de biologie. Les scientifiques devraient essayer d'étudier les expériences que la nature a déjà faites sous la forme du processus d'évolution.

SM : Vous avez décrit la "déconnexion entre les darwinistes, qui avaient pris le contrôle de l'évolution, et les microbiologistes, qui ne trouvaient aucune utilité à la sélection naturelle darwinienne." Avez-vous quelque chose à dire sur la récente décision du Huffington Post de bloquer la publication de la réponse du microbiologiste James Shapiro au darwiniste Jerry Coyne suite à la récente attaque de Coyne sur la pensée de Shapiro concernant un rôle réduit de la sélection naturelle dans l'évolution ?

CW : Je pense que c'est immoral. La science doit être libre d'examiner ce qu'elle voit. Si vous dites que tout le monde doit suivre la ligne darwinienne, ce n'est pas de la science libre. Le Huffington Post est passé de droite/gauche à gauche/droite. Je ne sais pas où il est maintenant. Cela n'appartient pas à la science.

Je pense que Shapiro a le doigt sur l'avenir. Il voit que nous devrions étudier la régulation. L'épigénétique est très importante.

SM : Vous avez également remarqué que la pensée de Darwin sur la descendance commune est "principalement fondée sur l'analogie" et que l'évolution qui émerge maintenant ne découle pas de Darwin. Je vous cite "Il me semble qu'une biologie future ne peut être construite dans les superstructures conceptuelles du passé. L'ancienne superstructure doit être remplacée par une nouvelle pour que les problèmes holistiques puissent émerger comme le nouveau courant dominant de la biologie". Vous attendriez-vous à ce que Darwin suive la voie de Freud si la biologie entre dans le monde non linéaire et que l'évolution est redéfinie ?

CW : Cela pourrait bien être le cas. J'ai longtemps soutenu, jusqu'à la fin du XXe siècle, que le problème du processus d'évolution est un problème antérieur à son époque. Darwin a essayé d'obtenir un crédit personnel en faisant irruption avec ça à un certain moment. La pensée conceptuelle sur l'évolution a d'abord été établie par des gens comme Buffon et le propre grand-père de Darwin, Erasmus Darwin - que Darwin ne mentionne jamais dans l'Origine des espèces, sauf dans une note de bas de page lorsqu'il y fut contraint, dans la troisième édition, de l'ajouter au bas de la préface.

Il l'a nommé d'une manière dédaigneuse. Disant en gros, oh oui, beaucoup de gens ont pensé à cela et a nommé des gens comme Buffon et Lamarck. Mais il n'a pas nommé son propre grand-père, Erasmus Darwin, sauf pour dire que son grand-père avait les mêmes idées fausses que Lamarck et Goethe. Et il n'a pas dit quelles étaient ces idées ou ce qu'il leur reprochait. Il voulait se distancer de son grand-père autant qu'il le pouvait.

SM : J'ai été intrigué par l'interview que vous avez donné au magazine Wired il y a quelques années où vous avez parlé de "l'interaction distribuée" agissant au sein de diverses communautés en réseau de la vie précoce avant la cellule moderne. Et puis vous avez dit que cette dynamique pré-darwinienne se retrouve dans la société. Je me demandais si vous vouliez dire que nous continuons en quelque sorte à reconstituer notre ancien passé organisationnel ?

CW : Non, je ne pense pas que nous tournons dans les mêmes cercles. Il s'agit d'une spirale toujours plus grande, parce que c'est ainsi que l'on peut définir un système complexe dynamique.

SM : Nigel Goldenfeld a fait des conférences sur les "trois régimes dynamiques". Fait-il référence à ce que vous avez décrit dans votre article de 2006 - une faible évolution communautaire, une puissante évolution communautaire et une évolution individuelle ?

CW : Oui, je crois qu'il le fait. Je suis presque sûr que c'est le cas. Et dans un article que j'ai écrit sur les archées, je parle de l'évolution de l'individualité. Il y avait un stade communautaire au départ. C'est ce que j'appelle habituellement le progénote. J'utilise le terme "trois domaines". J'ai écrit quelque chose en 2004 pour Microbiology and Molecular Biology Review. Freeman Dyson a été séduit par ce texte et a demandé la permission de l'utiliser dans un article qu'il a écrit pour la New York Review of Books. Nigel essaie de définir pour les physiciens ce que sont ces trois domaines. C'est l'un des rares points sur lesquels je diffère de Nigel Goldenfeld. C'est un amicale différent dans nos dialogues.

SM : C'est merveilleux que vous fassiez ces percées sans rencontrer trop d'hostilité de la part de la communauté de la biologie classique.

CW : Mais je n'ai pas détrôné l'hégémonie de la culture de Darwin.

Auteur: Woese Carl

Info: interviewé par Suzan Mazur, 4 October 2012, https://www.scoop.co.nz/. Trad Mg

[ triade ] [ pré-mémétique ] [ apprentis sorciers ] [ changement de paradigme ] [ éthique ] [ prébiotique ]

 

Commentaires: 0

Ajouté à la BD par miguel