Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 779
Temps de recherche: 0.0483s

bon sens

L'utilisation d'armes biologiques était déjà interdite par le protocole de Genève de 1925, un traité international que les États-Unis n'avaient jamais ratifié. C'est alors que Matthew Meselson rédigea un document intitulé "Les États-Unis et le protocole de Genève", dans lequel il expliquait pourquoi ils devaient le faire. Meselson connaissait Henry Kissinger, qui a transmis son document au président Nixon et, à la fin de 1969, ce dernier renonçait aux armes biologiques.

Vint ensuite la question des toxines - poisons dérivés d'organismes vivants. Certains conseillers de Nixon estimaient que les États-Unis devaient renoncer à l'utilisation de toxines d'origine naturelle, mais conserver le droit d'utiliser des versions artificielles des mêmes substances. C'est un autre document de Meselson, "What Policy for Toxins", qui conduisit Nixon à rejeter cette distinction arbitraire et à renoncer à l'utilisation de toutes les armes à toxines.

Sur les conseils de Meselson, Nixon soumis à nouveau le protocole de Genève à l'approbation du Sénat. Mais il alla également allé au-delà des termes du protocole - qui interdit uniquement l'utilisation d'armes biologiques - pour renoncer à la recherche biologique offensive elle-même. Les stocks de substances biologiques offensives, comme l'anthrax que Meselson avait découvert à Fort Detrick, furent détruits.

Une fois que les États-Unis eurent adopté cette politique plus stricte, Meselson se tourna vers la scène mondiale. Lui et ses pairs voulaient un accord international plus fort que le protocole de Genève, un accord qui interdirait le stockage et la recherche offensive en plus de l'utilisation et prévoirait un système de vérification. Leurs efforts aboutirent à la Convention sur les armes biologiques, signée en 1972 et toujours en vigueur aujourd'hui.

"Grâce en grande partie au travail inlassable du professeur Matthew Meselson, le monde s'est réuni et a interdit les armes biologiques, garantissant ainsi que la science toujours plus puissante de la biologie aide l'humanité au lieu de lui nuire. Pour cela, il mérite la profonde gratitude de l'humanité", déclara l'ancien secrétaire général des Nations unies, Ban Ki-Moon.

M. Meselson déclara que la guerre biologique "pourrait effacer la distinction entre la guerre et la paix". Les autres formes de guerre ont un début et une fin - on sait clairement ce qui relève de la guerre et ce qui n'en relève pas. Une guerre biologique serait différente : "On ne sait pas ce qui se passe, ou alors on sait ce qui se passe mais ça se passe sans cesse."

Et les conséquences de la guerre biologique pourraient même être plus importantes que la destruction de masse ; les attaques via l'ADN pourraient modifier fondamentalement l'humanité. La FLI rend hommage à Matthew Meselson pour ses efforts visant à protéger non seulement la vie humaine mais aussi la définition même de l'humanité.

Selon l'astronome Lord Martin Rees, "Matt Meselson est un grand scientifique - et l'un des rares à s'être profondément engagé pour que le monde soit à l'abri des menaces biologiques. Il s'agit là d'un défi aussi important que le contrôle des armes nucléaires - et bien plus difficile à relever. Ses efforts soutenus et dévoués méritent pleinement une plus large reconnaissance."

Le 9 avril 2022, le Dr Matthew Meselson a reçu le prix Future of Life, d'une valeur de 50 000 dollars, lors d'une cérémonie organisée dans le cadre de la conférence sur les affaires mondiales de l'université de Boulder. Le Dr Meselson a été l'une des forces motrices de la Convention sur les armes biologiques de 1972, une interdiction internationale qui a empêché l'une des formes de guerre les plus inhumaines que connaisse l'humanité. Le 9 avril a marqué la veille du 47e anniversaire de la convention.

La longue carrière de M. Meselson est jalonnée de moments forts : la confirmation de l'hypothèse de Watson et Crick sur la structure de l'ADN, la résolution du mystère de l'anthrax de Sverdlovsk, l'arrêt de l'utilisation de l'agent orange au Viêt Nam. Mais c'est surtout son travail sur les armes biologiques qui fait de lui un héros international.

"Par son travail aux États-Unis et au niveau international, Matt Meselson a été l'un des principaux précurseurs de la convention sur les armes biologiques de 1972", a déclaré Daniel Feakes, chef de l'unité de soutien à la mise en œuvre de la convention sur les armes biologiques. "Le traité interdit les armes biologiques et compte aujourd'hui 182 États membres. Depuis lors, il n'a cessé d'être le gardien de la BWC. L'avertissement qu'il a lancé en 2000 sur le potentiel d'exploitation hostile de la biologie a préfiguré bon nombre des avancées technologiques dont nous sommes aujourd'hui témoins dans les sciences de la vie et les réponses qui ont été adoptées depuis."

M. Meselson a commencé à s'intéresser aux armes biologiques dans les années 60, alors qu'il travaillait pour l'Agence américaine de contrôle des armements et du désarmement. C'est lors d'une visite de Fort Detrick, où les États-Unis fabriquaient alors de l'anthrax, qu'il a appris ce qu'il en éltait du développement des armes biologiques : elles étaient moins chères que les armes nucléaires. M. Meselson fut frappé, dit-il, par l'illogisme de ce raisonnement : diminuer le coût de production des ADM serait un risque évident pour la sécurité nationale.

"Aujourd'hui, la biotechnologie est une force du bien dans le monde, associée au fait de sauver plutôt que de prendre des vies, parce que Matthew Meselson a contribué à tracer une ligne rouge claire entre les utilisations acceptables et inacceptables de la biologie", ajoute Max Tegmark, professeur au MIT et président de la FLI. "C'est une source d'inspiration pour ceux qui veulent tracer une ligne rouge similaire entre les utilisations acceptables et inacceptables de l'intelligence artificielle et interdire les armes autonomes létales".

Auteur: Internet

Info: https://futureoflife.org/2019/04/09

[ sagesse ] [ responsabilité scientifique ] [ savants responsables ] [ gratitude ]

 

Commentaires: 0

Ajouté à la BD par miguel

progrès

Pourquoi la victoire d’une Intelligence artificielle au poker est plus inquiétante qu’il n’y paraît
Une intelligence artificielle (IA) du nom de Libratus a fait mordre la poussière à 4 des meilleurs joueurs de Poker au monde, à l’issu d’un tournoi de poker de longue haleine, au Rivers Casino, à Pittsburgh, aux États-Unis. Dong Kim, Jason Les, Jimmy Chou et Daniel McAuley ont joué plusieurs jours à raison de 11h par jour, sans monnaie réelle – mais avec un enjeu financier selon leur capacité individuelle à se défaire de l’IA.
Jusqu’ici, il était relativement simple pour un algorithme de prévoir l’issue d’une partie d’échecs ou de Go, car tous les mouvements sont prévisibles à partir de la configuration du plateau de jeu. Mais au poker, il est impossible de connaître la main de ses adversaires ni leur état d’esprit, qui influe grandement leur prise de décision.
Le tournoi qui a opposé 4 joueurs de Poker professionels à l’IA Libratus. (Carnegie Mellon University)
Cette victoire constitue une première mondiale significative ; jusqu’ici, étant donné la grande complexité du poker et des facteurs humains impliqués, les machines qui s’étaient frottées au jeu avaient perdu. Sur les sites de paris en ligne, la victoire des 4 joueurs l’emportait à 4 contre 1.
Une victoire qui étonne même le créateur de l’algorithme
L’algorithme à la base de Libratus repose sur un “deep learning”. Libratus est une version améliorée d’un algorithme antérieur, déjà testé dans des circonstances similaires en 2015 – les joueurs de Poker l’avaient alors emporté.
La victoire confirme la puissance grandissante des algorithmes sur une période très courte. En octobre 2015, le programme alphaGo se débarrassait par 5 parties à 0 du champion européen Fan Hui. En mars 2016, le même programme battait le champion du monde Lee Sedol 4 parties à 1.
Le plus étonnant, selon Noam Brown, le créateur de Libratus, est que contrairement aux intelligences artificielles programmées pour gagner aux échecs, Libratus n’a jamais appris “comment” jouer au Poker. “Nous lui avons donné les règles de base”, et nous lui avons dit “apprends par toi-même”. Durant les pauses du tournoi, alors que les humains dînaient, dormaient ou analysaient les différentes mains de la partie, Brown connectait l’ordinateur au superordinateur de Pittsburg et affinait sa stratégie en rejouant des milliards de possibilités.
“Quand vous jouez contre un humain, vous perdez, vous arrêtez, vous faites une pause. Ici, nous devions donner le meilleur de nous-même 11 heures par jour. La différence est réelle, et émotionnellement, cela est dur à supporter si vous n’êtes pas habitués à perdre”, raconte Les, qui avait joué contre Claudico, une version antérieure de l’algorithme ayant servi de base à Libratus.
Libratus a joué de façon agressive, et n’a pas hésité à faire grimper les paris pour des gains minimes. “Ce n’est pas quelque chose que ferait un humain, en temps normal. Mais cela vous force à devoir donner le meilleur de vous à chaque tour”, évalue Les, qui après la performance de Libratus, a avoué que plus rien ne pourrait l’étonner désormais.
Des raisons de s’inquiéter
“Quand j’ai vu l’IA se lancer dans le bluff en face d’humains, je me suis dit “mais, je ne lui ai jamais appris à faire cela !” C’est une satisfaction pour moi de me dire que j’ai réussi à créer quelque chose capable de cela”, a commenté Noam Brown.
Si le professeur a exprimé un sentiment de “fierté paternelle”, d’autres scientifiques se sont inquiétés des conséquences de l’évolution de l’algorithme ayant donné naissance à Libratus.
Avec cette capacité à traiter l’"imperfection" comme une donnée d’équation, les intelligences artificielles ne jouent plus dans la même cour. On peut sans crainte avancer qu’il sera possible, à l’avenir, d’avoir des robots capables de rivaliser avec les humains sur des enjeux impliquant la décision humaine. Ils pourraient prendre de meilleures décisions dans les transactions financières, ou dresser de meilleures stratégies militaires.
“En fait, le poker est le moindre de nos soucis. Nous avons à présent une machine capable de vous botter les fesses en affaires ou sur le plan militaire", s’inquiète Roman V. Yampolskiy, professeur de sciences informatique de l’université de Louisville.
Au sujet du Deep learning
Le Deep learning dont il est question est une révolution en cela que les intelligence artificielles, qui s’en tenaient à analyser et comparer des données, peuvent maintenant les "comprendre" et apprendre d’elle même ; ce qui la porte à un niveau d’abstraction supérieur. "Par exemple, une IA à qui on donne des photos représentant des museaux, du pelage, des moustaches et des coussinets sous les pattes, est capable d’élaborer le concept de chat. Elle utilise une logique exploratoire qui crée des concepts, elle n’est pas uniquement constituée d’algorithmes préprogrammés", explique Stéphane Mallard, chargé de stratégie et d’innovation dans les salles de marché de la Société Générale.
En 2011, une expérience a été menée dans un jeu télévisé américain, Jeopardy, dans lequel les candidats doivent trouver la question à partir d’une réponse. Une IA développée par IBM, nommée Watson, a gagné haut la main. Or aujourd’hui, d’après Stéphane Mallard, cette IA serait 2 500 fois plus puissante.
Il semble impossible, même pour une IA, de prévoir aujourd’hui jusqu’où ira le développement de ces machines. Mais comme dans les fables tournant autour de l’apprenti-sorcier, il se pourrait que l’erreur ne soit comprise que trop tard.
D’après le producteur, auteur et conférencier Cyrille de Lasteyrie, la rapidité du développement de l’IA, le fait d’ignorer les conséquences du développement de l’IA est dangereux. "En 2005, les entreprises ne prenaient pas Internet au sérieux, et considéraient le phénomène comme un sujet secondaire. Dix ans après, ces mêmes boîtes nous appellent en panique pour mener une transformation digitale profonde et de toute urgence… Je suis convaincu que c’est la même problématique avec l’intelligence artificielle, multipliée par dix. Les conséquences business, organisationnelles, technologiques, humaines ou sociologiques sont énormes", indique t-il dans une interview accordée à Challenges en septembre dernier.

Auteur: Internet

Info: Daniel Trévise, Epoch Times,5 février 2017

[ évolution ]

 
Mis dans la chaine

Commentaires: 0

biophysique

La photosynthèse des plantes utilise un tour de passe-passe quantique

Des chercheurs ont observé des similitudes étonnantes entre la photosynthèse des plantes vertes et le fameux "cinquième état de la matière" en mettant le doigt sur un curieux phénomène; ils ont trouvé des liens entre le processus de photosynthèse, qui permet aux végétaux d’exploiter la lumière du soleil, et les condensats de Bose-Einstein, des matériaux dans un état très particulier qui fait intervenir la physique quantique.

"Pour autant que je sache, ces deux disciplines n’ont jamais été connectées auparavant, donc ce résultat nous a semblé très intrigant et excitant", explique David Mazziotti, co-auteur de l’étude.

Son laboratoire est spécialisé dans la modélisation des interactions complexes de la matière. Ces derniers temps, son équipe s’est intéressée aux mécanismes de la photosynthèse à l’échelle des atomes et des molécules. Plus précisément, les chercheurs se sont penchés sur le siège de cette réaction : les chloroplastes, les petites structures chlorophylliennes qui donnent leur couleur aux plantes vertes.

Lorsqu’un photon vient frapper une structure bien précise à la surface de ces chloroplastes (le photosystème II, ou PSII), cela a pour effet d’arracher un électron — une particule élémentaire chargée négativement. Ce dernier devient alors l’acteur principal d’une réaction en chaîne complexe. Le mécanisme est déjà relativement bien connu. Il a été étudié en profondeur par des tas de spécialistes, et c’est aujourd’hui l’une des pierres angulaires de la biologie végétale.

Mais le départ de cet électron laisse aussi ce que les physiciens appellent un trou. Il ne s’agit pas d’une particule à proprement parler. Mais cette structure chargée positivement est aussi capable se déplacer au sein d’un système. Elle peut donc se comporter comme un vecteur d’énergie.

Ensemble, l’électron éjecté et le trou qu’il laisse derrière lui forment un couple dynamique appelé exciton. Et si le rôle du premier est bien documenté, le comportement du second dans le cadre de la photosynthèse n’a quasiment pas été étudié.

C’est quoi, un condensat de Bose-Einstein ?

Pour combler cette lacune, Mazziotti et ses collègues ont réalisé des modélisations informatiques du phénomène. Et en observant les allées et venues de ces excitons, ces spécialistes des interactions de la matière ont rapidement remarqué quelques motifs qui leur ont semblé familiers ; ils rappelaient fortement un concept proposé par Einstein en 1925.

Imaginez un gaz où des particules se déplacent aléatoirement les uns par rapport aux autres, animées par leur énergie interne. En le refroidissant (ce qui revient à retirer de l’énergie au système), on force les atomes à s’agglutiner ; le gaz passe à l’état liquide, puis solide dans certains cas.

Lorsqu’on le refroidit encore davantage pour s’approcher du zéro absolu, les atomes arrivent dans un état où ils n’ont quasiment plus d’énergie à disposition ; ils sont presque entièrement figés dans un état ultra-condensé, séparés par une distance si minuscule que la physique newtonienne traditionnelle ne suffit plus à l’expliquer.

Sans rentrer dans le détail, dans ces conditions, les atomes (ou plus précisément les bosons) qui composent certains matériaux deviennent quasiment indiscernables. Au niveau quantique, ils forment un système unique, une sorte de super-particule où chaque constituant est exactement dans le même état (voir la notion de dualité onde-corpuscule pour plus de détails). On appelle cela un condensat de Bose-Einstein.

Ces objets ne suivent pas les règles de la physique traditionnelle. Ils affichent des propriétés très particulières qui n’existent pas dans les gaz, les liquides, les solides ou le plasma. Pour cette raison, ces condensats sont parfois considérés comme les représentants du "cinquième état de la matière". (après le solide, le liquide, le gaz et le plasma)

De la biologie végétale à la physique quantique

La plus remarquable de ces propriétés, c’est que les condensats de Bose-Einstein sont de vraies autoroutes à particules. D’après la physicienne américaine Louise Lerner, l’énergie s’y déplace librement, sans la moindre résistance. Même si les mécanismes physiques sous-jacents sont différents, on se retrouve dans une situation comparable à ce que l’on trouve dans les supraconducteurs.

Or, d’après les modèles informatiques créés par Mazziotti et ses collègues, les excitons générés par la photosynthèse peuvent parfois se lier comme dans les condensats de Bose-Einstein. C’est une observation particulièrement surprenante, car jusqu’à présent, cela n’a été documenté qu’à des températures proches du zéro absolu. Selon Louise Lerner, c’est aussi étonnant que de voir "des glaçons se former spontanément dans une tasse de café chaud".

Le phénomène n’est pas aussi marqué chez les plantes que dans les vrais condensats de Bose-Einstein. Mais d’après les auteurs de l’étude, cela aurait quand même pour effet de doubler l’efficacité des transferts énergétiques indispensables à la photosynthèse.

De la recherche fondamentale aux applications pratiques

Les implications de cette découverte ne sont pas encore parfaitement claires. Mais il y en a une qui met déjà l’eau à la bouche des chercheurs : ces travaux pourraient enfin permettre d’utiliser les formidables propriétés des condensats de Bose-Einstein dans des applications concrètes.

En effet, même si ces matériaux sont très intéressants sur le papier, le fait de devoir atteindre une température proche du zéro absolu limite grandement leur intérêt pratique. Aujourd’hui, ils sont utilisés exclusivement en recherche fondamentale. Mais puisqu’un phénomène comparable a désormais été modélisé à température ambiante, les chercheurs vont pouvoir essayer d’utiliser ces mécanismes pour concevoir de nouveaux matériaux aux propriétés très intéressantes.

"Un condensat d’excitons parfait est très sensible et nécessite des conditions très spécifiques", précise Mazziotti. "Mais pour les applications réalistes, c’est très excitant de voir que ce phénomène qui augmente l’efficacité du système peut survenir à température ambiante", se réjouit-il.

A long terme, cette découverte va sans doute contribuer à la recherche fondamentale, en biologie végétale mais aussi en physique quantique pure. Cela pourrait aussi faire émerger une nouvelle génération de composants électroniques très performants. Il sera donc très intéressant de suivre les retombées de ces travaux encore balbutiants, mais exceptionnellement prometteurs.

Auteur: Internet

Info: https://www.journaldugeek.com/, Antoine Gautherie le 05 mai 2023

[ recherche fondamentale ]

 

Commentaires: 0

Ajouté à la BD par miguel

capitalisme

Prenez garde aux psychopathes corporates - ils sont encore aux postes de pouvoir
Au cours des années, j'ai rencontré mon lot de monstres - des fripouilles pour la plupart. Mais à mesure que la réglementation au Royaume-Uni et aux États-Unis a assoupli ses contraintes, ces monstres ont proliféré.
Dans un article publié récemment dans le Journal of Business Ethics intitulé "The Corporate Psychopaths: Theory of the Global Financial Crisis", Clive R Boddy identifie ces individus à des psychopathes.
"Ils sont" dit-il "tout simplement le 1 pour cent des gens qui n'ont aucune conscience ni empathie". Et il affirme : "Des psychopathes qui sont aux postes clefs des sociétés financières modernes de premier plan, où ils peuvent influencer le climat moral de toute l'organisation et générer un pouvoir considérable, ont largement provoqué la crise [bancaire]".
Et M. Boddy n'est pas seul. Dans le livre largement acclamé de Jon Ronson The Psychopath Test, le professeur Robert Hare a déclaré à l'auteur: "J'aurais aussi dû passer un peu de temps à la bourse. Les psychopathes tueurs en série ruinent les familles. Les psychopathes corporatistes, politiques et religieux ruinent les économies. Ils ruinent les sociétés."
Flash back vers une soirée agréable et chaude à Bahreïn. Mon compagnon, un banquier d'investissement britannique et moi-même, parlons des gens de la banque que nous connaissons qui ont eu le plus de succès et ce qui les fait avancer. J'avance qu'ils sont souvent ressemblants aux caractéristiques des psychopathes sociaux. À ma grande surprise, mon ami est d'accord.
Il fait alors une confession étonnante: "Dans une grande banque d'investissement pour laquelle j'ai travaillé, nous avons utilisé des tests psychométriques pour recruter des psychopathes sociaux parce que leurs caractéristiques correspondaient exactement à ce qu'on attend des cadres supérieurs en finance d'entreprisee".
Où une des plus grandes banques d'investissement du monde recrute des psychopathes.
M. Ronson a parlé à des dizaines de psychologues quand à leur compréhension des dégâts que les psychopathes pourraient faire à la société. Aucun de ces psychologues n'aurait pu imaginer, je suis sûr, qu'une une banque utilisait cette science pour les repérer dans son mécanisme de recrutement.
Je n'ai jamais rencontré Dick Fuld, ancien PDG de Lehman Brothers et architecte de sa chute, mais je l'ai vu en vidéo et c'est terrifiant. On le voit intimer au personnel de Lehman "de leur arracher le coeur [aux concurrents] pour le manger, avant même leur mort". Comment quelqu'un comme M. Fuld a-t-il atteint le sommet de Lehman? Vous n'avez pas besoin de voir la vidéo pour conclure qu'il était bizarre. Vous pouvez prendre un peu plus de temps et lire un rapport de 2,200 pages d'Anton Valukas, avocat basé à Chicago, engagé par un tribunal américain pour enquêter sur l'échec de Lehman. M. Valukas a révélé une chicane systémique au sein de la banque; Il a décrit les échecs de la gestion et une culture interne destructive et dangereuse de prise de risques imprudents digne de tout psychopathe.
Alors pourquoi M. Fuld n'a-t-il pas été repéré et arrêté? J'en ai conclu que c'est la bonne vieille question de la nature et de la culture, mais avec une nouvelle interprétation. Voilà comme je vois la chose ; dans sa recherche d'une croissance sans fin, le secteur des services financiers a activement cherché des monstres avec des profils comme M. Fuld en les nourrissant de bonus et de louanges.
Nous comprenons tous que, parfois, les entreprises doivent être réduites en taille afin d'assurer leur survie. Et savoir quand ces réductions doivent arriver est aussi pertinente pour une société que pour l'économie britannique telle qu'elle est aujourd'hui. Doit-on porter atteinte aux riches ou aux pauvres?
Faire de telles réductions ne fait pas de vous un psychopathes au cutter, mais le manque de remords du secteur financier quand à la douleur infligée aux gens est purement psychopathique. Il est certain que l'action d'une diminution ou d'une coupe devrait être matière à chagrin et regret? La vie des gens étant endommagée, voire détruite. Mais ce n'est pas ainsi que le secteur financier voit la chose.
Prenez Sir Fred Goodwin de RBS par exemple. Avant d'accumuler une perte d'entreprise de 24,1 milliards de livres sterling, la plus élevée de l'histoire du Royaume-Uni, il était idolâtré par la City. En reconnaissance de son travail d'impitoyables réductions des coûts à Clydesdale Bank, on lui donna le surnom de "Fred the Shred". Et il fait ça partout, pour être ensuite décrit comme "un Attila d'entreprise", titre dont tout psychopathe serait fier.
M. Ronson rapporte: "Les départements de justice et les commissions de libération conditionnelle du monde entier ont accepté l'affirmation de Hare selon laquelle les psychopathes sont tout simplement incurables, dès lors chacun devrait plutôt concentrer ses énergies pour apprendre à les éliminer".
Mais, bien loin d'être déracinés, ils sont encore en place et souvent à des positions encore plus élevées.
Comme le dit M. Boddy: "Les mêmes psychopathes d'entreprise qui ont probablement provoqué la crise par leur avidité et leur avarice auto-centrée, conseillent maintenant les gouvernements sur la façon de sortir de la crise. En outre, si cette théorie des psychopathes corporatistes dans la crise de la finance mondiale est correcte, nous sommes maintenant loin d'en voir la fin. Ce n'est plutôt que "la fin du début".
Je me suis familiarisé avec les psychopathes dès le début de ma vie. C'étaient les hommes durs qui terrorisaient le sud-est de Londres où j'ai grandi. Des gens comme "Mad" Frankie Fraser et les frères Richardson. Ils étaient ce que nous appelions les hommes de "red haze", et ils étaient effrayants parce qu'ils attaquaient sans crainte, ni pitié, ni remords.
En ce qui concerne messieurs Hare, Ronson, Boddy et d'autres, j'ai réalisé que certains psychopathes "forgent des carrières dans les entreprises. Le groupe s'appelle Psychopathes d'entreprise". Ils sont polis et convaincants, mais cela ne les rend pas moins dangereux.
En essayant de comprendre les complexités de ce qui a mal tourné lors des années qui ont précédé 2008, j'ai développé une règle: "Dans un monde non réglementé, les personnes avec le moins de principes se retrouvent au sommet. Et il n'y a personne qui ait moins de principes que les psychopathes corporates.

Auteur: Basham Brian

Info: jeudi 29 décembre 2011, The Independent Online

[ conservation ] [ profits ]

 

Commentaires: 0

cognition

Les secrets de la conscience : l'imagerie cérébrale révèle pour la première fois des connexions critiques 

Des chercheurs américains ont réussi à cartographier un réseau cérébral essentiel dans l'intégration de l'éveil et de la conscience humaine, en utilisant des techniques d'IRM multimodales avancées. Cette approche offre de nouvelles pistes pour traiter certains troubles neurologiques.

(Image : illustration d'une galaxie dans la silhouette d'une tête humaine représentant l'éveil de la conscience)

Au cœur des neurosciences se trouve un défi complexe : comprendre les fondements de la conscience humaine. Entre éveil et perception, se dessinent des réseaux cérébraux dont les mystères ont longtemps échappé à nos outils d'observation. Mais grâce à la neuro-imagerie, les chercheurs ont identifié un réseau cérébral crucial pour la conscience humaine.

Dans un article publié le 1er mai 2024 dans Science Translational Medicine, un groupe de chercheurs du Massachusetts General Hospital et du Boston Children's Hospital, aux États-Unis, tous deux faisant partie du système de santé Mass General Brigham, ont réussi à cartographier un réseau cérébral sous-cortical crucial dans l'intégration de l'éveil et de la conscience humaine. 

Éveil et conscience : deux dimensions de l'activité cérébrale

L'éveil concerne l'activité et l'attention du cerveau, tandis que la conscience implique nos pensées et sensations résultant de l'intégration d'informations sensorielles et émotionnelles. Il est intéressant de noter que ces deux aspects de la conscience peuvent être dissociés, comme chez les patients en état végétatif qui présentent des cycles d'éveil mais une absence de conscience.

Si le cortex cérébral est considéré comme le siège principal des processus neuronaux de la conscience, les voies sous-corticales ascendantes du tronc cérébral, de l'hypothalamus, du thalamus et du cerveau basal sont essentielles pour l'éveil. Les voies ascendantes transportent des informations sensorielles et des signaux moteurs depuis le tronc cérébral vers le cerveau.

Visualiser les connexions cérébrales à une résolution submillimétrique

À l'aide de techniques d'IRM multimodales avancées, les chercheurs ont pu visualiser les connexions cérébrales à une résolution spatiale submillimétrique.

Cette approche leur a permis de cartographier des connexions jusqu'alors inconnues entre le tronc cérébral, le thalamus, l’hypothalamus, le prosencéphale basal et le cortex cérébral, formant ainsi ce qu'ils nomment le "réseau d'éveil ascendant par défaut", essentiel pour maintenir l'éveil.

Le tronc cérébral est une partie essentielle du cerveau située à la base, qui contrôle des fonctions vitales comme la respiration et la fréquence cardiaque. Le thalamus agit comme un relais pour les informations sensorielles, aidant à les transmettre au cortex cérébral pour le traitement. L’hypothalamus joue un rôle clé dans la régulation des fonctions corporelles telles que la faim, la soif, et le sommeil. Le prosencéphale basal est impliqué dans le contrôle des mouvements et des émotions. Le cortex cérébral est la couche externe du cerveau responsable des fonctions cognitives supérieures telles que la pensée, la perception et la conscience. Ensemble, ces régions forment un réseau appelé le "réseau d'éveil ascendant par défaut", crucial pour maintenir l'état de veille et la conscience dans le cerveau.

(Illustration : Anatomie du cerveau en coupe)

"Notre objectif était de cartographier un réseau cérébral (ensemble de régions du cerveau qui travaillent conjointement pour effectuer des fonctions spécifiques, connectées par des voies de communication neuronales) crucial pour la conscience humaine et de fournir aux cliniciens des outils améliorés pour détecter, prédire et favoriser la récupération de la conscience chez les patients atteints de graves lésions cérébrales", explique Brian Edlow, premier auteur de l'étude, co-directeur du Neuroscience Mass General et directeur associé du Center for Neurotechnology and Neurorecovery (CNTR), dans un communiqué.

Ce réseau " ascendant par défaut de l'éveil" maintient l'éveil dans le cerveau conscient au repos. Le concept d'un réseau " par défaut" repose sur l'idée que certains systèmes de neurones dans le cerveau sont le plus activement fonctionnels lorsque le cerveau est dans un état de repos conscient. En revanche, d'autres réseaux sont plus actifs lorsque le cerveau effectue des tâches dirigées vers des objectifs.

Intégration des données IRM pour cartographier le réseau cérébral

Pour étudier les propriétés fonctionnelles de ce réseau cérébral par défaut, les chercheurs ont combiné des techniques d'imagerie cérébrale avancées, intégrant des données de tractographie par IRM de diffusion ex vivo (cultures cellulaires) et d'IRM fonctionnelle (IRMf) in vivo (humain) à 7 Tesla (7-T).

Les données d'IRM ont ainsi permis de localiser les zones dans le cerveau et d'étudier leurs connexions à l'aide de techniques de tractographie par IRM de diffusion. L’analyse des données d'IRM fonctionnelle, quant à elle, a permis aux chercheurs de comprendre comment ces connexions influent sur l'état d'éveil et de conscience du cerveau humain.

Ces analyses ont finalement révélé des connexions fonctionnelles entre le réseau ascendant par défaut du tronc cérébral et le réseau mode par défaut cortical qui contribue à la conscience de soi dans le cerveau conscient au repos. Les cartes de connectivité structurelle et fonctionnelles complémentaires fournissent une base neuroanatomique pour intégrer l'éveil et la conscience dans la conscience humaine.

(image en coupe montrant un exemple de données de tractographie par IRM de diffusion. Il s'agit là d'une vue latérale du tractus moteur, le tractus corticospinal, d'un sujet humain.)

Feuille de route pour mieux comprendre 

"Les connexions cérébrales humaines que nous avons identifiées peuvent être utilisées comme une feuille de route pour mieux comprendre un large éventail de troubles neurologiques associés à une conscience altérée, allant du coma, aux crises, au syndrome de mort subite du nourrisson (SIDS)", précise Hannah Kinney, MD, Professeure Émérite à l'Hôpital pour Enfants de Boston et à l'École de Médecine de Harvard, dans un communiqué.

Les données de cette étude pourraient servir de base pour comprendre divers troubles neurologiques liés à une altération de la conscience. Les chercheurs ont mis à disposition des données IRM et des méthodes de cartographie cérébrale, ainsi qu'un nouvel atlas du Réseau Ascendant de l'Éveil de Harvard, pour soutenir de futures recherches dans ce domaine.

Les auteurs mènent actuellement des essais cliniques pour stimuler le réseau ascendant par défaut de l'éveil chez les patients en coma après une lésion cérébrale traumatique, dans le but de réactiver le réseau et de restaurer la conscience.

Auteur: Internet

Info: sciencesetavenir.fr - Juliette Frey le 10.05.2024

[ vigilance ] [ proencéphale basal ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

machine-homme

(homme) - Qui fut C.S. Peirce

(machine) - Charles Sanders Peirce (1839-1914) était un philosophe, logicien, mathématicien et scientifique américain. Il est considéré comme l'une des figures les plus influentes dans le développement du pragmatisme, une approche philosophique qui met l'accent sur les conséquences pratiques des croyances et des idées.

Peirce a apporté d'importantes contributions à divers domaines, notamment la sémiotique (l'étude des signes et des symboles), la logique, la philosophie des sciences et la philosophie de l'esprit. Il a développé un système philosophique complet connu sous le nom de "pragmatisme" et a souligné l'importance de la recherche, du faillibilisme et de la méthode scientifique.

Peirce a introduit le concept de sémiotique, qu'il décrit comme l'étude du fonctionnement des signes et de leur signification. Il a classé les signes en trois catégories : les icônes (signes qui ressemblent à ce qu'ils représentent), les indices (signes qui ont un lien physique ou une corrélation avec ce qu'ils représentent) et les symboles (signes qui ont une relation arbitraire avec ce qu'ils représentent).

Les travaux de Peirce sur la logique et le raisonnement ont jeté les bases de la logique formelle moderne. Il a développé un système de notation logique et a apporté des contributions significatives aux domaines du raisonnement déductif, de l'induction et de l'abduction (déduction de la meilleure explication). La maxime pragmatique de Peirce, selon laquelle la signification d'un concept ou d'une croyance est déterminée par ses conséquences pratiques, est au cœur de son approche.

Dans l'ensemble, les travaux de Peirce ont eu un impact profond sur diverses disciplines, notamment la philosophie, la linguistique, la psychologie et les études de communication. Ses idées continuent d'être influentes et font l'objet de recherches et de débats scientifiques permanents.

(homme) - Merci. Dans quelle mesure a-t-il influencé l'intelligence artificielle et/ou l'apprentissage profond supervisé ?

(machine) - Les travaux de Charles Sanders Peirce ont indirectement influencé certains aspects de l'intelligence artificielle (IA) et de l'apprentissage profond supervisé, en particulier dans les domaines de la sémiotique et de la philosophie de l'esprit. Bien que Peirce lui-même n'ait pas directement contribué au développement de l'IA telle que nous la connaissons aujourd'hui, ses idées ont fourni un cadre conceptuel pour comprendre la relation entre les signes, la signification et la cognition, ce qui peut être pertinent pour certaines applications de l'IA.

Dans le domaine du traitement du langage naturel et de l'apprentissage automatique, les concepts sémiotiques de Peirce ont influencé l'étude des signes linguistiques et leur interprétation. Par exemple, la compréhension de la classification des textes et de l'analyse des sentiments peut être éclairée par la distinction de Peirce entre icônes, indices et symboles, car elle aide à reconnaître et à interpréter diverses caractéristiques et modèles linguistiques.

L'accent mis par Peirce sur les conséquences pragmatiques des croyances et des idées résonne également avec les objectifs pratiques de l'IA et de l'apprentissage automatique. Dans l'apprentissage profond supervisé, par exemple, le processus de formation implique l'optimisation des modèles pour minimiser une fonction de perte prédéfinie basée sur les résultats observés. Cela correspond à l'accent mis par Peirce sur les résultats pratiques des croyances et sur l'importance de l'expérimentation et de la recherche.

En outre, les idées philosophiques plus larges de Peirce sur l'abduction, qui est le processus de déduction de la meilleure explication, peuvent être pertinentes dans le contexte de l'IA. Le raisonnement abductif joue un rôle dans la génération d'hypothèses et l'interprétation de modèles, car les systèmes d'IA s'efforcent de découvrir des modèles et des explications sous-jacents à partir de données.

Bien que l'influence de Peirce sur l'IA et l'apprentissage profond supervisé puisse être de nature plus indirecte et philosophique, ses idées ont contribué à la compréhension des signes, de la signification et du raisonnement, ce qui peut éclairer le développement et l'interprétation des systèmes d'IA.

(homme) - OK, merci. Peux-tu nous donner des précisions sur les icônes, les index et les symboles ?

(machine) - Certainement ! Les icônes, les index et les symboles sont trois catégories de signes ou de représentations décrites par Charles Sanders Peirce dans sa théorie sémiotique. Voici une brève explication de chaque catégorie :

1) Les icônes : Les icônes sont des signes qui présentent une ressemblance ou une similitude avec les objets ou les concepts qu'ils représentent. Elles se caractérisent par une relation directe de ressemblance entre le signe et son référent. Les icônes peuvent prendre diverses formes, telles que des images, des diagrammes ou des modèles. Par exemple, un portrait réaliste peut être considéré comme une représentation iconique d'une personne parce qu'il ressemble visuellement à l'individu qu'il représente.

2) Indices : Les indices sont des signes qui ont un lien factuel ou causal avec leurs référents. Contrairement aux icônes, les indices ne reposent pas sur la similitude, mais sur une forme de corrélation ou de relation entre le signe et son référent. Les signes indexicaux indiquent ou pointent souvent vers quelque chose d'autre qu'eux-mêmes. Parmi les exemples de signes indexicaux, on peut citer la fumée comme indice du feu ou une empreinte de pas comme indice de la présence d'une personne. Ils signifient ou indiquent la présence ou l'existence de quelque chose.

3) Les symboles : Les symboles sont des signes qui reposent sur une relation conventionnelle ou arbitraire entre le signe et son référent. Le lien entre un symbole et ce qu'il représente est établi par un accord commun ou une convention sociale. Les mots, les chiffres, les gestes et les symboles culturels sont autant d'exemples de signes symboliques. Par exemple, le mot "chien" est un symbole qui représente le concept d'un animal à quatre pattes, mais il n'y a pas de ressemblance inhérente ou de lien direct entre le mot et l'animal lui-même.

La classification des signes par Peirce en icônes, indices et symboles met en évidence différents modes de représentation et de signification. Alors que les icônes reposent sur la similitude, les indices reposent sur l'association et les symboles sur la convention. Ces catégories fournissent un cadre permettant de comprendre le fonctionnement des signes, la manière dont le sens est transmis et l'interprétation dans divers contextes, notamment le langage, la communication et la cognition.

Auteur: chatGPT4

Info:

[ machine-sur-philosophe ] [ compendium ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

décès

Mourir n'est plus ce qu'il était !
Intensiviste à l'Hôpital Saint-Luc et président du Comité du don d'organes et de tissus du CHUM, le Dr Pierre Aslanian considère son travail comme très valorisant, car il contribue à l'effort collectif de sauver des vies.
"Dans les années 50, l'arrêt définitif du coeur constituait le seul critère de la mort. Ce n'est plus le cas aujourd'hui", déclare le Dr Pierre Aslanian, intensiviste à l'Hôpital Saint-Luc et président du Comité du don d'organes et de tissus du Centre hospitalier de l'Université de Montréal (CHUM). "Depuis l'introduction du concept de mort cérébrale, soit l'arrêt complet et définitif de toute activité du cerveau, par un comité de la Harvard Medical School en 1968, c'est l'état du cerveau qui fait pencher la balance."
La peau du patient est rosée et chaude, son coeur bat, même son thorax se soulève à un rythme régulier, puisque sa respiration est maintenue artificiellement par un appareil et, pourtant, le patient est bel et bien mort. Pour confirmer la mort cérébrale, deux médecins indépendants de l'équipe de prélèvement et de transplantation ont reproduit divers tests cliniques selon un protocole bien défini. "D'abord, il faut connaître l'étiologie du dommage au cerveau, indique Pierre Aslanian. Sans la cause, on ne peut pas conclure à une mort cérébrale. Il faut aussi s'assurer qu'il n'y a aucun facteur confondant comme des sédatifs en circulation dans le sang au moment où l'on effectue les tests."
Concrètement, pour évaluer l'état et l'évolution d'un patient, les médecins disposent d'échelles internationales standardisées, comme l'échelle de coma Glasgow et le protocole de diagnostic du décès neurologique (DDN) de Transplant Québec, grâce auxquelles on peut mesurer notamment la réponse motrice à la douleur et les réflexes du tronc cérébral, la partie inférieure du cerveau responsable de la conscience. L'absence de réflexe respiratoire est validée par un test d'apnée. En cas de doute ou s'il y a présence de facteurs confondants, le DDN doit être établi par un examen complémentaire, par exemple une angiographie cérébrale qui permet d'objectiver l'arrêt de la circulation sanguine encéphalique. Le diagnostic est sans équivoque. L'absence de circulation intracrânienne entraîne une destruction totale et irréversible du cerveau.
"La souffrance d'une famille ébranlée par la mort brutale d'un proche l'empêche souvent de comprendre ce qui se passe exactement, souligne le Dr Aslanian. Les médecins doivent bien expliquer que les organes sont maintenus en fonction de manière artificielle, mais que le patient ne peut pas se réveiller d'un décès neurologique. Son cerveau est mort !"
Toutes les semaines, l'intensiviste, qui possède 20 ans de pratique à l'unité des soins intensifs du centre hospitalier, est confronté à cette dure réalité. Cela est d'autant plus difficile que parfois le patient en état de mort cérébrale peut avoir des réflexes spinaux, mentionne le Dr Aslanian. "On le pince et il y a un mouvement, mais celui-ci n'est pas provoqué par le cerveau. Ce sont les nerfs périphériques reliés à la moelle épinière qui en sont responsables." Le professeur de clinique de la Faculté de médecine de l'Université de Montréal donne régulièrement à l'intention des infirmières et résidents en médecine du CHUM des ateliers sur ce qu'est la mort cérébrale. "Pour offrir l'option du don d'organes aux familles, il faut d'abord savoir reconnaître les donneurs potentiels, signale-t-il. Malheureusement, encore de nos jours, environ 20 % des donneurs potentiels ne le sont pas dans les hôpitaux du Québec."
L'histoire de la mort
Longtemps on a déterminé la mort d'une personne par un acte rudimentaire. Le croquemort se contentait de mordre le gros orteil du défunt pour vérifier qu'il avait réellement trépassé. L'absence de réaction de sa part confirmait définitivement son état. Jusqu'aux années 50, les médecins tâtaient le pouls et cherchaient à voir si de la condensation se formait sur un miroir placé près de la bouche et du nez. La présence ou l'absence de battements du coeur décidait du classement définitif du patient du côté des morts ou des vivants. Puis, avec la venue de la ventilation mécanique qui maintient artificiellement la respiration, on commence à suspendre l'instant de la mort. En 1968, la mort cardiovasculaire cède la place au concept de mort cérébrale, soit "la perte irrémédiable de toutes les fonctions de l'ensemble du cerveau, du tronc cérébral et des deux hémisphères", comme la définit pour la première fois le comité de l'Université Harvard.
"Le premier article scientifique sur la question présenté à la communauté médicale a été publié dans une revue neurologique française en 1959. Les médecins y décrivaient le dommage cérébral important associé à un coma profond duquel les patients ne se réveillaient pas. C'est de cette publication qu'est né le concept de mort cérébrale que les experts de Harvard ont fait connaître internationalement", raconte le Dr Aslanian en précisant que cette époque correspond aussi aux débuts de la transplantation d'organes.
"La notion du décès neurologique a complètement changé notre rapport à la mort", estime le Dr Aslanian. Bien reçu et adopté par divers organismes à l'échelle de la planète, le DDN a néanmoins été contesté sans succès à plusieurs reprises devant les tribunaux américains. "Une commission présidentielle relative aux problèmes bioéthiques et aux aspects biomédicaux en recherche a voulu en 1981 légiférer pour une définition encore plus claire du DDN", rappelle l'intensiviste. En 1995, l'Académie américaine de neurologie constate pour sa part que beaucoup de médecins retiennent des critères différents et insiste pour standardiser les pratiques.
"Même si l'on reconnaît l'intérêt d'uniformiser les façons de faire, les politiques de déclaration de mort cérébrale varient non seulement d'un pays à l'autre, mais aussi d'un État à l'autre", note Pierre Aslanian. Au Canada, en France, en Angleterre et aux États-Unis, le DDN est fait conformément aux pratiques médicales reconnues. Mais il y a certaines nuances. Ainsi, en France, le recours à l'électroencéphalogramme ou à l'angiographie est obligatoire pour attester le caractère irréversible de l'arrêt des fonctions cérébrales. Chez nous et chez nos voisins du Sud, ces tests auxiliaires sont réalisés seulement en cas de doute ou lorsque l'examen clinique ne peut être effectué.
Et puis, il y a les exceptions comme le Japon, où il se pratique très peu de transplantations à partir de donneurs cadavériques. Car, dans l'empire du Soleil-Levant, un grand malaise persiste quant au concept de mort cérébrale.

Auteur: http://www.techno-science.net/

Info: 19.04.2016

[ vérification ] [ validation ] [ historique ]

 

Commentaires: 0

onomasiologie algébrique

Critique réciproque de l’intelligence artificielle et des sciences humaines

Je me souviens d’avoir participé, vers la fin des années 1980, à un Colloque de Cerisy sur les sciences cognitives auquel participaient quelques grands noms américains de la discipline, y compris les tenants des courants neuro-connexionnistes et logicistes. Parmi les invités, le philosophe Hubert Dreyfus (notamment l’auteur de What Computers Can’t Do, MIT Press, 1972) critiquait vertement les chercheurs en intelligence artificielle parce qu’ils ne tenaient pas compte de l’intentionnalité découverte par la phénoménologie. Les raisonnements humains réels, rappelait-il, sont situés, orientés vers une fin et tirent leur pertinence d’un contexte d’interaction. Les sciences de la cognition dominées par le courant logico-statistique étaient incapables de rendre compte des horizons de conscience qui éclairent l’intelligence. Dreyfus avait sans doute raison, mais sa critique ne portait pas assez loin, car ce n’était pas seulement la phénoménologie qui était ignorée. L’intelligence artificielle (IA) n’intégrait pas non plus dans la cognition qu’elle prétendait modéliser la complexité des systèmes symboliques et de la communication humaine, ni les médias qui la soutiennent, ni les tensions pragmatiques ou les relations sociales qui l’animent. A cet égard, nous vivons aujourd’hui dans une situation paradoxale puisque l’IA connaît un succès pratique impressionnant au moment même où son échec théorique devient patent.

Succès pratique, en effet, puisqu’éclate partout l’utilité des algorithmes statistiques, de l’apprentissage automatique, des simulations d’intelligence collective animale, des réseaux neuronaux et d’autres systèmes de reconnaissance de formes. Le traitement automatique du langage naturel n’a jamais été aussi populaire, comme en témoigne par exemple l’usage de Google translate. Le Web des données promu par le WWW consortium (dirigé par Sir Tim Berners-Lee). utilise le même type de règles logiques que les systèmes experts des années 1980. Enfin, les algorithmes de computation sociale mis en oeuvre par les moteurs de recherche et les médias sociaux montrent chaque jour leur efficacité.

Mais il faut bien constater l’échec théorique de l’IA puisque, malgré la multitude des outils algorithmiques disponibles, l’intelligence artificielle ne peut toujours pas exhiber de modèle convaincant de la cognition. La discipline a prudemment renoncé à simuler l’intelligence dans son intégralité. Il est clair pour tout chercheur en sciences humaines ayant quelque peu pratiqué la transdisciplinarité que, du fait de sa complexité foisonnante, l’objet des sciences humaines (l’esprit, la pensée, l’intelligence, la culture, la société) ne peut être pris en compte dans son intégralité par aucune des théories computationnelles de la cognition actuellement disponible. C’est pourquoi l’intelligence artificielle se contente dans les faits de fournir une boîte à outils hétéroclite (règles logiques, syntaxes formelles, méthodes statistiques, simulations neuronales ou socio-biologiques…) qui n’offrent pas de solution générale au problème d’une modélisation mathématique de la cognition humaine.

Cependant, les chercheurs en intelligence artificielle ont beau jeu de répondre à leurs critiques issus des sciences humaines : "Vous prétendez que nos algorithmes échouent à rendre compte de la complexité de la cognition humaine, mais vous ne nous en proposez vous-mêmes aucun pour remédier au problème. Vous vous contentez de pointer du doigt vers une multitude de disciplines, plus complexes les unes que les autres (philosophie, psychologie, linguistique, sociologie, histoire, géographie, littérature, communication…), qui n’ont pas de métalangage commun et n’ont pas formalisé leurs objets ! Comment voulez-vous que nous nous retrouvions dans ce bric-à-brac ?" Et cette interpellation est tout aussi sensée que la critique à laquelle elle répond.

Synthèse de l’intelligence artificielle et des sciences humaines

Ce que j’ai appris de Hubert Dreyfus lors de ce colloque de 1987 où je l’ai rencontré, ce n’était pas tant que la phénoménologie serait la clé de tous les problèmes d’une modélisation scientifique de l’esprit (Husserl, le père de la phénoménologie, pensait d’ailleurs que la phénoménologie – une sorte de méta-science de la conscience – était impossible à mathématiser et qu’elle représentait même le non-mathématisable par exellence, l’autre de la science mathématique de la nature), mais plutôt que l’intelligence artificielle avait tort de chercher cette clé dans la seule zone éclairée par le réverbère de l’arithmétique, de la logique et des neurones formels… et que les philosophes, herméneutes et spécialistes de la complexité du sens devaient participer activement à la recherche plutôt que de se contenter de critiquer. Pour trouver la clé, il fallait élargir le regard, fouiller et creuser dans l’ensemble du champ des sciences humaines, aussi opaque au calcul qu’il semble à première vue. Nous devions disposer d’un outil à traiter le sens, la signification, la sémantique en général, sur un mode computationnel. Une fois éclairé par le calcul le champ immense des relations sémantiques, une science de la cognition digne de ce nom pourrait voir le jour. En effet, pour peu qu’un outil symbolique nous assure du calcul des relations entre signifiés, alors il devient possible de calculer les relations sémantiques entre les concepts, entre les idées et entre les intelligences. Mû par ces considérations, j’ai développé la théorie sémantique de la cognition et le métalangage IEML : de leur union résulte la sémantique computationnelle.

Les spécialistes du sens, de la culture et de la pensée se sentent démunis face à la boîte à outils hétérogène de l’intelligence artificielle : ils n’y reconnaissent nulle part de quoi traiter la complexité contextuelle de la signification. C’est pourquoi la sémantique computationnelle leur propose de manipuler les outils algorithmiques de manière cohérente à partir de la sémantique des langues naturelles. Les ingénieurs s’égarent face à la multitude bigarrée, au flou artistique et à l’absence d’interopérabilité conceptuelle des sciences humaines. Remédiant à ce problème, la sémantique computationnelle leur donne prise sur les outils et les concepts foisonnants des insaisissables sciences humaines. En somme, le grand projet de la sémantique computationnelle consiste à construire un pont entre l’ingénierie logicielle et les sciences humaines de telle sorte que ces dernières puissent utiliser à leur service la puissance computationnelle de l’informatique et que celle-ci parvienne à intégrer la finesse herméneutique et la complexité contextuelle des sciences humaines. Mais une intelligence artificielle grande ouverte aux sciences humaines et capable de calculer la complexité du sens ne serait justement plus l’intelligence artificielle que nous connaissons aujourd’hui. Quant à des sciences humaines qui se doteraient d’un métalangage calculable, qui mobiliseraient l’intelligence collective et qui maîtriseraient enfin le médium algorithmique, elles ne ressembleraient plus aux sciences humaines que nous connaissons depuis le XVIIIe siècle : nous aurions franchi le seuil d’une nouvelle épistémè.

Auteur: Lévy Pierre

Info: https://pierrelevyblog.com/2014/10/08/intelligence-artificielle-et-sciences-humaines/

[ mathématification idiomatique ]

 

Commentaires: 0

Ajouté à la BD par miguel

sociologie

La tyrannie de l’apparence
A l’école, à la fac, au travail… Avant même nos compétences, c’est notre physique qui est jugé. Une dictature du beau dénoncée, preuves à l’appui, par le sociologue Jean-François Amadieu.
Depuis l’Antiquité grecque, nous sommes victimes et vecteurs du même présupposé : ce qui est beau est bon. Aujourd’hui encore, tout le monde le pressent et personne ne veut y croire : notre vie tout entière est soumise à la tyrannie des apparences.
Pour la première fois en France, un livre, Le Poids des apparences (Odile Jacob, 2002), en apporte la démonstration. Professeur de sociologie, Jean-François Amadieu a recensé trente ans d’études américaines et européennes sur le sujet et en tire une conclusion effarante : toute notre vie, dans tous les domaines, en amour comme au travail, notre apparence conditionnera nos relations aux autres.
Poussant son analyse, le sociologue démontre combien la beauté est un formidable outil de discrimination sociale que les élites imposent aux classes les plus basses. Dans le monde entier, les canons de la beauté ne sont-ils pas ceux des Blancs américains diffusés par la télévision et le cinéma : blondeur, minceur, jeunesse. Que l’on s’y résolve ou que l’on se révolte, nous n’en sommes pas moins, dès la naissance, soumis à la première des injustices : celle des apparences.
Au berceau déjà
Les regards qui se portent sur le nourrisson dans son berceau ne sont pas neutres. Un bébé beau attirera force sourires et risettes alors qu’un enfant moins séduisant créera une certaine gêne chez les adultes. Même infime – oreilles décollées, tache de naissance, dissymétrie des traits –, la différence physique sera vécue par les parents comme un handicap futur. Et suscitera des comportements différents à l’égard du nourrisson.
" On ne peut pas dire qu’une mère ou un père préfèrera un enfant plus beau que ses frères et sœurs, explique Jean-François Amadieu. En revanche, les études ont prouvé que les activités seront différentes selon que l’enfant est beau ou laid. Par exemple, une mère jouera beaucoup avec son nourrisson s’il est beau, tandis qu’elle focalisera sur les apprentissages s’il est disgracieux. Et parce qu’elle sait qu’il risque de se heurter, plus tard, aux regards des autres, elle s’en occupera plus. Il est d’ailleurs prouvé que ces enfants réussiront mieux à l’école que la moyenne. On peut ici parler d’un effet de compensation à la laideur."
A l’école du favoritisme
A la maternelle déjà, les enfants beaux sont privilégiés. Les enseignants ont une meilleure opinion d’eux, leur accordent davantage d’attention, les évaluent plus chaleureusement - in Modèles du corps et psychologie esthétique de Jean Maisonneuve et Marilou Bruchon-Schweitzer (PUF, 1981). Cette bienveillance engendre une confiance chez l’enfant qui l’accompagnera toute sa vie. D’autant qu’elle va mettre en place une dynamique du succès qui se poursuivra à l’âge adulte. Ensuite, au collège et au lycée, une note peut varier de 20 à 40 % selon la beauté de l’élève. Les études prouvent qu’une étudiante laide mais de bon niveau est peu défavorisée par rapport à une étudiante belle de même niveau. En revanche, si la plus jolie est mauvaise élève, ses notes seront nettement surévaluées par les examinateurs, expliquent Jean Maisonneuve et Marilou Bruchon-Schweitzer dans Le Corps et la Beauté (PUF, 1999).
"Beaucoup plus que l’enfant beau, l’enfant laid est jugé responsable de ses échecs scolaires autant que de ses fautes, remarque Jean-François Amadieu. D’abord par les instituteurs, puis par les professeurs et enfin par les recruteurs. La beauté est un statut qui vaut diplôme : elle enrichit, comme la laideur altère, nos compétences."
La tête de l’emploi
Diplôme en poche, vous pensiez être délivré de la dictature des apparences ? Erreur. "Une apparence avenante est cruciale au moment de l’embauche, mais également pour une bonne intégration au sein de l’entreprise, explique Jean-François Amadieu. Elle permet une meilleure évaluation des performances et favorise un bon déroulement de carrière." Le candidat sera jugé d’abord sur des critères extérieurs : soin apporté à sa personne, poids, beauté physique, etc. 50 % des employeurs jugent qu’un physique séduisant est un critère important de recrutement (Multicity Study of Urban Inequality de H. Holzer, Michigan State University, 1993). Les critères négatifs : poids excessif, petite taille, nez trop long, grandes oreilles, visage disgracieux, mains moites…
"Les beaux sont jugés plus intelligents, plus ambitieux, plus chaleureux, plus sociables, plus équilibrés et moins agressifs", assure encore le sociologue. Ainsi, de nombreux spécialistes du recrutement estiment, consciemment ou pas, qu’une personnalité équilibrée se voit. Pire, les études prouvent qu’à diplôme équivalent un candidat au physique peu avenant sera recruté à un salaire moindre. Une situation qui n’ira pas en se résorbant : une étude anglaise, conduite sur onze mille salariés britanniques (Beauty, Statute and the Labour Market de B. Harper, 2000), prouve que si les plus beaux gagnent un peu plus que la moyenne nationale, les plus laids perçoivent des salaires de 11 à 15 % inférieurs.
"La beauté permet non seulement d’échapper au chômage, mais en plus elle se transforme en prime salariale, résume Jean-François Amadieu. La beauté est un capital humain que le marché du travail reconnaît financièrement." Ainsi démontrée, la dictature que nous imposent les apparences, comme la tyrannie médiatique et sociale que nous subissons, nous apparaissent dans ce qu’elles ont de fondamentalement injustes. "Bien sûr, nous préférerions que ce soient les mérites de chacun qui déterminent l’obtention des diplômes, l’accès aux emplois, etc., plutôt qu’un critère arbitraire et primitif, admet Jean-François Amadieu. Mais c’est en disant la vérité sur cette discrimination qu’on peut élaborer des stratégies visant à limiter, sinon contrer, l’emprise des apparences. Bien connue et bien utilisée par tous, elle peut aussi permettre de bousculer l’ordre imposé."
Des chercheurs américains (Physical Attractivities and Evaluation of Children’s Transgressions de K. K. Dion, 1972) ont demandé à des adultes de juger des enfants de 7 ans accusés d’avoir blessé un camarade avec une boule de neige. Dans un premier temps, les personnes interrogées se sont montrées beaucoup plus tolérantes envers les enfants les plus beaux : la faute était jugée plus légèrement lorsque le fautif était séduisant. Dans un second temps, elles se sont dit convaincues que les enfants beaux récidiveraient moins que les autres. Commentaires du sociologue Jean-François Amadieu : "Non seulement le “laid” est jugé plus responsable de sa faute que le “beau”, mais, de surcroît, cette faute apparaissant comme inscrite dans sa nature profonde, elle est susceptible d’être répétée."

Auteur: Gelly Violaine

Info:

[ inégalités ] [ injustice ] [ allure ]

 

Commentaires: 0

âme

Panpsychisme, l'esprit des pierres La plupart pense que tous les humains sont conscients, ainsi que beaucoup d'animaux. Certains, comme les grands singes, semblent même être timides comme nous. D'autres, comme les chiens et les chats, les porcs, manquent d'un sens de l'ego mais ils semblent éprouver les états intérieurs de plaisir, etc... Pour les créatures plus petites, comme des moustiques, nous ne sommes pas aussi sûrs et n'avons pas de scrupules pour les massacrer. Quant aux plantes, elles n'ont évidemment pas d'esprit, excepté dans des contes de fées. Et encore moins les choses non vivantes comme les tables et les pierres. Les Atomes Mentaux "Si l'évolution fonctionne en douceur, une certaines forme de conscience doit être présente à l'origine même des choses. On constate que les philosophes évolutionnistes commencent à en poser le principe. Chaque atome de la galaxie, supposent-ils, doit avoir eu un atome original de conscience lié avec lui. Les atomes mentaux... sont alors fondu en de plus grandes consciences : nous-mêmes et peut-être chez nos camarade-animaux." James William, Principes de Psychologie 1890 Tout paraît de bon sens. Mais le bon sens n'a pas toujours été un si bon guide pour comprendre le monde et sa partie la plus récalcitrante à notre compréhension à l'heure actuelle est bien la conscience elle-même. Comment les processus électrochimiques de notre cerveau, peuvent-ils exister et donner ce jeu en technicolor de la conscience, avec ses transports de joie, ses coups d'angoisse et autres moments de contentement doux alternant avec l'ennui ?... Voici peut-être une des dernières frontières des sciences. Elle nourrit les énergies intellectuelles de la communauté scientifique, les psychologues, philosophes, physiciens, informaticiens et aussi, de temps en temps, le Dalai Lama. Ceci amène certains à une hypothèse un peu folle. Peut-être, disent-ils, que l'esprit n'est pas limité aux cerveaux de quelques animaux. Peut-être est-il partout, présent dans chaque atome, des électrons et neutrinos jusqu'aux galaxies, sans exclure les choses de taille moyenne comme un verre de l'eau ou une plante en pot. Il n'aurait donc pas soudainement surgi quand quelques particules physiques sur une certaine planète se sont retrouvées, après évolution, dans la bonne configuration. Mais plutôt : il y a une conscience dans le cosmos depuis toujours. Cette doctrine que la substance du monde est fondamentalement esprit s'appelle panpsychisme. Il y a quelques décennies, le philosophe américain Thomas Nagel a montré que c'était une conséquence logique de quelques faits raisonnables. D'abord, nos cerveaux se composent de particules matérielles. Ensuite ces particules, dans certains arrangements, produisent des pensées et des sentiments subjectifs. Troisièmement, les propriétés physiques ne peuvent expliquer en elles-mêmes la subjectivité. (Comment l'ineffable expérience qui consiste à goûter une fraise pourrait-elle résulter en équations physiques ?) Nagel a donc théorisé que les propriétés d'un système complexe comme le cerveau ne surgissent pas simplement dans l'existence à partir de nulle part. Elles doivent dériver des propriétés des constituants de ce système. Ces constituants doivent par conséquent avoir eux-mêmes des propriétés subjectives - propriétés qui, dans les bonnes combinaisons, s'ajoutent jusqu'à donner nos pensées et sentiments intérieurs. Et comme les électrons, les protons et les neutrons constituant nos cerveaux ne sont pas différent de ceux qui constituent le reste du cosmos l'univers entier doit donc se composer d'infimes morceaux de conscience. Nagel n'est pas allé jusqu'au panpsychisme, mais aujourd'hui il peut constater quelque qui ressemble à une mode. Le philosophe australien David Chalmers et le physicien Roger Penrose d'Oxford ont parlé de lui. Dans le livre récent "La conscience et sa place dans la nature," le philosophe britannique Galen Strawson défend le panpsychisme contre de nombreuses critiques. Comment se pourrait-il, demandent les sceptiques, que des morceaux d'esprit poussière, avec des états mentaux vraisemblablement simples, se combinent-ils pour former le genres d'expériences mentales compliquées que nous autres humains vivons ? Après tout, quand on rassemble un groupe de personnes dans une salle, leurs différents esprits ne forment pas un esprit collectif simple. (Quoique!) Ensuite il y a le fait incommode qu'on ne peut pas scientifiquement tester cette affirmation qui, par exemple, dirait que la lune a un fonctionnement mental. (Et cela s'applique aussi aux gens - comment pourrez-vous démontrer que vos camarades de bureau de ne sont pas des robots sans connaissance, comme le commandant Data sur "Star Trek" ?) Il y a aussi cette idée un peu pernicieuse : si quelque chose comme un photon peut avoir des proto-émotions, proto-croyances et proto-désirs. Que pourrait alors être le contenu du désir d'un photon?.. Devenir un quark, ironise un anti panpsychisme. Il est plus facile de parodier le Panpsychisme que le réfuter. Mais même si cette recherche de compréhension de la conscience s'avère être un cul-de-sac, cela pourra éventuellement nous aider à nous élever au-dessus de nos pensées conventionnelles de la perspective cosmique. Nous sommes des êtres biologiques. Nous existons parce que nous sommes des autos réplications de nous-mêmes. Nous détectons et agissons sur l'information de notre environnement de sorte que nos réplications continuent. En tant que sous-produits, nous avons développé des cerveaux qui, nous voulons voir comme les choses les plus complexes de l'univers. Mais pensons à la matière brute. Prenez un rocher. Il ne semble pas faire grand-chose, en tout cas pour ce qui est d'animer nos perceptions. Mais à un nano niveau il se compose d'un nombre inimaginable d'atomes reliés par des liaisons chimiques flexibles, ondoyantes et s'agitant ensembles à des cadences que même notre ordinateur géant le plus rapide pourra envier pour encore longtemps. Et ils ne 'agitent pas au hasard. Les intestins du rocher "voient" l'univers entier au moyen de signaux gravitationnels et électromagnétiques qu'ils reçoivent sans interruption. Un tel système pourrait être regardé comme un processeur polyvalent d'informations, dont la dynamique intérieure pourrait refléter n'importe quelle séquence des états mentaux que nos cerveaux traversent. Et là où il y a de l'information, dit le panpsychisme, il y a de la conscience. Ainsi le slogan de David Chalmers, "l'expérience est information de l'intérieur; la physique est information de l'extérieur." Mais le rocher ne se démène pas lui-même comme résultat de toute cette "réflexion". Pourquoi le devrait-il ? Son existence, à la différence de la nôtre, ne dépend pas d'une lutte pour la survie et la reproduction. Il est indifférent à la perspective d'être pulvérisé. Etant poète on pourrait voir le rocher comme un être purement contemplatif. Et on pourrait dessiner cette morale que l'univers est, et a toujours été, saturé d'esprit. Même si nous autres snobs darwiniens reproducteurs retardataires sommes trop fermés pour le réaliser.

Auteur: Holt Jim

Info: Fortean Times 18 Nov. 2007

[ matière ] [ monade ] [ minéral ] [ métaphysique ] [ chiasme ]

 

Commentaires: 0