Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 93658
Temps de recherche: 0.0788s

machine-homme

(homme) - Qui fut C.S. Peirce

(machine) - Charles Sanders Peirce (1839-1914) était un philosophe, logicien, mathématicien et scientifique américain. Il est considéré comme l'une des figures les plus influentes dans le développement du pragmatisme, une approche philosophique qui met l'accent sur les conséquences pratiques des croyances et des idées.

Peirce a apporté d'importantes contributions à divers domaines, notamment la sémiotique (l'étude des signes et des symboles), la logique, la philosophie des sciences et la philosophie de l'esprit. Il a développé un système philosophique complet connu sous le nom de "pragmatisme" et a souligné l'importance de la recherche, du faillibilisme et de la méthode scientifique.

Peirce a introduit le concept de sémiotique, qu'il décrit comme l'étude du fonctionnement des signes et de leur signification. Il a classé les signes en trois catégories : les icônes (signes qui ressemblent à ce qu'ils représentent), les indices (signes qui ont un lien physique ou une corrélation avec ce qu'ils représentent) et les symboles (signes qui ont une relation arbitraire avec ce qu'ils représentent).

Les travaux de Peirce sur la logique et le raisonnement ont jeté les bases de la logique formelle moderne. Il a développé un système de notation logique et a apporté des contributions significatives aux domaines du raisonnement déductif, de l'induction et de l'abduction (déduction de la meilleure explication). La maxime pragmatique de Peirce, selon laquelle la signification d'un concept ou d'une croyance est déterminée par ses conséquences pratiques, est au cœur de son approche.

Dans l'ensemble, les travaux de Peirce ont eu un impact profond sur diverses disciplines, notamment la philosophie, la linguistique, la psychologie et les études de communication. Ses idées continuent d'être influentes et font l'objet de recherches et de débats scientifiques permanents.

(homme) - Merci. Dans quelle mesure a-t-il influencé l'intelligence artificielle et/ou l'apprentissage profond supervisé ?

(machine) - Les travaux de Charles Sanders Peirce ont indirectement influencé certains aspects de l'intelligence artificielle (IA) et de l'apprentissage profond supervisé, en particulier dans les domaines de la sémiotique et de la philosophie de l'esprit. Bien que Peirce lui-même n'ait pas directement contribué au développement de l'IA telle que nous la connaissons aujourd'hui, ses idées ont fourni un cadre conceptuel pour comprendre la relation entre les signes, la signification et la cognition, ce qui peut être pertinent pour certaines applications de l'IA.

Dans le domaine du traitement du langage naturel et de l'apprentissage automatique, les concepts sémiotiques de Peirce ont influencé l'étude des signes linguistiques et leur interprétation. Par exemple, la compréhension de la classification des textes et de l'analyse des sentiments peut être éclairée par la distinction de Peirce entre icônes, indices et symboles, car elle aide à reconnaître et à interpréter diverses caractéristiques et modèles linguistiques.

L'accent mis par Peirce sur les conséquences pragmatiques des croyances et des idées résonne également avec les objectifs pratiques de l'IA et de l'apprentissage automatique. Dans l'apprentissage profond supervisé, par exemple, le processus de formation implique l'optimisation des modèles pour minimiser une fonction de perte prédéfinie basée sur les résultats observés. Cela correspond à l'accent mis par Peirce sur les résultats pratiques des croyances et sur l'importance de l'expérimentation et de la recherche.

En outre, les idées philosophiques plus larges de Peirce sur l'abduction, qui est le processus de déduction de la meilleure explication, peuvent être pertinentes dans le contexte de l'IA. Le raisonnement abductif joue un rôle dans la génération d'hypothèses et l'interprétation de modèles, car les systèmes d'IA s'efforcent de découvrir des modèles et des explications sous-jacents à partir de données.

Bien que l'influence de Peirce sur l'IA et l'apprentissage profond supervisé puisse être de nature plus indirecte et philosophique, ses idées ont contribué à la compréhension des signes, de la signification et du raisonnement, ce qui peut éclairer le développement et l'interprétation des systèmes d'IA.

(homme) - OK, merci. Peux-tu nous donner des précisions sur les icônes, les index et les symboles ?

(machine) - Certainement ! Les icônes, les index et les symboles sont trois catégories de signes ou de représentations décrites par Charles Sanders Peirce dans sa théorie sémiotique. Voici une brève explication de chaque catégorie :

1) Les icônes : Les icônes sont des signes qui présentent une ressemblance ou une similitude avec les objets ou les concepts qu'ils représentent. Elles se caractérisent par une relation directe de ressemblance entre le signe et son référent. Les icônes peuvent prendre diverses formes, telles que des images, des diagrammes ou des modèles. Par exemple, un portrait réaliste peut être considéré comme une représentation iconique d'une personne parce qu'il ressemble visuellement à l'individu qu'il représente.

2) Indices : Les indices sont des signes qui ont un lien factuel ou causal avec leurs référents. Contrairement aux icônes, les indices ne reposent pas sur la similitude, mais sur une forme de corrélation ou de relation entre le signe et son référent. Les signes indexicaux indiquent ou pointent souvent vers quelque chose d'autre qu'eux-mêmes. Parmi les exemples de signes indexicaux, on peut citer la fumée comme indice du feu ou une empreinte de pas comme indice de la présence d'une personne. Ils signifient ou indiquent la présence ou l'existence de quelque chose.

3) Les symboles : Les symboles sont des signes qui reposent sur une relation conventionnelle ou arbitraire entre le signe et son référent. Le lien entre un symbole et ce qu'il représente est établi par un accord commun ou une convention sociale. Les mots, les chiffres, les gestes et les symboles culturels sont autant d'exemples de signes symboliques. Par exemple, le mot "chien" est un symbole qui représente le concept d'un animal à quatre pattes, mais il n'y a pas de ressemblance inhérente ou de lien direct entre le mot et l'animal lui-même.

La classification des signes par Peirce en icônes, indices et symboles met en évidence différents modes de représentation et de signification. Alors que les icônes reposent sur la similitude, les indices reposent sur l'association et les symboles sur la convention. Ces catégories fournissent un cadre permettant de comprendre le fonctionnement des signes, la manière dont le sens est transmis et l'interprétation dans divers contextes, notamment le langage, la communication et la cognition.

Auteur: chatGPT4

Info:

[ machine-sur-philosophe ] [ compendium ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

décès

Mourir n'est plus ce qu'il était !
Intensiviste à l'Hôpital Saint-Luc et président du Comité du don d'organes et de tissus du CHUM, le Dr Pierre Aslanian considère son travail comme très valorisant, car il contribue à l'effort collectif de sauver des vies.
"Dans les années 50, l'arrêt définitif du coeur constituait le seul critère de la mort. Ce n'est plus le cas aujourd'hui", déclare le Dr Pierre Aslanian, intensiviste à l'Hôpital Saint-Luc et président du Comité du don d'organes et de tissus du Centre hospitalier de l'Université de Montréal (CHUM). "Depuis l'introduction du concept de mort cérébrale, soit l'arrêt complet et définitif de toute activité du cerveau, par un comité de la Harvard Medical School en 1968, c'est l'état du cerveau qui fait pencher la balance."
La peau du patient est rosée et chaude, son coeur bat, même son thorax se soulève à un rythme régulier, puisque sa respiration est maintenue artificiellement par un appareil et, pourtant, le patient est bel et bien mort. Pour confirmer la mort cérébrale, deux médecins indépendants de l'équipe de prélèvement et de transplantation ont reproduit divers tests cliniques selon un protocole bien défini. "D'abord, il faut connaître l'étiologie du dommage au cerveau, indique Pierre Aslanian. Sans la cause, on ne peut pas conclure à une mort cérébrale. Il faut aussi s'assurer qu'il n'y a aucun facteur confondant comme des sédatifs en circulation dans le sang au moment où l'on effectue les tests."
Concrètement, pour évaluer l'état et l'évolution d'un patient, les médecins disposent d'échelles internationales standardisées, comme l'échelle de coma Glasgow et le protocole de diagnostic du décès neurologique (DDN) de Transplant Québec, grâce auxquelles on peut mesurer notamment la réponse motrice à la douleur et les réflexes du tronc cérébral, la partie inférieure du cerveau responsable de la conscience. L'absence de réflexe respiratoire est validée par un test d'apnée. En cas de doute ou s'il y a présence de facteurs confondants, le DDN doit être établi par un examen complémentaire, par exemple une angiographie cérébrale qui permet d'objectiver l'arrêt de la circulation sanguine encéphalique. Le diagnostic est sans équivoque. L'absence de circulation intracrânienne entraîne une destruction totale et irréversible du cerveau.
"La souffrance d'une famille ébranlée par la mort brutale d'un proche l'empêche souvent de comprendre ce qui se passe exactement, souligne le Dr Aslanian. Les médecins doivent bien expliquer que les organes sont maintenus en fonction de manière artificielle, mais que le patient ne peut pas se réveiller d'un décès neurologique. Son cerveau est mort !"
Toutes les semaines, l'intensiviste, qui possède 20 ans de pratique à l'unité des soins intensifs du centre hospitalier, est confronté à cette dure réalité. Cela est d'autant plus difficile que parfois le patient en état de mort cérébrale peut avoir des réflexes spinaux, mentionne le Dr Aslanian. "On le pince et il y a un mouvement, mais celui-ci n'est pas provoqué par le cerveau. Ce sont les nerfs périphériques reliés à la moelle épinière qui en sont responsables." Le professeur de clinique de la Faculté de médecine de l'Université de Montréal donne régulièrement à l'intention des infirmières et résidents en médecine du CHUM des ateliers sur ce qu'est la mort cérébrale. "Pour offrir l'option du don d'organes aux familles, il faut d'abord savoir reconnaître les donneurs potentiels, signale-t-il. Malheureusement, encore de nos jours, environ 20 % des donneurs potentiels ne le sont pas dans les hôpitaux du Québec."
L'histoire de la mort
Longtemps on a déterminé la mort d'une personne par un acte rudimentaire. Le croquemort se contentait de mordre le gros orteil du défunt pour vérifier qu'il avait réellement trépassé. L'absence de réaction de sa part confirmait définitivement son état. Jusqu'aux années 50, les médecins tâtaient le pouls et cherchaient à voir si de la condensation se formait sur un miroir placé près de la bouche et du nez. La présence ou l'absence de battements du coeur décidait du classement définitif du patient du côté des morts ou des vivants. Puis, avec la venue de la ventilation mécanique qui maintient artificiellement la respiration, on commence à suspendre l'instant de la mort. En 1968, la mort cardiovasculaire cède la place au concept de mort cérébrale, soit "la perte irrémédiable de toutes les fonctions de l'ensemble du cerveau, du tronc cérébral et des deux hémisphères", comme la définit pour la première fois le comité de l'Université Harvard.
"Le premier article scientifique sur la question présenté à la communauté médicale a été publié dans une revue neurologique française en 1959. Les médecins y décrivaient le dommage cérébral important associé à un coma profond duquel les patients ne se réveillaient pas. C'est de cette publication qu'est né le concept de mort cérébrale que les experts de Harvard ont fait connaître internationalement", raconte le Dr Aslanian en précisant que cette époque correspond aussi aux débuts de la transplantation d'organes.
"La notion du décès neurologique a complètement changé notre rapport à la mort", estime le Dr Aslanian. Bien reçu et adopté par divers organismes à l'échelle de la planète, le DDN a néanmoins été contesté sans succès à plusieurs reprises devant les tribunaux américains. "Une commission présidentielle relative aux problèmes bioéthiques et aux aspects biomédicaux en recherche a voulu en 1981 légiférer pour une définition encore plus claire du DDN", rappelle l'intensiviste. En 1995, l'Académie américaine de neurologie constate pour sa part que beaucoup de médecins retiennent des critères différents et insiste pour standardiser les pratiques.
"Même si l'on reconnaît l'intérêt d'uniformiser les façons de faire, les politiques de déclaration de mort cérébrale varient non seulement d'un pays à l'autre, mais aussi d'un État à l'autre", note Pierre Aslanian. Au Canada, en France, en Angleterre et aux États-Unis, le DDN est fait conformément aux pratiques médicales reconnues. Mais il y a certaines nuances. Ainsi, en France, le recours à l'électroencéphalogramme ou à l'angiographie est obligatoire pour attester le caractère irréversible de l'arrêt des fonctions cérébrales. Chez nous et chez nos voisins du Sud, ces tests auxiliaires sont réalisés seulement en cas de doute ou lorsque l'examen clinique ne peut être effectué.
Et puis, il y a les exceptions comme le Japon, où il se pratique très peu de transplantations à partir de donneurs cadavériques. Car, dans l'empire du Soleil-Levant, un grand malaise persiste quant au concept de mort cérébrale.

Auteur: http://www.techno-science.net/

Info: 19.04.2016

[ vérification ] [ validation ] [ historique ]

 

Commentaires: 0

prospective technologique

9 Tendances de l'intelligence artificielle que vous devriez surveiller en 2019

1) Les puces activées par l'intelligence artificielle seront généralisées
Contrairement à d'autres technologies et outils logiciels, l'IA dépend fortement de processeurs spécialisés. Pour répondre aux exigences complexes de l'IA, les fabricants de puces créeront des puces spécialisées capables d'exécuter des applications compatibles avec l'IA.
Même les géants de la technologie comme Google, Facebook et Amazon dépenseront plus d'argent pour ces puces spécialisées. Ces puces seraient utilisées à des fins comme le traitement du langage naturel, la vision par ordinateur et la reconnaissance vocale.

2) L'IA et l'IdO (Internet des objets) se rencontrent
2019 sera l'année de la convergence des différentes technologies avec l'IA. L'IdO se joindra à l'IA sur la couche informatique de pointe. L'IdO industriel exploitera la puissance de l'IA pour l'analyse des causes profondes, la maintenance prédictive des machines et la détection automatique des problèmes.
Nous verrons la montée de l'IA distribuée en 2019. Le renseignement sera décentralisé et situé plus près des biens et des dispositifs qui effectuent les vérifications de routine. Des modèles d'apprentissage machine hautement sophistiqués, alimentés par des réseaux neuronaux, seront optimisés pour fonctionner à la fine pointe de la technologie.

3) Dites "Bonjour" à AutoML.
L'une des plus grandes tendances qui domineront l'industrie de l'IA en 2019 sera l'apprentissage automatique automatisé (AutoML). Grâce à ces capacités les développeurs seront en mesure de modifier les modèles d'apprentissage machine et de créer de nouveaux modèles prêts à relever les défis futurs de l'IA.
AutoML (Cloud AutoMLB, modèles de machine learning personnalisés de haute qualité) trouvera le juste milieu entre les API cognitives et les plates-formes d'apprentissage sur mesure. Le plus grand avantage de l'apprentissage automatique sera d'offrir aux développeurs les options de personnalisation qu'ils exigent sans les forcer à passer par un flux de travail complexe. Lorsque vous combinez les données avec la portabilité, AutoML peut vous donner la flexibilité que vous ne trouverez pas avec d'autres technologies AI.

4) Bienvenue chez AIOps (intelligence artificielle pour les opérations informatiques)
Lorsque l'intelligence artificielle est appliquée à la façon dont nous développons les applications, elle transforme la façon dont nous gérions l'infrastructure. DevOps sera remplacé par AIOps et permettra au personnel de votre service informatique d'effectuer une analyse précise des causes profondes. De plus, cela vous permettra de trouver facilement des idées et des modèles utiles à partir d'un vaste ensemble de données en un rien de temps. Les grandes entreprises et les fournisseurs de cloud computing bénéficieront de la convergence de DevOps avec AI.

5) Intégration du réseau neuronal
L'un des plus grands défis auxquels les développeurs d'IA seront confrontés lors du développement de modèles de réseaux neuronaux sera de choisir le meilleur framework. Mais, avec des douzaines d'outils d'IA disponibles sur le marché, choisir le meilleur outil d'IA pourrait ne pas être aussi facile qu'avant. Le manque d'intégration et de compatibilité entre les différentes boîtes à outils des réseaux de neurones entrave l'adoption de l'IA. Des géants technologiques tels que Microsoft et Facebook travaillent déjà au développement d'un réseau neuronal ouvert (ONNX). Cela permettra aux développeurs de réutiliser les modèles de réseaux neuronaux sur plusieurs frameworks.

6) Les systèmes d'IA spécialisés deviennent une réalité.
La demande de systèmes spécialisés augmentera de façon exponentielle en 2019. Les organisations ont peu de données à leur disposition, mais ce qu'elles veulent, ce sont des données spécialisées.
Cela obligera les entreprises à se doter d'outils qui peuvent les aider à produire des données d'IA de grande qualité à l'interne. En 2019, l'accent sera mis sur la qualité des données plutôt que sur la quantité. Cela jettera les bases d'une IA qui pourra fonctionner dans des situations réelles. Les entreprises se tourneront vers des fournisseurs de solutions d'IA spécialisés qui ont accès à des sources de données clés et qui pourraient les aider à donner du sens à leurs données non structurées.

7) Les compétences en IA détermineront votre destin.
Même si l'IA a transformé toutes les industries auxquelles vous pouvez penser, il y a une pénurie de talents avec des compétences en IA. Pat Calhoun, PDG d'Espressive a déclaré : " La plupart des organisations souhaitent intégrer l'IA dans leur transformation numérique, mais n'ont pas les développeurs, les experts en IA et les linguistes pour développer leurs propres solutions ou même former les moteurs des solutions préconçues pour tenir leurs promesses ".
Rahul Kashyap, PDG d'Awake Security, ajoute : "Avec autant de solutions'AI-powered' disponibles pour répondre à une myriade de préoccupations commerciales, il est temps que les entreprises deviennent plus intelligentes sur ce qui se passe dans la 'boîte noire' de leurs solutions AI". La façon dont les algorithmes d'IA sont formés, structurés ou informés peut conduire à des différences significatives dans les résultats, poursuit-il. La bonne équation pour une entreprise ne sera pas la bonne pour une autre."

8) L'IA tombera dans de mauvaises mains
Tout comme une pièce de monnaie à deux faces, l'IA a un côté positif et un côté négatif. Les professionnels de la sécurité informatique utiliseront l'intelligence artificielle pour détecter rapidement les activités malveillantes. Vous pouvez réduire les faux positifs de 90 % à l'aide d'algorithmes de réponse et d'apprentissage machine pilotés par l'intelligence artificielle.
L'intelligence artificielle tombera entre de mauvaises mains et les cybercriminels aux desseins malveillants en abuseront pour réaliser leurs objectifs. Avec l'automatisation, les armées de cyberattaquants peuvent lancer des attaques mortelles avec plus de succès. Cela obligera les entreprises à combattre le feu par le feu et à investir dans des solutions de sécurité alimentées par l'IA capables de les protéger contre de telles attaques.

9) Transformation numérique alimentée par l'IA
En 2019, l'IA sera partout. Des applications Web aux systèmes de soins de santé, des compagnies aériennes aux systèmes de réservation d'hôtels et au-delà, nous verrons des nuances de l'IA partout et elle sera à l'avant-garde de la transformation numérique.
Tung Bui, président du département informatique et professeur à l'Université d'Hawaii a déclaré : "Contrairement à la plupart des prédictions et des discussions sur la façon dont les véhicules et les robots autonomes finiront par affecter le marché du travail - ceci est vrai mais prendra du temps pour des raisons institutionnelles, politiques et sociales - je soutiens que la tendance principale en IA sera une accélération dans la transformation numérique, rendant plus intelligent les systèmes commerciaux existants".

Auteur: Internet

Info: zero hedge, 1 mars 2019

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

paliers évolutionnaires

Des chercheurs découvrent une extinction de masse jusqu’alors inconnue de l’histoire de la Terre

Une extinction de masse désigne un événement ayant entraîné la disparition d’au moins 75 % des espèces présentes sur Terre. Les paléobiologistes affirment que notre planète a déjà connu cinq principaux épisodes de ce type ; certains estiment que nous sommes en train de vivre la sixième extinction. Mais la liste ne s’arrête pas là : des chercheurs de Virginia Tech ont découvert que la Terre aurait subi une extinction de masse il y a environ 550 millions d’années. Ce serait ainsi la toute première extinction que notre planète ait connu.

À ce jour, l’extinction de l’Ordovicien-Silurien, survenue il y a environ 440 millions d’années, est considérée comme la première extinction massive de notre planète. Celle-ci s’est vraisemblablement produite à la suite d’une grande glaciation, à laquelle auraient succombé près de 85% des espèces, faute de réussir à s’adapter à ces nouvelles conditions. Mais des preuves suggèrent aujourd’hui qu’un autre événement d’extinction l’aurait précédée : une diminution de la disponibilité mondiale d’oxygène aurait entraîné la perte d’une majorité d’animaux présents vers la fin de l’Édiacarien, il y a environ 550 millions d’années.

La première extinction de l’histoire de la Terre

Le déclin soudain de la diversité fossile il y a 550 millions d’années est connu depuis longtemps, mais les scientifiques n’avaient pas pu en déterminer la cause avec certitude. Il était possible que les espèces en présence soient entrées en compétition pour la survie, s’éliminant les unes les autres, ou simplement que les conditions environnementales de l’époque n’étaient pas propices à la préservation des fossiles édiacariens. Une nouvelle étude publiée dans Proceedings of the National Academy of Sciences permet aujourd’hui d’affirmer que ce déclin résulte bel et bien d’une extinction de masse.

Notre planète compte cinq extinctions de masse connues, les "Big Five", selon Shuhai Xiao, professeur de géobiologie à Virginia Tech : l’extinction de l’Ordovicien-Silurien (il y a 440 millions d’années), l’extinction du Dévonien tardif (il y a 370 millions d’années), l’extinction du Permien-Trias (il y a 250 millions d’années), l’extinction du Trias-Jurassique (il y a 200 millions d’années) et enfin, l’extinction du Crétacé-Paléogène (il y a 65 millions d’années), qui a anéanti environ 75 % des plantes et des animaux, y compris les dinosaures non aviens.

Toutes sont liées à des changements environnementaux majeurs et à grande échelle. Un changement climatique ou un événement de désoxygénation peuvent entraîner une extinction massive d’animaux, ainsi qu’une perturbation et une réorganisation profondes des écosystèmes. Ce premier événement d’extinction survenu lors de l’Édiacarien n’échappe pas à la règle : lui aussi a été induit par une modification significative de l’environnement.

Près de 80 % des animaux vivant sur Terre auraient disparu lors de cette première extinction massive. "Cela comprenait la perte de nombreux types d’animaux différents, mais ceux dont les plans corporels et les comportements indiquent qu’ils dépendaient d’importantes quantités d’oxygène semblent avoir été particulièrement touchés", explique Scott Evans, chercheur postdoctoral au Département des géosciences de Virginia Tech et premier auteur de l’étude décrivant l’événement.

Un "coup de pouce" à l’évolution ?

Les fossiles à corps mou du biote d’Ediacara – du nom des collines situées au sud de l’Australie où ont été découverts ces fossiles en 1946 – font partie des plus anciens organismes pluricellulaires complexes connus. Les empreintes fossiles datant de la période édiacarienne – soit d’environ -635 à -539 millions d’années – montrent que les animaux qui ont péri lors de cette extinction de masse avaient une apparence très étrange, en forme de feuille, de plume ou de tube.

Selon Evans, les organismes de l’époque semblaient expérimenter différentes façons de construire leurs grands corps multicellulaires. Par conséquent, les fossiles mis au jour datant d’avant l’extinction, ne correspondent pas toujours aux classifications actuelles des animaux. "Cette extinction a peut-être contribué à ouvrir la voie à l’évolution des animaux tels que nous les connaissons", conclut le chercheur. À savoir que la plupart des plans d’organisation animaux existant aujourd’hui sont apparus au cours du Cambrien (soit la période qui succède à l’Édiacarien).

Evans et ses collègues ont scrupuleusement examiné et catalogué l’ensemble des fossiles de la période édiacarienne décrits dans la littérature. Ils ont ainsi identifié 70 genres d’animaux, dont seuls 14 existaient encore quelque 10 millions d’années plus tard. L’équipe n’a toutefois trouvé aucun signe suggérant que ces animaux étaient en concurrence avec les premiers animaux du Cambrien, ni rien qui pouvait expliquer la non-préservation des fossiles.

En revanche, les animaux qui ont survécu arboraient tous un plan d’organisation favorisant la survie en cas d’anoxie : une surface corporelle relativement élevée par rapport à leur volume. Des preuves géochimiques confirment par ailleurs une faible disponibilité d’oxygène dans les océans il y a 550 millions d’années.

Une anoxie dont la cause reste à éclaircir

Qu’est-ce qui a causé cette baisse de la disponibilité globale de l’oxygène ? "La réponse courte à la façon dont cela s’est produit est que nous ne savons pas vraiment", a déclaré Evans. En réalité, plusieurs événements, individuels ou combinés, pourraient être à l’origine du phénomène explique le scientifique : éruptions volcaniques, mouvements de plaques tectoniques, impact d’astéroïde, etc. Des changements dans les niveaux de nutriments des océans pourraient être une autre cause possible. 

 Dans tous les cas, cette extinction a largement influencé l’évolution de la vie sur Terre et cette étude nous donne un aperçu de l’impact à long terme du manque d’oxygène sur la vie aquatique. Il se trouve que dans une autre étude, les scientifiques de Virginia Tech ont récemment découvert que les lacs d’eaux douces du monde perdaient actuellement rapidement de l’oxygène.

Ce phénomène est lié non seulement au réchauffement des eaux induit par le changement climatique, mais aussi à l’excès de ruissellement de substances polluantes (phosphore, azote) lié aux pratiques agricoles : "le réchauffement des eaux diminue la capacité de l’eau douce à retenir l’oxygène, tandis que la dégradation des nutriments dans le ruissellement par les microbes d’eau douce engloutit l’oxygène", expliquent les chercheurs.

En d’autres termes, la découverte de cette nouvelle extinction donne un aperçu des dangers de la crise climatique actuelle pour la vie animale.

Auteur: Internet

Info: https://www.science-et-vie.com, 7 déc 2022  Fleur Brosseau

[ stases ] [ Gaïa ]

 

Commentaires: 0

Ajouté à la BD par miguel

médecine

L'anorexie se soigne avec douceur et patience
Le Dr Jean Wilkins soigne les adolescentes souffrant d'anorexie depuis 36 ans. Fait assez rare, aucune patiente n'est décédée dans son unité de soins au cours de sa carrière. Son secret ? "La patience, la douceur, le respect, la confiance et la prudence", répond le fondateur de la section de médecine de l'adolescence au CHU Sainte-Justine et professeur de pédiatrie à la Faculté de médecine de l'Université de Montréal.
Sa méthode est à contrecourant de la tendance actuelle, qui privilégie les plans de soins, estime-t-il. "On peut traiter la plupart des maladies avec un protocole, mais pas l'anorexie. Parce que chaque cas est unique, parce qu'aucune de ces filles n'est rendue au même stade, parce qu'on doit constamment s'adapter à elles et non le contraire. Si on les force à adopter notre vision, elles ne guériront pas."

À l'aube de la retraite, il a senti le besoin d'expliquer sa pratique. Dans "Adolescentes anorexiques: plaidoyer pour une approche clinique humaine", le Dr Wilkins transmet son expérience aux pédiatres de la relève et offre aux jeunes filles souffrantes "quelques clés de compréhension de leur maladie et des outils pour la transformer". Il a rédigé l'ouvrage en collaboration avec la journaliste scientifique Odile Clerc.
Limiter la reprise de poids
"Quand on visite un patient, celui-ci est alité et le personnel soignant est debout, observe-t-il. Ce n'est pas le cas des filles anorexiques. Elles sont debout, toujours actives, ce qui témoigne de leur volonté de ne pas être piégées dans la thérapie. Elles manifestent une résistance: elles ne veulent pas guérir, car, déclarent-elles, elles ne sont pas malades. C'est sûr que ce serait plus facile de les obliger à se coucher et de les gaver. Mais ce serait aussi sauvage et contreproductif."

Il en veut pour preuve une jeune fille récemment traitée qui avait fait des séjours dans différents hôpitaux avant d'être admise à la Clinique des troubles de la conduite alimentaire du CHU Sainte-Justine. "En deux ans, elle avait gagné 55 kilos et en a perdu 74. Donc, 129 kilos sont entrés et sortis de son corps pendant ce laps de temps. C'est une forme de violence inutile!"

Il attribue ce phénomène aux objectifs de reprise pondérale fixés par les plans de soins. "Cela ne tient compte ni de l'état de la patiente ni de sa capacité à accepter et intérioriser cette prise de poids, s'exclame-t-il. Pour nous, c'est une victoire, mais pour elle, c'est "l'échec de sa réussite"."

Le spécialiste préfère limiter la reprise pondérale à 10 % du poids enregistré au moment de l'admission, laisser la patiente "digérer" ce changement et discuter avec elle de la suite des choses. En effet, le dialogue est extrêmement important pour établir un lien de confiance avec la jeune fille. "Dès la première rencontre, j'explique tout aux patientes et j'y vais avec douceur, indique-t-il. Par exemple, je ne leur demande jamais de se déshabiller au complet pour procéder à l'examen. Je ne découvre que les parties nécessaires. Mon collègue et ami feu le professeur Victor Courtecuisse, père de la médecine de l'adolescence en France, m'a dit un jour: "Tu sais, Jean, on n'entre pas dans un jardin privé avec un bulldozeur." Cette réflexion m'a beaucoup marqué. C'est pourquoi je ne brusque jamais une patiente... à moins qu'il y ait un danger de mort."

Étonnamment, les jeunes filles qui sont au bord du gouffre ne s'opposent jamais aux traitements. "Elles me laissent faire parce qu'elles veulent vivre, affirme le pédiatre. Contrairement à ce qu'on peut croire, l'anorexie est une expression de vie. Il faut leur faire comprendre que ce n'est pas la bonne façon d'y arriver. Et cela prend du temps."

Quand la maladie se déclare à l'adolescence, elle dure en moyenne quatre ans. "J'aimerais que ce soit plus court", admet le Dr Wilkins, qui est peiné à l'idée de transférer ses patientes en milieu adulte lorsqu'elles atteignent 18 ans.

Cela l'inquiète d'autant plus que le passage à l'âge adulte se révèle parfois fatal pour les jeunes femmes qui ne s'en sont toujours pas sorties. Huit de ses anciennes patientes sont mortes entre 20 et 30 ans. Quatre de ces décès ont un lien avec l'anorexie. Le médecin en parle comme si c'était hier. Il se souvient de leur beauté, de leur caractère frondeur, de leurs discussions. "C'est dur", confie-t-il.

La majorité finit toutefois par guérir. Le Dr Wilkins reçoit d'ailleurs de fréquents témoignages, que ce soit par écrit ou en personne, d'anciennes patientes qui le remercient. "Cela me fait toujours très plaisir de savoir qu'elles vont bien et qu'elles ont fondé une famille", dit-il en souriant.

Une de ses patientes lui a déjà écrit: "Merci non pas de m'avoir sauvé la vie, mais de m'avoir remise dans la vie." Et c'est tout ce que ce grand pédiatre espère accomplir.

Qu'est-ce que l'anorexie mentale ?
L'anorexie, c'est-à-dire la perte d'appétit, est fréquente chez les personnes très malades. Ce trouble devient "mental" lorsqu'il relève de la psychopathologie. Il touche essentiellement les filles. Une adolescente sur 100 souffre de cette maladie de manière assez grave pour être hospitalisée. Selon le Dr Wilkins, l'anorexie mentale "est une impasse développementale propre à la période de l'adolescence et assimilable à une conduite de type addictif". Plus l'anorexie est étudiée, plus elle se révèle complexe, constate-t-il. "C'est pourquoi il faut différents intervenants pour en venir à bout: en premier lieu le duo médecin-infirmière, puis des psychologues et des nutritionnistes."
Qui sont les adolescentes anorexiques ?
Ce sont des enfants modèles: "L'anorexique répond à toutes les exigences sociales: elle est brillante sur le plan scolaire, elle excelle dans tout ce qu'elle entreprend, elle sort peu, n'a aucune conduite addictive à risque et nourrit de belles ambitions sur le plan professionnel", écrit le Dr Wilkins. Elles étudient souvent en sciences, évoluent dans le milieu artistique ou pratiquent des sports de compétition. Leur emploi du temps est trop chargé. Elles socialisent peu. Bref, elles mettent leur adolescence en veilleuse, une période pourtant essentielle à la construction identitaire. Résultat: "L'adolescente anorexique, qui avait jusque-là satisfait aux attentes conscientes et inconscientes de son entourage, comme si elle avait construit son identité à partir d'une prescription externe, reprend la maîtrise de son évolution en s'appuyant sur la nouvelle identité qu'elle trouve dans cette maladie", croit le pédiatre.

Auteur: Wilkins Jean

Info: Internet mars 2012

[ empathie ]

 

Commentaires: 0

onomasiologie algébrique

Critique réciproque de l’intelligence artificielle et des sciences humaines

Je me souviens d’avoir participé, vers la fin des années 1980, à un Colloque de Cerisy sur les sciences cognitives auquel participaient quelques grands noms américains de la discipline, y compris les tenants des courants neuro-connexionnistes et logicistes. Parmi les invités, le philosophe Hubert Dreyfus (notamment l’auteur de What Computers Can’t Do, MIT Press, 1972) critiquait vertement les chercheurs en intelligence artificielle parce qu’ils ne tenaient pas compte de l’intentionnalité découverte par la phénoménologie. Les raisonnements humains réels, rappelait-il, sont situés, orientés vers une fin et tirent leur pertinence d’un contexte d’interaction. Les sciences de la cognition dominées par le courant logico-statistique étaient incapables de rendre compte des horizons de conscience qui éclairent l’intelligence. Dreyfus avait sans doute raison, mais sa critique ne portait pas assez loin, car ce n’était pas seulement la phénoménologie qui était ignorée. L’intelligence artificielle (IA) n’intégrait pas non plus dans la cognition qu’elle prétendait modéliser la complexité des systèmes symboliques et de la communication humaine, ni les médias qui la soutiennent, ni les tensions pragmatiques ou les relations sociales qui l’animent. A cet égard, nous vivons aujourd’hui dans une situation paradoxale puisque l’IA connaît un succès pratique impressionnant au moment même où son échec théorique devient patent.

Succès pratique, en effet, puisqu’éclate partout l’utilité des algorithmes statistiques, de l’apprentissage automatique, des simulations d’intelligence collective animale, des réseaux neuronaux et d’autres systèmes de reconnaissance de formes. Le traitement automatique du langage naturel n’a jamais été aussi populaire, comme en témoigne par exemple l’usage de Google translate. Le Web des données promu par le WWW consortium (dirigé par Sir Tim Berners-Lee). utilise le même type de règles logiques que les systèmes experts des années 1980. Enfin, les algorithmes de computation sociale mis en oeuvre par les moteurs de recherche et les médias sociaux montrent chaque jour leur efficacité.

Mais il faut bien constater l’échec théorique de l’IA puisque, malgré la multitude des outils algorithmiques disponibles, l’intelligence artificielle ne peut toujours pas exhiber de modèle convaincant de la cognition. La discipline a prudemment renoncé à simuler l’intelligence dans son intégralité. Il est clair pour tout chercheur en sciences humaines ayant quelque peu pratiqué la transdisciplinarité que, du fait de sa complexité foisonnante, l’objet des sciences humaines (l’esprit, la pensée, l’intelligence, la culture, la société) ne peut être pris en compte dans son intégralité par aucune des théories computationnelles de la cognition actuellement disponible. C’est pourquoi l’intelligence artificielle se contente dans les faits de fournir une boîte à outils hétéroclite (règles logiques, syntaxes formelles, méthodes statistiques, simulations neuronales ou socio-biologiques…) qui n’offrent pas de solution générale au problème d’une modélisation mathématique de la cognition humaine.

Cependant, les chercheurs en intelligence artificielle ont beau jeu de répondre à leurs critiques issus des sciences humaines : "Vous prétendez que nos algorithmes échouent à rendre compte de la complexité de la cognition humaine, mais vous ne nous en proposez vous-mêmes aucun pour remédier au problème. Vous vous contentez de pointer du doigt vers une multitude de disciplines, plus complexes les unes que les autres (philosophie, psychologie, linguistique, sociologie, histoire, géographie, littérature, communication…), qui n’ont pas de métalangage commun et n’ont pas formalisé leurs objets ! Comment voulez-vous que nous nous retrouvions dans ce bric-à-brac ?" Et cette interpellation est tout aussi sensée que la critique à laquelle elle répond.

Synthèse de l’intelligence artificielle et des sciences humaines

Ce que j’ai appris de Hubert Dreyfus lors de ce colloque de 1987 où je l’ai rencontré, ce n’était pas tant que la phénoménologie serait la clé de tous les problèmes d’une modélisation scientifique de l’esprit (Husserl, le père de la phénoménologie, pensait d’ailleurs que la phénoménologie – une sorte de méta-science de la conscience – était impossible à mathématiser et qu’elle représentait même le non-mathématisable par exellence, l’autre de la science mathématique de la nature), mais plutôt que l’intelligence artificielle avait tort de chercher cette clé dans la seule zone éclairée par le réverbère de l’arithmétique, de la logique et des neurones formels… et que les philosophes, herméneutes et spécialistes de la complexité du sens devaient participer activement à la recherche plutôt que de se contenter de critiquer. Pour trouver la clé, il fallait élargir le regard, fouiller et creuser dans l’ensemble du champ des sciences humaines, aussi opaque au calcul qu’il semble à première vue. Nous devions disposer d’un outil à traiter le sens, la signification, la sémantique en général, sur un mode computationnel. Une fois éclairé par le calcul le champ immense des relations sémantiques, une science de la cognition digne de ce nom pourrait voir le jour. En effet, pour peu qu’un outil symbolique nous assure du calcul des relations entre signifiés, alors il devient possible de calculer les relations sémantiques entre les concepts, entre les idées et entre les intelligences. Mû par ces considérations, j’ai développé la théorie sémantique de la cognition et le métalangage IEML : de leur union résulte la sémantique computationnelle.

Les spécialistes du sens, de la culture et de la pensée se sentent démunis face à la boîte à outils hétérogène de l’intelligence artificielle : ils n’y reconnaissent nulle part de quoi traiter la complexité contextuelle de la signification. C’est pourquoi la sémantique computationnelle leur propose de manipuler les outils algorithmiques de manière cohérente à partir de la sémantique des langues naturelles. Les ingénieurs s’égarent face à la multitude bigarrée, au flou artistique et à l’absence d’interopérabilité conceptuelle des sciences humaines. Remédiant à ce problème, la sémantique computationnelle leur donne prise sur les outils et les concepts foisonnants des insaisissables sciences humaines. En somme, le grand projet de la sémantique computationnelle consiste à construire un pont entre l’ingénierie logicielle et les sciences humaines de telle sorte que ces dernières puissent utiliser à leur service la puissance computationnelle de l’informatique et que celle-ci parvienne à intégrer la finesse herméneutique et la complexité contextuelle des sciences humaines. Mais une intelligence artificielle grande ouverte aux sciences humaines et capable de calculer la complexité du sens ne serait justement plus l’intelligence artificielle que nous connaissons aujourd’hui. Quant à des sciences humaines qui se doteraient d’un métalangage calculable, qui mobiliseraient l’intelligence collective et qui maîtriseraient enfin le médium algorithmique, elles ne ressembleraient plus aux sciences humaines que nous connaissons depuis le XVIIIe siècle : nous aurions franchi le seuil d’une nouvelle épistémè.

Auteur: Lévy Pierre

Info: https://pierrelevyblog.com/2014/10/08/intelligence-artificielle-et-sciences-humaines/

[ mathématification idiomatique ]

 

Commentaires: 0

Ajouté à la BD par miguel

interdépendances

La première idée de Gaïa naît donc du raisonnement suivant  : "Si les humains actuels, par leur industrie, peuvent répandre partout sur Terre des produits chimiques que je détecte par mes instruments, il est bien possible que toute la biochimie terrestre soit, elle aussi, le produit des organismes vivants. Si les humains modifient si radicalement leur environnement en si peu de temps, alors les autres vivants peuvent l’avoir fait, eux aussi, sur des centaines de millions d’années." La Terre est bel et bien une sorte de technosphère artificiellement conçue dont les vivants seraient les ingénieurs aussi aveugles que les termites. Il faut être ingénieur et inventeur comme Lovelock pour comprendre cette intrication.

Gaïa n’a donc rien d’une idée New Age sur l’équilibre millénaire de la Terre, mais émerge au contraire d’une situation industrielle et technologique très particulière : une violente rupture technologique, mêlant la conquête de l’espace, la guerre nucléaire et la guerre froide, que l’on résume désormais par le terme d’ "anthropocène" et qui s’accompagne d’une rupture culturelle symbolisée par la Californie des années 1960. Drogue, sexe, cybernétique, conquête spatiale, guerre du Vietnam, ordinateurs et menace nucléaire, c’est la matrice où naît l’hypothèse Gaïa : dans la violence, l’artifice et la guerre. Toutefois le trait le plus étonnant de cette hypothèse est qu’elle tient au couplage de deux analyses diamétralement opposées. L’analyse de Lovelock imagine la Terre vue de Mars comme un système cybernétique. Et celle de Lynn Margulis regarde la planète par l’autre bout de la lorgnette, à partir des plus minuscules et des plus anciens des organismes vivants.

A l’époque, dans les années 1970, Margulis est l’exemple typique de ce que les Anglais appellent une maverick : une dissidente qui secoue les néodarwiniens alors en plein essor. L’évolution, dans leur esprit, suppose l’existence d’organismes suffisamment séparables les uns des autres pour qu’on leur attribue un degré de réussite inférieur ou supérieur aux autres. Or Margulis conteste l’existence même d’individus séparables : une cellule, une bactérie ou un humain. Pour la simple et excellente raison qu’ils sont "tous entrelacés", comme l’indique le titre d’un livre récent.

Une cellule est une superposition d’êtres indépendants, de même que notre organisme dépend non seulement de nos gènes, mais de ceux des bestioles infiniment plus nombreuses qui occupent notre intestin et couvrent notre peau. Il y a bien évolution, mais sur quel périmètre porte celle-ci et quels sont les participants entrelacés qui en tirent profit, voilà qui n'est pas calculable. Les gènes ont beau être "égoïstes", comme l’avançait naguère Richard Dawkins, le problème est qu’ils ne savent pas où s’arrête exactement leur ego ! Chose intéressante, plus le temps passe, plus les découvertes de Margulis prennent de l’importance, au point qu’elle s’approche aujourd’hui de l’orthodoxie grâce à l’extension foudroyante du concept de holobionte, terme qui résume à lui seul la superposition des vivants pliés les uns dans les autres.

Que se passe-t-il quand on combine l’intuition de Lovelock avec celle de Margulis ? Au cours du séminaire auquel je participe le lendemain avant que la neige ne vienne ensevelir le sud de l’Angleterre, la réponse m’apparaît assez clairement : la théorie Gaïa permet de saisir les "puissances d’agir" de tous les organismes entremêlés sans aussitôt les intégrer dans un tout qui leur serait supérieur et auquel ils obéiraient. En ce sens, et malgré le mot "système", Gaïa n’agit pas de façon systématique, en tout cas ce n'est pas un système unifié. Comme Lenton le démontre, selon les échelles d’espace et de temps, la régulation est très forte ou très lâche : l’homéostasie d’un organisme et la régulation plutôt erratique du climat ne sont pas du même type. C’est que la Terre n'est pas un organisme. Contrairement à tous les vivants, elle se nourrit d’elle-même en quelque sorte, par un recyclage continu avec très peu d’apport extérieur de matière (en dehors bien sûr de l’énergie solaire). On ne peut même pas dire que Gaïa soit synonyme du globe ou du monde naturel puisque, après tout, les vivants, même après plusieurs milliards d’années d’évolution, ne contrôlent qu’une mince pellicule de la Terre, une sorte de biofilm, ce que les chercheurs avec qui je travaille maintenant appellent "zones critiques".

Je comprends alors les erreurs commises dans l’interprétation de la théorie Gaïa par ceux qui l’ont rejetée trop vite comme par ceux qui l’ont embrassée avec trop d’enthousiasme : les premiers autant que les seconds ont projeté une figure de la Terre, du globe, de la nature, de l’ordre naturel, sans prendre en compte le fait qu’il s’agissait d’un objet unique demandant une révision générale des conceptions scientifiques.

Ah mais alors j’avais bien raison d’établir un parallèle avec Galilée ! Bloqué sous ma couette en attendant qu’il pleuve assez pour que les Anglais osent se risquer hors de chez eux, je comprenais cette phrase étonnante de Lovelock : "L’hypothèse Gaïa a pour conséquence que la stabilité de notre planète inclut l’humanité comme une partie ou un partenaire au sein d’un ensemble parfaitement démocratique." Je n’avais jamais compris cette allusion à la démocratie chez un auteur qui ne la défendait pas particulièrement. C’est qu’il ne s’agit pas de la démocratie des humains mais d’un renversement de perspective capital pour la suite.

Avant Gaïa, les habitants des sociétés industrielles modernes, quand ils se tournaient vers la nature, y voyaient le domaine de la nécessité, et, quand ils considéraient la société, ils y voyaient, pour parler comme les philosophes, le domaine de la liberté. Mais, après Gaïa, il n’y a plus littéralement deux domaines distincts : aucun vivant, aucun animé n’obéit à un ordre supérieur à lui et qui le dominerait ou auquel il lui suffirait de s’adapter – cela est vrai des bactéries comme des lions ou des sociétés humaines. Cela ne veut pas dire que tous les vivants soient libres au sens un peu simplet de l’individualisme puisqu’ils sont entrelacés, pliés, intriqués les uns dans les autres. Cela veut dire que la question de la liberté et de la dépendance vaut autant pour les humains que pour les partenaires du ci-devant monde naturel.

Galilée avait inventé un monde d’objets, posés les uns à côté des autres sans s’influencer et entièrement soumis aux lois de la physique. Lovelock et Margulis dessinent un monde d’agents qui interagissent sans cesse entre eux.

Auteur: Latour Bruno

Info: L’OBS/N°2791-03/05/2018

[ interactions ] [ redistribution des rôles ]

 
Commentaires: 2
Ajouté à la BD par miguel

culte démystifié

Flipper et juke-box sont des machines qui prolongent l’univers magique de l’enfance dans la société adulte. Ils représentent un seuil et un passage, la fin de l’enfance et le commencement de l’adolescence. Leur usage est aussi une décisive promotion sociale : il signifie l’accession au statut de consommateur. La fonction ludique investit la société Industrielle et la soumet à ses valeurs.

Cette magie n’est pas le génie de l’enfance. Bien au contraire. Elle est celle de l’idéologie néo-capitaliste qui s’incarne dans l’enfant et qui devient alors le génie de l’enfance capitaliste. Nous sommes là au cœur de la "société de consommation", du premier dressage du corps à la consommation.

On a voulu opposer la spontanéité et le naturel de l’enfant à "la société de consommation" de l’adulte. C’est le contraire qui est vrai : l’enfant s’abandonne sans aucune retenue à l’univers de la consommation, tandis que l’adulte – lorsqu’il est producteur – peut lui résister.

Quelle est la genèse de cette magie ? Comment l’enfant devient-il "innocent", "spontané" ? Comment l’idéologie de la consommation investit, dès le principe, l’enfance ?

L’explication sera proposée par une donnée anthropologique. Le corps du bébé est exclusivement fonction de consommation. Car c’est un immature. La cité reconnaît cette donnée ontologique ; le droit naturel. L’éducation consiste à redresser cette nature vouée au "principe de plaisir". Par l’apprentissage de la cité et du métier, le corps doit apprendre à se soumettre au procès de production. L’éducation politique du corps consiste à soumettre le "principe de plaisir" au principe de réalité.

Dans le système Capitaliste, ce travail ne doit pas être fait : le droit naturel doit se prolonger en irresponsabilité civique. C’est le dressage à la consommation, l’éducation de la "société de consommation" qui sera libérale, permissive, libertaire. C’est la toute-puissance du "principe de plaisir".

Les parents ne font alors que proposer l’éducation de la société industrielle sous tutelle capitaliste. Celle-ci impose l’usage coutumier de ses techniques. Un système fonctionnel qui prolonge et multiplie les pouvoirs du petit prince de la consommation. Celui-ci va jouer des objets manufacturés, utilitaires du milieu familial. Ce qui est usage fonctionnel pour les adultes devient usage ludique. Le droit naturel de l’enfant devient désinvolture d’usager. C’est l’accès au statut de consommateur.

Usage magique : il suffit d’appuyer sur un bouton. L’enfant investit ses privilèges dans l’espace familial, celui de l’équipement ménager. Et de tous les équipements (voiture, télévision, etc.) qui deviennent alors des objets de consommation. Au service du principe de plaisir, du ludique. L’enfant profite, – intégralement, lui – d’un procès de production qu’il peut – sans culpabilité encore – ignorer totalement.

C’est la magie moderne : un appareil utilisé sans connaître la nature de son fonctionnement, une fonction asservie sans soupçonner l’ordre du travail qui l’a produite. D’un rien, sans aucun effort, d’un seul souhait, d’un seul geste, surgit une consommation parfaite.

L’enfant est alors d’une totale disponibilité. A la consommation. Voyez sa manipulation de l’objet-marchandise. Il fait preuve d’une dextérité, d’une désinvolture qui stupéfient le cercle de famille. Il témoigne d’une agilité d’usage, d’une facilité insolentes.

Toute une culture – celle de la technologie de la société industrielle avancée – s’est consacrée, au prix d’un immense travail au développement du confort. Et sa caractéristique est d’avoir pu atteindre une extraordinaire facilité de son usage : il suffit d’appuyer sur un bouton. Le principe de la pédagogie d’intégration au système capitaliste est alors cet usage magique – par l’enfant – du fonctionnel.

Lénine disait que le communisme c’est l’électricité plus les Soviets. Le capitalisme, c’est l’électricité plus la magie fonctionnelle. Autrefois, l’usage d’un progrès était encore une technique d’usage. Pendant longtemps, l’instrument de libération a entraîné de dures contraintes. Un travail d’usage autre que le travail de production. Il y avait comme un échange symbolique, entre le travail qui permettait l’usage et la fonction libératrice de cet usage.

Avec l’électricité, il suffit d’une pichenette, geste magique, alors, de démiurge : l’enfant profite d’un progrès sans donner aucun travail – même symbolique – en échange. Il s’installe dans la totale ignorance du travail nécessaire à cette consommation. La pédagogie du système consiste à maintenir cette ignorance et à exalter cette gratuité. L’enfant doit se vautrer dans cet univers magique : la récupération totale du travail et du progrès. L’univers fonctionnel – résultat du fantastique travail de l’humanité – est alors réduit à la fonction ludique qui prolonge et accomplit l’univers ludique enfantin. Le capitalisme veut que nous restions jeunes et que nous soyons comme des enfants ! Le travail des uns sera l’éternelle adolescence des autres.

Le principe de l’éducation d’avant le capitalisme monopoliste d’Etat : la ludicité de l’enfant devait très vite affronter le sérieux de la praxis. Il fallait apprendre à vivre. Toute pédagogie était aussi un apprentissage. Pour le moins celui des techniques d’usage de la vie quotidienne. Car celle-ci exigeait une multitude de travaux domestiques. Et chacun devait en prendre sa part. Un dressage élémentaire du corps était le sevrage civique (celui de la passivité du corps). Du corps organe de réception et d’usage, corps de la digestion, corps originel (corps de la "société de consommation").

Cette structure éducative ne doit surtout pas être taxée de bourgeoise. Ce n’est pas l’idéologie qui l’imposait, mais le mode de production. Et elle se vérifiait, par la force des choses, davantage en milieu populaire qu’en milieu bourgeois.

Mais la bourgeoisie s’efforçait aussi de garantir cette structure, à tous les niveaux de la hiérarchie sociale. Il fallait un dressage minimum du corps (ne serait-ce que faire son lit) pour participer au vécu quotidien d’un mode de production aux technologies peu développées et très contraignantes. De là, par exemple, des traditions comme l’apprentissage sur le tas (du fils de famille) ou l’éducation civique dérivée de la préparation militaire : les boy-scouts (la culture bourgeoise avait su proposer un militantisme écologique auprès duquel les prétentions écologisantes de notre époque semblent bien molles et paresseuses).

Maintenant, l’enfant ne trouve plus ces résistances civiques à son investissement ludique. On le préserve même des exercices pédagogiques élémentaires, devenus autoritarisme et brimade. On lui livre toutes les technologies d’usage. Son activisme magique originel ne rencontre plus de barrière.

Auteur: Clouscard Michel

Info: Le capitalisme de la séduction

[ naturalisation ]

 
Commentaires: 4
Ajouté à la BD par Coli Masson

jeu

Le fantasque Mario Balotelli, la vraie star de cet Euro 2012
Rebelle, iconoclaste, le joueur qualifié pour les demi-finales avec l'Italie contredit tous les clichés du politiquement correct.
"Oubliez-moi. La vraie rock star ici, c'est Mario Balotelli !" Déclare Noel Gallagher, le chanteur controversé de l'ex-groupe Oasis, qui parle de l'attaquant italien de Manchester City. Un rapide condensé de l'esprit de ce joueur qui vient de se qualifier pour les demi-finales de l'Euro 2012 avec la Squadra Azzurra. Et c'est d'ailleurs sa patrie d'adoption - l'Angleterre, où il évolue sous les couleurs de Manchester City - qu'il vient d'éliminer de la compétition, aux tirs au but, après y être allé de sa petite réalisation.
Mario Balotelli est un show à lui tout seul qui défraie la chronique. On en est fan ou on l'exècre. Soit on le considère comme un génie, soit comme un sombre abruti. Mais une chose est sûre, il ne laisse pas indifférent. Et pour ses débuts à l'Euro 2012, il n'a pas failli à sa réputation de joueur fantasque. Capable du pire comme du meilleur sur une pelouse, il a appliqué avec panache ce concept lors de la phase des poules. Il passe ainsi à côté de ses deux premiers matches et suscite la colère des tifosi pour son comportement de diva sur le terrain. Alors, pour faire taire tout le monde, l'attaquant italien est aussi en mesure d'inscrire un somptueux but lors du troisième match de poule et de le célébrer en boudant et en se faisant censurer par ses coéquipiers, de peur que l'intenable ne dérape dans ses propos ou dans la célébration de son but. Au final, ses partenaires s'en amusent et ont appris à composer avec ce caractère instable.
Compétitif et instable
Car Balotelli est un véritable ovni du ballon rond. Le genre de joueur complètement perché en marge totale des principes liés au monde du football professionnel. Conscient de son talent, il n'en fait qu'à sa tête, ce qui déclenche inévitablement des polémiques. Mais là où certains joueurs français pénalisent leur équipe par des attitudes immatures, la folie de Mario Balotelli le rend compétitif et hors du commun. Il peut, par exemple, se vanter en club cette saison d'un meilleur ratio buts-temps de jeu que la star de Manchester City Sergio Agüero et a été décisif dans l'obtention du titre de champion des Citizens. Et c'est d'ailleurs ce point précis qui dérange.
À une époque où l'on nous apprend que seuls la volonté, le travail et l'effort conditionnent la réussite sociale, Mario arrive au sommet de sa profession avec une attitude de dilettante. Alors que les médias font le constat d'une société en manque de repères qui découlerait d'une autorité défaillante, Mario Balotelli conteste fréquemment la figure hiérarchique du coach, ce qui ne l'empêche pas pour autant de faire une belle carrière. Quel joueur, du haut de ses 22 ans, a déjà gagné une Ligue des champions, trois championnats d'Italie et un titre de champion d'Angleterre ? Il met ainsi en porte à faux tous ces principes consensuels qui ont transformé le football en univers aseptisé où aucun comportement rebelle n'est toléré. Un constat qui a énormément de mal à passer et qui se verra toujours opposer des arguments fallacieux mettant en avant l'instabilité du garçon ou ses doigts d'honneur faits à la morale.
Il faut dire que le parcours de Mario Balotelli est lui-même hors norme. Né à Palerme, en Sicile, de parents ghanéens, il est recueilli à 2 ans par une famille italienne de Brescia. Et dans un pays loin d'être cosmopolite, il est l'un des rares enfants de couleur noire de cette ville. Pourtant, il n'a jamais été tenté par un "retour aux sources" salvateur ou mystique dont les joueurs français ou anglais d'origine africaine sont friands. Au contraire, il se revendique 100 % italien et déclare être un amoureux de sa patrie. N'a-t-il pas sorti un drapeau vert-blanc-rouge devant les supporteurs de Manchester City au moment de célébrer le titre avec eux ? Paradoxe : ce genre d'attitude - très certainement glorifiée en France par ceux qui s'inquiètent de ne voir aucun joueur chanter La Marseillaise - ne passe pas en Italie. Les Transalpins ne pardonnent rien à l'ancien sociétaire de l'Inter Milan.
Premier Noir de la Squadra Azzurra
Majoritairement xénophobe, l'Italie a eu du mal à accepter qu'un joueur de couleur noire soit la figure la plus visible de la Squadra Azzurra. Pire, Mario Balotelli est devenu en 2010 le premier joueur de couleur noire à revêtir le maillot de la Nazionale... De quoi déclencher de vives migraines chez les supporteurs les plus farouches et réactionnaires de la Petite Botte. D'autant plus que l'indiscipline de Mario n'arrange rien. Son passage à l'Inter Milan s'est d'ailleurs très mal terminé. Ce qui n'a rien d'étonnant vu que l'entraîneur était à l'époque José Mourinho. D'un côté, un coach portugais show man de classe mondiale qui est très à cheval sur les valeurs collectives de son équipe. De l'autre, un joueur individualiste et forte tête qui se considère comme la seule star de l'effectif. Le clash était inévitable.
Malgré ses frasques, ses attitudes incompréhensibles, son comportement immature et son inconscience avérée il vient de provoquer un incendie à son domicile en allumant pétards et feux d'artifice dans sa salle de bains), Mario Balotelli fait curieusement du bien au football. Il apporte de la fraîcheur et de l'originalité dans ce monde du ballon rond qui a perdu son innocence à cause des exigences du haut niveau. Qui ne s'est pas déjà ennuyé devant une interview d'un joueur de Ligue 1 au discours formaté du type "l'important, c'est les trois points" ?
Pourquoi les Cantona, Maradona, Romario, Ronaldinho ou Paul Gascoigne étaient si populaires ? Parce qu'ils ont toujours compris que le football était d'abord un jeu avant d'être leur travail. Et que le spectacle fait aussi partie de ce sport au même titre, voire plus, que la performance. Mario Balotelli, même s'il ne le revendique pas ouvertement, s'inscrit dans cet héritage. Il est l'enfant terrible du football moderne, directement engendré et inspiré par ces anciennes gloires du ballon rond. Mario Balotelli confond la pelouse d'un stade avec une cour d'école et c'est ce qui plaît. On l'adule ou on le hait, mais on ne peut pas nier qu'il apporte de la vie et de l'humain au football avec son comportement d'enfant.

Auteur: Cacace Giuseppe

Info: Le Point.fr, 25 juin 2012

[ fantaisie ] [ star ] [ sport ] [ révolte ]

 

Commentaires: 0

chronos

Comment les physiciens explorent et repensent le temps

Le temps est inextricablement lié à ce qui pourrait être l’objectif le plus fondamental de la physique : la prédiction. Qu'ils étudient des boulets de canon, des électrons ou l'univers entier, les physiciens visent à recueillir des informations sur le passé ou le présent et à les projeter vers l'avant pour avoir un aperçu de l'avenir. Le temps est, comme l’a dit Frank Wilczek, lauréat du prix Nobel, dans un récent épisode du podcast The Joy of Why de Quanta, " la variable maîtresse sous laquelle le monde se déroule ".  Outre la prédiction, les physiciens sont confrontés au défi de comprendre le temps comme un phénomène physique à part entière. Ils développent des explications de plus en plus précises sur la caractéristique la plus évidente du temps dans notre vie quotidienne : son écoulement inexorable. Et des expériences récentes montrent des façons plus exotiques dont le temps peut se comporter selon les lois de la mécanique quantique et de la relativité générale. Alors que les chercheurs approfondissent leur compréhension du temps dans ces deux théories chères, ils se heurtent à des énigmes qui semblent surgir de niveaux de réalité plus obscurs et plus fondamentaux. Einstein a dit en plaisantant que le temps est ce que mesurent les horloges. C'est une réponse rapide. Mais alors que les physiciens manipulent des horloges de plus en plus sophistiquées, on leur rappelle fréquemment que mesurer quelque chose est très différent de le comprendre. 

Quoi de neuf et remarquable

Une réalisation majeure a été de comprendre pourquoi le temps ne s'écoule qu'en avant, alors que la plupart des faits physiques les plus simples peuvent être faits et défaits avec la même facilité.  La réponse générale semble provenir des statistiques des systèmes complexes et de la tendance de ces systèmes à passer de configurations rares et ordonnées à des configurations désordonnées plus courantes, qui ont une entropie plus élevée. Les physiciens ont ainsi défini une " flèche du temps " classique dans les années 1800, et dans les temps modernes, les physiciens ont remanié cette flèche probabiliste en termes d’intrication quantique croissante. En 2021, ma collègue Natalie Wolchover a fait état d’une nouvelle description des horloges comme de machine qui ont besoin du désordre pour fonctionner sans problème, resserrant ainsi le lien entre emps et entropie. 

Simultanément, les expérimentateurs se sont fait un plaisir d'exposer les bizarres courbures et crépitements du temps que nous ne connaissons pas, mais qui sont autorisés par les lois contre-intuitives de la relativité générale et de la mécanique quantique. En ce qui concerne la relativité, Katie McCormick a décrit en 2021 une expérience mesurant la façon dont le champ gravitationnel de la Terre ralentit le tic-tac du temps sur des distances aussi courtes qu'un millimètre. En ce qui concerne la mécanique quantique, j'ai rapporté l'année dernière comment des physiciens ont réussi à faire en sorte que des particules de lumière fassent l'expérience d'un écoulement simultané du temps vers l'avant et vers l'arrière.

C'est lorsque les physiciens sont confrontés à la formidable tâche de fusionner la théorie quantique avec la relativité générale que tout ça devient confus ; chaque théorie a sa propre conception du temps, mais les deux notions n’ont presque rien en commun.

En mécanique quantique, le temps fonctionne plus ou moins comme on peut s'y attendre : vous commencez par un état initial et utilisez une équation pour le faire avancer de manière rigide jusqu'à un état ultérieur. Des manigances quantiques peuvent se produire en raison des façons particulières dont les états quantiques peuvent se combiner, mais le concept familier du changement se produisant avec le tic-tac d’une horloge maîtresse reste intact.

En relativité générale, cependant, une telle horloge maîtresse n’existe pas. Einstein a cousu le temps dans un tissu espace-temps qui se plie et ondule, ralentissant certaines horloges et en accélérant d’autres. Dans ce tableau géométrique, le temps devient une dimension au même titre que les trois dimensions de l'espace, bien qu'il s'agisse d'une dimension bizarroïde qui ne permet de voyager que dans une seule direction.

Et dans ce contexte, les physiciens dépouillent souvent le temps de sa nature à sens unique. Bon nombre des découvertes fondamentales de Hawking sur les trous noirs – cicatrices dans le tissu spatio-temporel créées par l’effondrement violent d’étoiles géantes – sont nées de la mesure du temps avec une horloge qui marquait des nombres imaginaires, un traitement mathématique qui simplifie certaines équations gravitationnelles et considère le temps comme apparié à l'espace. Ses conclusions sont désormais considérées comme incontournables, malgré la nature non physique de l’astuce mathématique qu’il a utilisée pour y parvenir.

Plus récemment, des physiciens ont utilisé cette même astuce du temps imaginaire pour affirmer que notre univers est l'univers le plus typique, comme je l'ai rapporté en 2022. Ils se demandent encore pourquoi l'astuce semble fonctionner et ce que signifie son utilité. "Il se peut qu'il y ait ici quelque chose de profond que nous n'avons pas tout à fait compris", a écrit le célèbre physicien Anthony Zee à propos du jeu imaginaire du temps dans son manuel de théorie quantique des champs.

Mais qu’en est-il du temps réel et à sens unique dans notre univers ? Comment les physiciens peuvent-ils concilier les deux images du temps alors qu’ils se dirigent sur la pointe des pieds vers une théorie de la gravité quantique qui unit la théorie quantique à la relativité générale ? C’est l’un des problèmes les plus difficiles de la physique moderne. Même si personne ne connaît la réponse, les propositions intrigantes abondent.

Une suggestion, comme je l’ai signalé en 2022, est d’assouplir le fonctionnement restrictif du temps en mécanique quantique en permettant à l’univers de générer apparemment une variété d’avenirs à mesure qu’il grandit – une solution désagréable pour de nombreux physiciens. Natalie Wolchover a écrit sur la suspicion croissante selon laquelle le passage du temps résulte de l'enchevêtrement de particules quantiques, tout comme la température émerge de la bousculade des molécules. En 2020, elle a également évoqué une idée encore plus originale : que la physique soit reformulée en termes de nombres imprécis et abandonne ses ambitions de faire des prévisions parfaites de l’avenir.

Tout ce que les horloges mesurent continue de s’avérer insaisissable et mystérieux. 

Auteur: Internet

Info: https://www.quantamagazine.org/ - Charlie Wood, 1 avril 2024

 

Commentaires: 0

Ajouté à la BD par miguel