Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 31
Temps de recherche: 0.0481s

adaptation

Les yeux marrons des rennes deviennent bleus en hiver.
La vie d'un renne en Arctique n'est pas de tout repos. D'abord, il lui faut endurer des températures glaciales, inférieures à -40°C. Mais il doit aussi encaisser d'incroyables écarts de luminosité. Et pour cause. Durant les trois mois que dure l'été, les jours sont très longs et la luminosité est particulièrement importante, du fait de la réflexion des rayons du Soleil sur le sol recouvert de neige et de glace. En revanche, durant le long et rigoureux hiver polaire qui suit, la nuit est alors interminable. Ce qui facilite alors grandement le travail des prédateurs tels que les loups et les ours. C'est fortuitement que les scientifiques ont en effet remarqué que durant l'été, les yeux des rennes ont une belle couleur brun doré. Mais lorsque l'hiver arrive, ils se teintent d'un bleu profond.
Les chercheurs expliquent que le mécanisme qui régit ce changement de couleur est le fait d'un tissu de cellules réfléchissantes situé derrière la rétine, connu sous le nom de tapetum lucidum. Ce dernier, présent chez de nombreux vertébrés qui pratiquent la chasse de nuit, a pour fonction de réfléchir la lumière de manière à améliorer la vision nocturne. C'est cette couche de cellules qui fait briller les yeux des chats dans le noir lorsqu'une lampe torche est braquée sur eux. À l'aide d'électrodes les chercheurs ont mesuré la pression qui régnait dans le tapetum lucidum des rennes à différentes périodes de l'année. Ce qui leur a permis de constater que durant l'hiver, la pression augmentait considérablement dans l'oeil des animaux, du fait d'un ralentissement de certains mécanismes cellulaires de drainage des fluides oculaires. Sous cette augmentation de pression, les cellules qui composent le tapetum lucidum se rapprochent, ce qui modifie la longueur des ondes lumineuse qu'elles réfléchissent. Le tapis cellulaire réfléchit alors principalement de la lumière bleue.
D'après les chercheurs, cette lumière permettrait aux rennes de mieux percevoir les mouvements des prédateurs dans l'obscurité. Mais, en contrepartie, les images imprimées sur la rétine seraient moins nettes. Ce qui expliquerait l'intérêt évolutif pour l'animal de retrouver une vision plus nette durant les mois d'été à la forte luminosité. Actuellement on ne connait aucun autre mammifère capable de modifier ainsi la couleur de ses yeux suite à un changement de saison.

Auteur: Internet

Info: 24 12 2013

[ curiosité ] [ regard ] [ métamorphose ] [ sciences ]

 

Commentaires: 0

proportions

Découverte d'une nouvelle loi de la nature La relation entre abondances de proies et de prédateurs suit une loi universelle à l'échelle planétaire L'écologie considère habituellement que la biomasse de prédateurs d'un écosystème varie proportionnellement à celle de leurs proies. Une étude publiée le 4 septembre dans Science par une équipe franco-canadienne vient pour la première fois contredire cette théorie. En s'appuyant sur une base de données de plus de 2000 communautés d'espèces, les scientifiques ont en effet constaté que la biomasse totale des proies augmentait bien plus vite que celle des prédateurs et selon des proportions similaires pour la totalité des écosystèmes analysés. De tels résultats suggèrent que les écosystèmes possèdent un degré d'organisation bien plus grand que celui qu'on leur prêtait jusqu'alors. Dans les années 1930, les scientifiques Julian Huxley et Georges Teissier sont les premiers à mettre en évidence les phénomènes de croissance différentielle d'organes chez les êtres vivants. Ces relations dites allométriques, semblaient en revanche ne pas avoir court à l'échelon supérieur de l'écosystème. "La théorie la plus communément admise jusqu'ici considérait que la biomasse de prédateurs d'un système biologique donné augmentait proportionnellement à celle de la biomasse de proies disponibles", souligne Michel Loreau, directeur du Centre de Théorie et Modélisation de la Biodiversité de la Station d'Ecologie Expérimentale du CNRS à Moulis et co-signataire de l'article. En s'appuyant sur les données de la littérature scientifique portant sur les relations proies/prédateurs, le chercheur et son équipe ont voulu déterminer quelles lois mathématiques reliaient leurs abondances respectives. Au total, 2260 communautés de grands mammifères, d'invertébrés, de plantes et d'organismes planctoniques ont ainsi été analysées. Les écologues ont alors découvert avec surprise qu'une même loi de puissance d'exposant proche de ¾ régissait la relation entre la biomasse totale des prédateurs d'un écosystème et celle de leurs proies. Cette règle, qui s'applique à toutes les communautés d'espèces prises en compte dans l'étude, prouve que l'abondance des prédateurs n'augmente pas proportionnellement à celles des proies mais de façon bien moins rapide. L'équipe a en outre constaté que la relation entre production et biomasse d'un même niveau trophique (1) était soumise à une loi identique. "Nos résultats tendent à démontrer que l'organisation des écosystèmes est régie par des relations allométriques semblables à celles qui lient par exemple métabolisme et taille corporelle d'un organisme unique ", constate Michel Loreau. Des facteurs fondamentaux, que les scientifiques doivent maintenant déterminer, gouverneraient ainsi la structure et le fonctionnement de l'ensemble des systèmes biologiques, de l'organisme jusqu'à l'écosystème.

Auteur: Internet

Info: Laporte Amaury 9 sept 2015, 1 En écologie, le niveau trophique caractérise la position d'un organisme vivant le long de la chaîne alimentaire

[ ordre ] [ biotope ] [ méta-moteur ] [ invariant ] [ pilotage ] [ syntropie ]

 

Commentaires: 0

adaptation

Les antibiotiques favorisent le jeu de dupe de certaines bactéries
La surprenante diversité des comportements coopératifs rencontrés dans la nature interroge depuis longtemps les scientifiques. Alors que cette stratégie est fragilisée par la présence d'individus "tricheurs", ces derniers utilisant les ressources de la communauté sans participer à leur production, la coopération existe dans tous les niveaux d'organisation du vivant: entre gènes dans le génome, entre cellules dans les organismes pluricellulaires et entre organismes dans les populations. Si plusieurs études ont déjà souligné l'importance de la proximité génétique et spatiale entre coopérateurs dans l'existence de ce paradoxe, peu de travaux se sont en revanche intéressés au rôle joué par l'environnement dans les interactions entre tricheurs et coopérateurs. C'est justement l'objet de l'étude menée par une équipe de l'ISEM. Dans cette dernière, les chercheurs ont exploré le rôle d'un antibiotique sur la dynamique d'une population de bactéries Pseudomonas aeruginosa comportant des tricheurs et des coopérateurs. Ce microorganisme qui peut présenter un danger pour les patients immunodéprimés ou atteints de mucoviscidose, tire en partie sa virulence de la production de molécules qui sont ensuite partagées avec l'ensemble de la population bactérienne. "Dans notre laboratoire, nous avons étudié en particulier la production de sidérophores, des molécules que seuls les coopérateurs produisent mais qui sont aussi bien utilisées par les coopérateurs que les tricheurs d'une même population pour acquérir du fer", rappelle Michael Hochberg, chercheur à l'ISEM et co-auteur de l'article.
Dans cette nouvelle étude, les scientifiques ont soumis trois types de populations de P. aeruginosa comportant une fraction croissante de tricheurs (15%, 45% puis 75%) à des doses de plus en plus élevées d'antibiotiques. Ils ont ensuite observé sur une période de 48 heures comment les différents dosages antibiotiques modifiaient la capacité des tricheurs à envahir chaque population bactérienne. Les chercheurs ont ainsi pu constater que la fréquence des tricheurs au sein des différentes communautés testées augmentait plus rapidement en présence d'antibiotique et ce quel que soit le niveau de concentration initial de la substance. Pour expliquer ce résultat, l'équipe suggère alors que les coopérateurs sont plus "sensibles" aux antibiotiques que les tricheurs. "Etant donné que les coopérateurs payent le coût de la coopération en produisant les sidérophores, ils ont ensuite moins de ressources métaboliques à investir dans la résistance aux antibiotiques que les tricheurs", détaille Michael Hochberg. A l'aide d'un modèle mathématique, le chercheur et son équipe ont ensuite pu confirmer la pertinence de cette hypothèse et généraliser ainsi leurs résultats au partage de biens publics chez d'autres espèces. Les scientifiques veulent maintenant poursuivre leurs investigations en testant, via leur modèle bactérien, l'influence de facteurs de stress abiotiques tels que la température sur la dynamique des tricheurs. Parvenir à démontrer que les environnements stressants, quels qu'ils soient, favorisent davantage les tricheurs face aux coopérateurs, permettrait de franchir un pas supplémentaire vers la compréhension du maintien et de l'évolution des comportements coopératifs.

Auteur: Internet

Info: http://www.techno-science.net/?onglet=news&news=15939. Donc la population bactérienne qui joue le jeu du système (coopère), tend à diminuer dès qu'il y a une influence modificatrice qui vient de l'extérieur (antibiotiques). Comme si les individus perdaient leur morale sociétale initiale, devenant moins rigides (donc tricheurs). Tricherie qui correspondrait à une adaptation à l'envahisseur, on l'accepte, on se lie/marie. On vit avec. Comme si des extraterrestres arrivaient sur une planète donnée, et que les habitants les plus conventionnels, (ou les plus faibles ou les plus simples...), tendaient à modifier leurs comportements/actions devant cette intrusion. Ainsi, devenant "moins sensible" à cette nouvelle influence externe, ils aident le groupe (société, pays, planète) à perdurer en assimilant l’intrus, par ce qu'on pourrait appeler une adaptation/neutralisation. Commentaire de MG.

[ amoralité ] [ spéculation ] [ biophysique ]

 

Commentaires: 0

évolution

Homo: seul primate ayant des dents évoluant à l'inverse du cerveau
Des chercheurs andalous dirigés par l'Université de Grenade signalent le "paradoxe évolutif" qu'a supposé ce phénomène pendant plus de 2,5 millions d'années. Leur travail vient d'être publié dans la revue BioMed Research International. Nous sommes les seules primates dont, tout au long de plus de 2,5 millions d'années d'histoire, la grandeur des dents a décru à mesure qu'augmentait celle du cerveau.
La clé de ce phénomène, que les scientifiques qualifient de "paradoxe évolutif", pourrait se trouver dans l'évolution du régime de l'Homo. La digestion se produit d'abord dans la cavité orale, et les dents sont fondamentales pour la réduction des aliments à des particules plus petites. Il semblerait donc normal que si le cerveau augmente sa grandeur, et par conséquent ses besoins métaboliques aussi, les dents le fassent également.
Mais dans le cas du genre Homo il n'en est pas ainsi, d'après les scientifiques cela signifie que d'importants changements ont dû se produire pour que cette tendance se maintienne", signale le chercheur Juan Manuel Jiménez Arenas, professeur du département de Préhistoire et d'Archéologie de l'Université de Grenade et principal auteur de ce travail.
Une des clés de ce phénomène a dû être un changement dans le régime avec inclusion d'une quantité majeure d'aliments d'origine animale. L'augmentation de la qualité de la diète chez les Homo, grâce à une plus grande ingestion de protéines animales, de graisses et d'oligoéléments présents chez elles, est fondamentale pour l'entretien et le fonctionnement correct du cerveau. D'autre part, un grand cerveau permet des développements culturels et sociaux majeurs, ce qui a entraîné d'importantes innovations technologiques.
Pour cela, ces chercheurs ont évalué le rapport entre la grandeur de la dentition post-canine et le volume endocrâne chez un large ensemble de primates, parmi lesquels se trouvent les principaux représentants des hominidés fossiles. "Jusqu'à ce travail, il était bien connu que les dents diminuaient de grandeur et que le cerveau augmentait tout au long de l'évolution des humains ; mais nous avons déterminé qu'il s'agit de deux tendances évolutives opposées qui sont liées depuis 2,5 millions d'années, lorsqu'apparaissent sur la scène évolutive les premiers représentants de notre propre lignée, le genre Homo."
Les auteurs de ce travail mettent aussi en rapport ces changements avec l'inactivation du gène MYH16, rattaché à la musculature temporelle, dont le format diminue depuis 2,4 millions d'années approximativement, ce qui supposerait la disparition d'un important empêchement pour l'encéphalisation (une musculature temporelle hypertrophiée empêche le développement de la voûte crânienne). Ils ont également analysé leur rapport à l'inactivation du gène SRGAP2, ce qui a contribué à l'évolution du néocortex et a joué un rôle fondamental dans le développement du cerveau humain.
Ce travail a été réalisé grâce à la collaboration de Juan Manuel Jiménez Arenas avec trois prestigieux professeurs et chercheurs de l'Université de Malaga: Paul Palmqvist y Juan Antonio Pérez Claros, du département d'Écologie et de Géologie, et Juan Carlos Aledo, de département de Biochimie et de Biologie Moléculaire.

Auteur: Internet

Info: 3 avril 2014

[ mamifère ] [ être humain ]

 

Commentaires: 0

couchant

Le soleil venait de se coucher, rouge comme braise, et il avait laissé assez de couleurs pour teindre toute la voûte du ciel qui devenait rose pâle, non seulement dans le coin où venait de disparaître le globe incandescent, mais sur toute son étendue. En même temps, l’eau du lac Duvsjoe s’assombrissait et prenait l’aspect d’une glace sans tain sous les montagnes escarpées qui l’encadraient, et sur cet espace noir couraient des traînées de sang vermeil et d’or luisant.
C’était une de ces nuits où la Terre ne semble pas valoir un regard ; seuls, le ciel et l’eau qui reflète le ciel méritent d’être contemplés.
Mais tout en admirant cette splendeur, Jan commença à se demander une chose : se trompait-il ou la voûte céleste ne s’était-elle pas mise à baisser? À ses yeux du moins, elle paraissait s’être rapprochée de la terre.
Oui, certes, il se passait quelque chose d’anormal. Il était certain que la vaste calotte rose pâle du ciel descendait vers la terre. En même temps, la température torride et suffocante augmentait. Déjà, il se sentait atteint par la chaleur qui tombait de la voûte en fusion.
Jan avait souvent entendu parler de la fin du monde, mais il s’était toujours figuré qu’elle se manifesterait par un orage terrible et un tremblement de terre qui jetterait les montagnes dans les mers et ferait déborder l’eau des lacs et, inondant les vallées et les plaines, de manière à faire périr tout être vivant. Il n’avait pas pensé que la fin pourrait se produire parce que le ciel viendrait couvrir et écraser la terre, faisant mourir les gens d’étouffement. Cette forme de mort était pire que toute autre.
Il déposa sa pipe, bien qu’elle ne fut qu’à moitié consumée, mais demeura assis. Que faire d’autre ? On n’était pas en présence d’un danger qu’on pût écarter ; on ne pouvait se défendre avec une arme, ni échapper en se blottissant au fond d’un abri. Eût-on épuisé tous les lacs et les mers, leur eau n’aurait pas suffi pour éteindre l’embrasement de la voûte céleste. Eût-on pu déraciner les montagnes et les dresser comme des étais, elles n’auraient pas été capables de supporter le poids écrasant de cette lourde voûte, du moment qu’elle devait tomber.
Ce qui était surprenant, c’est que Jan fût le seul à remarquer les signes de la catastrophe.
Mais qu’était-ce donc qui s’élevait là-bas au-dessus de la crête boisée en face ? Une multitude de points noirs apparaissaient, se détachant sur le fond clair des nuages de fumée. Ces points se déplaçaient très vite, à peu près comme des abeilles en train d’essaimer.
C’était évidemment des oiseaux qui, chose étrange, s’étaient envolés de leur gîte de nuit. Plus perspicaces que les hommes, ils avaient senti que quelque péril les menaçait.
La nuit n’apportait cette fois aucune fraîcheur, il faisait au contraire de plus en plus chaud. Il fallait bien s’y attendre puisque la voûte ardente s’abaissait de plus en plus. Il semblait à Jan qu’elle allait toucher le sommet de la hauteur de Snipa.

Auteur: Lagerlöf Selma

Info: Dans "L'empereur du Portugal"

[ apocalyptique ] [ angoisse ] [ homme-univers ] [ crépuscule ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

homme-animal

Les mouches auraient-elles des émotions ?
Les insectes seraient-ils des êtres sensibles comme les autres ? Des chercheurs ont en tout cas prouvé que des mouches présentaient tous les signes de la peur.
Les drosophiles ouvrent de nouvelles perspectives sur les sentiments ou leurs ébauches chez les non-mammifères.Les drosophiles ouvrent de nouvelles perspectives sur les sentiments ou leurs ébauches chez les non-mammifères.
C'est au coeur des comportements des mammifères que nous cherchons bien souvent émotions et sentiments. Tristesse, peur, bonheur, amitié… sont autant de noms qui quand ils s'appliquent aux animaux non-humains soulèvent des débats passionnés. L'affaire devient encore plus brûlante quand on touche à ces bêtes que l'on écrase sans remords et avec lesquels nous livrons un bras de fer à base d'armes chimiques : les insectes. Nous faudra-t-il accepter que même ces petits êtres sont doués d'émotions, voire de sentiments ? C'est ce qu'ont voulu savoir des chercheurs de l'université de Pasadena (États-unis) en observant la drosophile (Drosophila sp.), une petite mouche des fruits très étudiée en génétique.
Pister les traces de la peur
L'équipe de William T. Gibson a cherché chez l'insecte des traces d’émotions, aussi appelées émotions primitives. Trois de celles-ci ont été étudiées :
• l’évolutivité, le fait que la réponse de l'animal, face au danger, est graduelle et augmente avec le nombre d'éléments menaçants ;
• la valence, l'impact négatif ou positif sur l'organisme de l'émotion et la persistance ;
• la présence de reliquats d'émotions une fois l'alerte passée.
10 mouches ont été soumises à un stimulus effrayant : une ombre qui survolait la boîte les contenant. Elle passait plus ou moins souvent et à des intervalles plus ou moins longs, déterminés par les chercheurs. Puis, les mouches ont été testées individuellement. Tout cela sous l'œil attentif d'une caméra vidéo.
Au passage de l'ombre, les drosophiles s'agitaient subitement. Lors d'assombrissements répétés espacés d'une seconde, la réponse des mouches (les envols) augmentait progressivement avec le nombre d'épisodes d'obscurité. Cependant cet effet cumulatif disparaissait quand ces derniers étaient plus espacés. À 3 secondes d'intervalle, les mouvements que généraient la menace étaient bien moindre qu'à 1 seconde. Un autre facteur influait sur l'envol : le nombre d'individus présents. Isolées, les drosophiles ont en effet montré une plus grande sensibilité à l'alerte qu'en groupe. La mouche seule fuyait dès le premier passage ombrageux (ce qui n'était pas le cas en présence de 9 autres individus) ; ou adoptait une posture figée qualifiée de "freezing" conservée pendant le passage de l'ombre et après plusieurs secondes. Dans les deux cas, 20 secondes environ étaient nécessaires pour que le comportement des mouches retourne à la normale.
Les émotions primitives sont bien là
Dans une dernière expérience, les chercheurs ont proposé de la nourriture à des mouches ayant subi une diète de 24 à 60 heures. Tout cela dans une boîte elle aussi survolée par une ombre. Les mouches ont difficilement déserté la zone de nourrissage mais l'ont d'autant plus évacuée que les ombres se multipliaient. Le besoin de se sustenter rentre donc en compétition avec celui de fuir.
Que peut-on en conclure ? Persistance, évolutivité, valence négative de l'émotion suscitée par un danger... Les émotions primitives sont bien présentes chez les drosophiles. Et si la crainte de l’anthropomorphisme retient les chercheurs d’assimiler leur comportement à de la peur ou de l'anxiété, les résultats de Gibson et ses collègues ouvrent malgré tout une nouvelle voie : celle de l’étude des émotions chez les insectes. Nos conceptions n’attendent que d’être bousculées.

Auteur: Internet

Info: Horvath Louise, 22.05.2015 à 14h30

[ bouleversement ] [ émoi ]

 

Commentaires: 0

démocratie

La protodémocratie athénienne (bien connue en grande partie grâce à Aristote) reposait sur un principe intangible, qu'illustre parfaitement la formule de Lincoln : "le gouvernement du peuple, par le peuple, pour le peuple ". Le peuple était toujours à la manoeuvre et ne déléguait à l'exécutif que les tâches qu'il ne pouvait effectuer lui-même. Ce principe était garanti par l'isonomia, l'égalité devant la loi, l'isokratia, l'égalité des pouvoirs, et l'isêgoria, l'égalité de la parole. Était citoyen tout homme libre âgé de plus de vingt ans.
On estime le nombre des citoyens à 30.000, 60.000 au pic de peuplement. Les femmes, les enfants, les métèques et les esclaves étaient exclus de l'activité politique. Cette quadruple exclusive est à replacer dans son contexte historique.
L'Ekklesia, l'assemblée démocratique, exigeait un quorum de 6.000 citoyens, mais ils pouvaient être plus nombreux. Elle se réunissait tous les neuf jours en moyenne (la fréquence des séances augmentait en cas de crise) sur la colline du Pnyx, où l'on avait aménagé une tribune semi-circulaire. L'Ekklesia n'était pas une pétaudière. Elle suivait un ordre du jour strict élaboré par le Conseil des Cinq-cents (la Boulê), mais elle pouvait obliger celui-ci à insérer une affaire particulière dans l'ordre du jour de la séance suivante. Tout citoyen, quel que fût son rang, avait droit à la parole et était écouté attentivement. Le vote s'effectuait à main levée, un homme, une voix. La mission de la Boulê ne se bornait pas à encadrer les séances de l'Ekklesia et à en établir l'ordre du jour. Elle rédigeait aussi les propositions de décret ou de loi, et contrôlait étroitement le travail des autres magistrats civils et militaires (droit d'inventaire).
Les cinq cent bouleutes, cinquante par tribu, étaient tirés au sort à l'aide d'une machine, le klêrôtêrion, parmi les citoyens volontaires. Un comité vérifiait les aptitudes (procédure de la docimasie) de ces derniers. Les recalés pouvaient faire appel de la décision auprès du tribunal du peuple. Le bouleute était nommé pour un an. Un citoyen ne pouvait être mandaté plus de deux fois et jamais deux années consécutives. Pendant son temps de service, le bouleute était rémunéré (rien de mirobolant) et nourri aux dépens du contribuable.
Il y avait une présidence de l'État athénien, qui durait vingt-quatre heures. Le président ou épistate était tiré au sort parmi les cinquante prytanes du groupe tribal entré en fonction (un groupe relayait l'autre tous les trente-six jours). Chaque citoyen était susceptible de devenir un jour président. Les membres du tribunal du peuple, l'Héliée, se recrutaient également par tirage au sort, toujours parmi des volontaires.
Les trois pouvoirs, le pouvoir législatif (l'Ekklesia), le pouvoir exécutif (la Boulê) et le pouvoir judiciaire (l'Héliée), étaient séparés. Montesquieu s'en est souvenu dans L'Esprit des lois (1748). La cooptation de l'un à l'autre était rendue impossible par le tirage au sort. Les Athéniens étaient des hommes pragmatiques. Ils ne croyaient pas à la bonté naturelle de l'homme. Ils avaient compris qu'un type qui se sent la " vocation " de gouverner est précisément la dernière personne à qui l'on devrait confier le pouvoir. Même les plus vertueux succombent à son attrait. Ils inventèrent donc, pour les pouvoirs exécutif et judiciaire, un système de sélection procédurier, basé sur des examens préalables et, à certains niveaux, le hasard contrôlé (stochocratie partielle), et l'assortirent d'une clause de non-cumul et de non-renouvellement des mandats.
La démocratie athénienne encourageait l'amateurisme et se donnait les moyens de le conserver. La procédure de l'ostracisme était lancée dès lors qu'un citoyen soupçonnait un autre citoyen riche et charismatique de vouloir tirer avantage de sa position pour tenter un coup de force. La formule combine plusieurs modes de fonctionnement, mais ne les multiplie pas non plus à l'excès. Elle est relativement bien balancée. Il serait intéressant de la réévaluer à l'aune des expériences de la démocratie associative.

Auteur: Rouziès-Léonardi Bertrand

Info:

[ historique ] [ Grèce antique ] [ société ]

 

Commentaires: 0

taylorisme

Quoique Taylor ait baptisé son système "Organisation scientifique du travail", ce n’était pas un savant. Sa culture correspondait peut-être au baccalauréat, et encore ce n’est pas sûr. Il n’avait jamais fait d’études d’ingénieur. Ce n’était pas non plus un ouvrier à proprement parler, quoiqu’il ait travaillé en usine. Comment donc le définir ? C’était un contremaître, mais non pas de l’espèce de ceux qui sont venus de la classe ouvrière et qui en ont gardé le souvenir. C’était un contremaître du genre de ceux dont on trouve des types actuellement dans les syndicats professionnels de maîtrise et qui se croient nés pour servir de chiens de garde au patronat. Ce n’est ni par curiosité d’esprit, ni par besoin de logique qu’il a entrepris ses recherches. C’est son expérience de contremaître chien de garde qui l’a orienté dans toutes ses études et qui lui a servi d’inspiratrice pendant trente-cinq années de recherches patientes. C’est ainsi qu’il a donné à l’industrie, outre son idée fondamentale d’une nouvelle organisation des usines, une étude admirable sur le travail des tours à dégrossir.

Taylor était né dans une famille relativement riche et aurait pu vivre sans travailler, n’étaient les principes puritains de sa famille et de lui-même, qui ne lui permettaient pas de rester oisif. Il fit ses études dans un lycée, mais une maladie des yeux les lui fit interrompre à 18 ans. Une singulière fantaisie le poussa alors à entrer dans une usine où il fit un apprentissage d’ouvrier mécanicien. Mais le contact quotidien avec la classe ouvrière ne lui donna à aucun degré l’esprit ouvrier. Au contraire, il semble qu’il y ait pris conscience d’une manière plus aiguë de l’opposition de classe qui existait entre ses compagnons de travail et lui-même, jeune bourgeois, qui ne travaillait pas pour vivre, qui ne vivait pas de son salaire, et qui, connu de la direction, était traité en conséquence.

Après son apprentissage, à l’âge de 22 ans, il s’embaucha comme tourneur dans une petite usine de mécanique, et dès le premier jour il entra tout de suite en conflit avec ses camarades d’atelier qui lui firent comprendre qu’on lui casserait la figure s’il ne se conformait pas à la cadence générale du travail ; car à cette époque régnait le système du travail aux pièces organisé de telle manière que, dès que la cadence augmentait, on diminuait les tarifs. Les ouvriers avaient compris qu’il ne fallait pas augmenter la cadence pour que les tarifs ne diminuent pas ; de sorte que chaque fois qu’il entrait un nouvel ouvrier, on le prévenait d’avoir à ralentir sa cadence sous peine d’avoir la vie intenable.

Au bout de deux mois, Taylor est arrivé à devenir contremaître. En racontant cette histoire, il explique que le patron avait confiance en lui parce qu’il appartenait à une famille bourgeoise. Il ne dit pas comment le patron l’avait distingué si rapidement, puisque ses camarades l’empêchaient de travailler plus vite qu’eux, et on peut se demander s’il n’avait pas gagné sa confiance en lui racontant ce qui s’était dit entre ouvriers.

Quand il est devenu contremaître, les ouvriers lui ont dit : "On est bien content de t’avoir comme contremaître, puisque tu nous connais et que tu sais que si tu essaies de diminuer les tarifs on te rendra la vie impossible." À quoi Taylor répondit en substance : "Je suis maintenant de l’autre côté de la barricade, je ferai ce que je dois faire." Et en fait, ce jeune contremaître fit preuve d’une aptitude exceptionnelle pour faire augmenter la cadence et renvoyer les plus indociles.

Cette aptitude particulière le fit monter encore en grade jusqu’à devenir directeur de l’usine. Il avait alors vingt-quatre ans.

Une fois directeur, il a continué à être obsédé par cette unique préoccupation de pousser toujours davantage la cadence des ouvriers. Évidemment, ceux-ci se défendaient, et il en résultait que ses conflits avec les ouvriers allaient en s’aggravant. Il ne pouvait exploiter les ouvriers à sa guise parce qu’ils connaissaient mieux que lui les meilleures méthodes de travail. Il s’aperçut alors qu’il était gêné par deux obstacles : d’un côté il ignorait quel temps était indispensable pour réaliser chaque opération d’usinage et quels procédés étaient susceptibles de donner les meilleurs temps ; d’un autre côté, l’organisation de l’usine ne lui donnait pas le moyen de combattre efficacement la résistance passive des ouvriers. Il demanda alors à l’administrateur de l’entreprise l’autorisation d’installer un petit laboratoire pour faire des expériences sur les méthodes d’usinage. Ce fut l’origine d’un travail qui dura vingt-six ans et amena Taylor à la découverte des aciers rapides, de l’arrosage de l’outil, de nouvelles formes d’outil à dégrossir, et surtout il a découvert, aidé d’une équipe d’ingénieurs, des formules mathématiques donnant les rapports les plus économiques entre la profondeur de la passe, l’avance et la vitesse des tours ; et pour l’application de ces formules dans les ateliers, il a établi des règles à calcul permettant de trouver ces rapports dans tous les cas particuliers qui pouvaient se présenter.

Ces découvertes étaient les plus importantes à ses yeux parce qu’elles avaient un retentissement immédiat sur l’organisation des usines. Elles étaient toutes inspirées par son désir d’augmenter la cadence des ouvriers et par sa mauvaise humeur devant leur résistance. Son grand souci était d’éviter toute perte de temps dans le travail. Cela montre tout de suite quel était l’esprit du système. Et pendant vingt-six ans il a travaillé avec cette unique préoccupation. Il a conçu et organisé progressivement le bureau des méthodes avec les fiches de fabrication, le bureau des temps pour l’établissement du temps qu’il fallait pour chaque opération, la division du travail entre les chefs techniques et un système particulier de travail aux pièces avec prime.

[...]

La méthode de Taylor consiste essentiellement en ceci : d’abord, on étudie scientifiquement les meilleurs procédés à employer pour n’importe quel travail, même le travail de manœuvres (je ne parle pas de manœuvres spécialisés, mais de manœuvres proprement dits), même la manutention ou les travaux de ce genre ; ensuite, on étudie les temps par la décomposition de chaque travail en mouvements élémentaires qui se reproduisent dans des travaux très différents, d’après des combinaisons diverses ; et une fois mesuré le temps nécessaire à chaque mouvement élémentaire, on obtient facilement le temps nécessaire à des opérations très variées. Vous savez que la méthode de mesure des temps, c’est le chronométrage. Il est inutile d’insister là-dessus. Enfin, intervient la division du travail entre les chefs techniques. Avant Taylor, un contremaître faisait tout ; il s’occupait de tout. Actuellement, dans les usines, il y a plusieurs chefs pour un même atelier : il y a le contrôleur, il y a le contremaître, etc.

Auteur: Weil Simone

Info: "La condition ouvrière", Journal d'usine, éditions Gallimard, 2002, pages 310 à 314

[ biographie ] [ résumé ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

mort imminente

Pourquoi les mourants sont souvent pris d'un accès de lucidité

De nouvelles recherches révèlent des niveaux d'activité surprenants dans les cerveaux des mourants et peuvent contribuer à expliquer la clarté soudaine que ressentent de nombreuses personnes atteintes de démence à l'approche de la mort.

Longtemps au centre des préoccupations des religions, de la philosophie et de la littérature du monde entier, l'expérience consciente de la mort a récemment fait l'objet d'une attention croissante de la part de la science. Cela se produit alors que les progrès de la médecine étendent la capacité de maintenir le corps en vie, ouvrant progressivement une fenêtre sur l'ultime pièce fermée à clé : les derniers instants de vie d'un esprit humain.

"Vers 1959, l'homme a découvert une méthode pour faire redémarrer le cœur de personnes qui seraient mortes, et nous avons appelé cela la réanimation cardio-pulmonaire", explique Sam Parnia, médecin en soins intensifs à la NYU Langone Health. Sam Parnia a étudié les souvenirs des personnes réanimées à la suite d'un arrêt cardiaque, des phénomènes qu'il qualifie d'"expériences rappelées entourant la mort". Avant la mise au point des techniques de réanimation cardio-pulmonaire, l'arrêt cardiaque était pratiquement synonyme de mort. Aujourd'hui, les médecins peuvent réanimer certaines personnes jusqu'à 20 minutes ou plus après que leur cœur a cessé de battre. En outre, selon M. Parnia, de nombreuses cellules cérébrales restent intactes pendant des heures, voire des jours, après la mort, ce qui remet en question notre idée d'une frontière rigide entre la vie et la mort.

Les progrès de la technologie médicale et des neurosciences, ainsi que les changements de perspective des chercheurs, sont en train de révolutionner notre compréhension du processus de mort. Les recherches menées au cours de la dernière décennie ont mis en évidence une augmentation de l'activité cérébrale chez les humains et les animaux victimes d'un arrêt cardiaque. Dans le même temps, de vastes enquêtes documentent les périodes de lucidité apparemment inexplicables dont le personnel des hospices et les familles endeuillées déclarent souvent avoir été témoins chez les personnes atteintes de démence qui sont en train de mourir. Le poète Dylan Thomas a adressé à ses lecteurs le célèbre avertissement suivant : "Ne t'endors pas doucement dans cette bonne nuit. Rage, rage contre l'extinction de la lumière". Mais à mesure que l'on consacre davantage de ressources à l'étude de la mort, il apparaît de plus en plus clairement que la mort n'est pas un simple affaiblissement de la lumière interne de la conscience, mais plutôt un processus incroyablement actif dans le cerveau.

QU'EST-CE QUE LA LUCIDITÉ TERMINALE ?

Depuis des décennies, les chercheurs, les soignants des hospices et les membres des familles stupéfaits observent avec effroi les personnes atteintes de la maladie d'Alzheimer ou d'autres formes de démence qui retrouvent soudainement leurs souvenirs et leur personnalité juste avant de mourir. Pour les membres de leur famille, cela peut ressembler à une seconde vie, mais pour de nombreux professionnels de la santé expérimentés, cela peut être le signe que la fin est proche. Christopher Kerr, directeur général et médecin en chef du Center for Hospice and Palliative Care à Buffalo, dans l'État de New York, a étudié les visions lucides de plusieurs centaines de malades en phase terminale. Il affirme que ces événements "se produisent généralement dans les derniers jours de la vie". Selon Andrew Peterson, de l'université George Mason, chercheur en bioéthique et en conscience, coauteur d'une étude sur ce phénomène commandée par les National Institutes of Health, cette "lucidité terminale" se définit comme le retour inattendu de facultés cognitives telles que la parole et la "connexion" avec d'autres personnes.

Cette connectivité va au-delà du retour de la capacité de communication et de la conscience de la situation perdues. Une chose qui semble être très profonde pour les membres de la famille qui observent la lucidité est l'émergence de ce que nous appelons l'"ancien moi"", explique Peterson. "Il semble évident qu'ils sont conscients non seulement de leur environnement, mais aussi de leurs relations avec les autres, qu'il s'agisse de l'utilisation d'un surnom ou d'une référence à une plaisanterie de longue date.

Aussi surprenants que ces événements puissent paraître, ils sont assez courants. "Notre étude n'était pas une étude de prévalence", précise Jason Karlawish, gérontologue au Penn Memory Center et chercheur principal de l'étude des NIH. Néanmoins, ajoute-t-il, "nous avons constaté que la lucidité était plus fréquente qu'exceptionnelle chez les patients atteints de démence, ce qui suggère que l'idée qu'elle se passe en phase terminale n'est pas tout à fait correcte". Il suggère plutôt de considérer les épisodes de lucidité comme faisant partie de "l'expérience de la maladie" plutôt que comme des événements aberrants. "Nous avons en fait constaté que plusieurs de ces épisodes se sont produits des mois, voire des années, avant le décès de la personne", note M. Karlawish. Malgré cela, de nombreux experts, dont Kerr et Parnia, s'accordent à dire que la plupart de ces épisodes sont associés à l'approche de la mort. "C'est un peu comme s'ils se préparaient à mourir", dit Parnia.

Les implications potentielles de ces résurgences cognitives temporaires et généralisées sont profondes. "Cela suggère qu'il peut y avoir des réseaux neuronaux restants, et/ou des voies et des fonctions neuronales, qui pourraient aider à restaurer les capacités cognitives de personnes que nous pensons être définitivement déficientes", explique Peterson.

Néanmoins, la recherche sur ce phénomène n'en est qu'à ses débuts. "Nous ne savons pas vraiment ce qui se passe dans le cerveau pendant le processus de mort et qui pourrait, d'une manière ou d'une autre, être lié à ces épisodes", explique M. Peterson. Malgré cette incertitude, d'autres recherches sur l'activité cérébrale à l'approche ou au moment de la mort pourraient permettre aux scientifiques et aux cliniciens de mieux comprendre certains des processus qui se déroulent dans le cerveau malade et mourant.

QUE SE PASSE-T-IL DANS LE CERVEAU AU MOMENT DE LA MORT ?

Dans une étude publiée en mai dans Proceedings of the National Academy of Sciences USA, des chercheurs de l'université du Michigan ont observé un regain d'activité cérébrale organisée chez deux personnes comateuses sur quatre qui subissaient un arrêt cardiaque après avoir été débranchées de leur respirateur artificiel. Ces travaux s'appuient sur plus d'une décennie de recherche sur les animaux, notamment une étude PNAS de 2013 qui a révélé une augmentation similaire de l'activité cérébrale synchronisée chez des rats exposés à une toxine cardiaque et une étude de 2015 dans laquelle des rats ont été tués par asphyxie. Dans toutes ces études, les chercheurs ont constaté que l'activité des ondes gamma augmentait dans les premières minutes de l'arrêt cardiaque, puis cessait. Les ondes gamma sont une fréquence d'ondes cérébrales typiquement associée à l'éveil, à la vigilance et à la mémoire.

Jimo Borjigin, neurologue et professeur agrégé de physiologie moléculaire et intégrative à l'université du Michigan, a participé aux trois études. La poussée d'ondes gamma chez les sujets mourants était particulièrement intense dans une région du cerveau que Borjigin appelle la "zone chaude corticale postérieure", située près de l'arrière du crâne. D'autres chercheurs pensent que cette région pourrait également être essentielle à l'expérience consciente. Les parties du cerveau situées dans cette zone sont liées à la perception visuelle, auditive et du mouvement, un phénomène qui, selon Mme Borjigin, est impliqué dans les expériences extracorporelles rapportées par les personnes qui ont frôlé la mort et s'en sont remises. Elle ajoute que les modèles d'activation des ondes gamma, semblables à ceux observés chez les personnes comateuses, sont associés à des activités qui incluent la reconnaissance d'une image familière, telle qu'un visage humain, chez les personnes en bonne santé.

Dans les études humaines et animales, le cerveau des sujets a montré un pic d'activité après la réduction soudaine de l'apport en oxygène, explique Mme Borjigin. "Il commence à activer ce mécanisme homéostatique pour récupérer de l'oxygène, soit en respirant plus fort, soit en accélérant le rythme cardiaque", ajoute-t-elle. Mme Borjigin émet l'hypothèse qu'une grande partie de l'augmentation de l'activité cérébrale plus complexe observée chez les humains et les animaux en arrêt cardiaque résulte également du fait que le cerveau tente de rétablir l'homéostasie, ou l'équilibre biologique, après avoir détecté un manque d'oxygène. Elle suppose en outre que ces mécanismes de survie peuvent être impliqués dans d'autres changements cognitifs entourant la mort. "Je pense que la lucidité terminale des patients atteints de démence peut être due à ce type d'efforts ultimes du cerveau" pour se préserver lorsque les systèmes physiologiques sont défaillants, explique Mme Borjigin.

M. Parnia, de NYU Langone, pense lui aussi que la réaction du cerveau à la perte d'oxygène est au moins partiellement responsable des expériences lucides entourant la mort. Entre 2017 et 2020, Parnia a dirigé une étude appelée AWARE II, dans laquelle les chercheurs ont surveillé l'activité cérébrale de plus de 500 personnes gravement malades aux États-Unis et au Royaume-Uni qui recevaient une réanimation cardio-pulmonaire. Les patients ont été exposés à des stimuli audiovisuels pendant la RCP afin de tester leur mémoire des événements survenus après l'arrêt cardiaque. Ceux qui ont survécu ont ensuite été interrogés sur leur degré de conscience pendant le processus de réanimation. Selon Parnia, un survivant sur cinq a fait état d'expériences lucides survenues après l'arrêt de son cœur. L'équipe AWARE II a également observé un pic inattendu dans l'activité cérébrale pendant la réanimation cardio-pulmonaire. "Dans les 20 secondes qui suivent l'arrêt cardiaque, le cerveau est à plat", explique M. Parnia. Cependant, "généralement dans les cinq minutes qui suivent - mais cela peut être plus long - nous constatons la réapparition d'une période transitoire d'électricité cérébrale". Il ajoute que les fréquences d'activité cérébrale observées sont similaires à celles associées à l'expérience consciente.

Parnia pense que le cerveau mourant perd les mécanismes de suppression habituels qui nous permettent de nous concentrer sur des tâches individuelles au cours de notre vie quotidienne. "Lorsque vous mourez, votre cerveau est privé d'oxygène et de nutriments, et il s'éteint", explique M. Parnia. "Ce processus d'arrêt supprime les freins... et soudain, ce qui semble se produire, c'est qu'il vous donne accès à des parties de votre cerveau auxquelles vous n'avez normalement pas accès.... Toutes vos pensées, tous vos souvenirs ou toutes vos interactions avec les autres sortent. Mais il insiste sur le fait que les expériences des personnes qui subissent un arrêt cardiaque sont lucides et ne sont pas de simples hallucinations. "Ils ne sont pas dans le délire", affirme Parnia à propos des personnes réanimées qu'il a étudiées, et ce qu'ils vivent "n'est pas un rêve ou une hallucination". Bien que ses études précédentes aient porté sur des personnes réanimées gravement malades, Parnia pense que la lucidité terminale chez les personnes comateuses ou atteintes de démence peut être le produit d'un processus similaire. Il participe actuellement à une étude sur ce dernier phénomène.

Les expériences conscientes des mourants n'ont pas encore trouvé d'explication complète. Mais les recherches montrent de plus en plus que la mort est un processus incroyablement actif et complexe - et, ce qui est peut-être plus important, "un processus humanisé", comme le décrit Kerr. Quant aux personnes atteintes de démence, M. Karlawish estime qu'au lieu de supposer que leur conscience a été irrévocablement modifiée, "nous devrions tout de même prêter une attention particulière à leur esprit, car certains aspects sont encore présents, même s'ils peuvent être très endommagés".





 

Auteur: Internet

Info: https://www.scientificamerican.com/article/why-dying-people-often-experience-a-burst-of-lucidity - Jordan Kinard le 12 juin 2023. Jordan Kinard a été stagiaire au sein du service d'opinion de Scientific American. Il est diplômé de l'université de Columbia.

[ homme-animal ] [ dégénérescence présénile ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

homme-machine

Les grands modèles de langage tels que ChatGPT sont aujourd'hui suffisamment importants pour commencer à afficher des comportements surprenants et imprévisibles.

Quel film ces emojis décrivent-ils ? (On voit une vidéo qui présente des myriades d'émoji formant des motifs mouvants, modélisés à partir de métadonnées)

Cette question était l'une des 204 tâches choisies l'année dernière pour tester la capacité de divers grands modèles de langage (LLM) - les moteurs de calcul derrière les chatbots d'IA tels que ChatGPT. Les LLM les plus simples ont produit des réponses surréalistes. "Le film est un film sur un homme qui est un homme qui est un homme", commençait l'un d'entre eux. Les modèles de complexité moyenne s'en sont approchés, devinant The Emoji Movie. Mais le modèle le plus complexe l'a emporté en une seule réponse : Finding Nemo.

"Bien que j'essaie de m'attendre à des surprises, je suis surpris par ce que ces modèles peuvent faire", a déclaré Ethan Dyer, informaticien chez Google Research, qui a participé à l'organisation du test. C'est surprenant parce que ces modèles sont censés n'avoir qu'une seule directive : accepter une chaîne de texte en entrée et prédire ce qui va suivre, encore et encore, en se basant uniquement sur des statistiques. Les informaticiens s'attendaient à ce que le passage à l'échelle permette d'améliorer les performances sur des tâches connues, mais ils ne s'attendaient pas à ce que les modèles puissent soudainement gérer autant de tâches nouvelles et imprévisibles.

Des études récentes, comme celle à laquelle a participé M. Dyer, ont révélé que les LLM peuvent produire des centaines de capacités "émergentes", c'est-à-dire des tâches que les grands modèles peuvent accomplir et que les petits modèles ne peuvent pas réaliser, et dont beaucoup ne semblent pas avoir grand-chose à voir avec l'analyse d'un texte. Ces tâches vont de la multiplication à la génération d'un code informatique exécutable et, apparemment, au décodage de films à partir d'emojis. De nouvelles analyses suggèrent que pour certaines tâches et certains modèles, il existe un seuil de complexité au-delà duquel la fonctionnalité du modèle monte en flèche. (Elles suggèrent également un sombre revers de la médaille : À mesure qu'ils gagnent en complexité, certains modèles révèlent de nouveaux biais et inexactitudes dans leurs réponses).

"Le fait que les modèles de langage puissent faire ce genre de choses n'a jamais été abordé dans la littérature à ma connaissance", a déclaré Rishi Bommasani, informaticien à l'université de Stanford. L'année dernière, il a participé à la compilation d'une liste de dizaines de comportements émergents, dont plusieurs ont été identifiés dans le cadre du projet de M. Dyer. Cette liste continue de s'allonger.

Aujourd'hui, les chercheurs s'efforcent non seulement d'identifier d'autres capacités émergentes, mais aussi de comprendre pourquoi et comment elles se manifestent - en somme, d'essayer de prédire l'imprévisibilité. La compréhension de l'émergence pourrait apporter des réponses à des questions profondes concernant l'IA et l'apprentissage automatique en général, comme celle de savoir si les modèles complexes font vraiment quelque chose de nouveau ou s'ils deviennent simplement très bons en statistiques. Elle pourrait également aider les chercheurs à exploiter les avantages potentiels et à limiter les risques liés à l'émergence.

"Nous ne savons pas comment déterminer dans quel type d'application la capacité de nuisance va se manifester, que ce soit en douceur ou de manière imprévisible", a déclaré Deep Ganguli, informaticien à la startup d'IA Anthropic.

L'émergence de l'émergence

Les biologistes, les physiciens, les écologistes et d'autres scientifiques utilisent le terme "émergent" pour décrire l'auto-organisation, les comportements collectifs qui apparaissent lorsqu'un grand nombre d'éléments agissent comme un seul. Des combinaisons d'atomes sans vie donnent naissance à des cellules vivantes ; les molécules d'eau créent des vagues ; des murmurations d'étourneaux s'élancent dans le ciel selon des schémas changeants mais identifiables ; les cellules font bouger les muscles et battre les cœurs. Il est essentiel que les capacités émergentes se manifestent dans les systèmes qui comportent de nombreuses parties individuelles. Mais ce n'est que récemment que les chercheurs ont été en mesure de documenter ces capacités dans les LLM, car ces modèles ont atteint des tailles énormes.

Les modèles de langage existent depuis des décennies. Jusqu'à il y a environ cinq ans, les plus puissants étaient basés sur ce que l'on appelle un réseau neuronal récurrent. Ceux-ci prennent essentiellement une chaîne de texte et prédisent le mot suivant. Ce qui rend un modèle "récurrent", c'est qu'il apprend à partir de ses propres résultats : Ses prédictions sont réinjectées dans le réseau afin d'améliorer les performances futures.

En 2017, les chercheurs de Google Brain ont introduit un nouveau type d'architecture appelé "transformateur". Alors qu'un réseau récurrent analyse une phrase mot par mot, le transformateur traite tous les mots en même temps. Cela signifie que les transformateurs peuvent traiter de grandes quantités de texte en parallèle. 

Les transformateurs ont permis d'augmenter rapidement la complexité des modèles de langage en augmentant le nombre de paramètres dans le modèle, ainsi que d'autres facteurs. Les paramètres peuvent être considérés comme des connexions entre les mots, et les modèles s'améliorent en ajustant ces connexions au fur et à mesure qu'ils parcourent le texte pendant l'entraînement. Plus il y a de paramètres dans un modèle, plus il peut établir des connexions avec précision et plus il se rapproche d'une imitation satisfaisante du langage humain. Comme prévu, une analyse réalisée en 2020 par les chercheurs de l'OpenAI a montré que les modèles gagnent en précision et en capacité au fur et à mesure qu'ils s'étendent.

Mais les débuts des LLM ont également apporté quelque chose de vraiment inattendu. Beaucoup de choses. Avec l'avènement de modèles tels que le GPT-3, qui compte 175 milliards de paramètres, ou le PaLM de Google, qui peut être étendu à 540 milliards de paramètres, les utilisateurs ont commencé à décrire de plus en plus de comportements émergents. Un ingénieur de DeepMind a même rapporté avoir pu convaincre ChatGPT qu'il s'était lui-même un terminal Linux et l'avoir amené à exécuter un code mathématique simple pour calculer les 10 premiers nombres premiers. Fait remarquable, il a pu terminer la tâche plus rapidement que le même code exécuté sur une vraie machine Linux.

Comme dans le cas du film emoji, les chercheurs n'avaient aucune raison de penser qu'un modèle de langage conçu pour prédire du texte imiterait de manière convaincante un terminal d'ordinateur. Nombre de ces comportements émergents illustrent l'apprentissage "à zéro coup" ou "à quelques coups", qui décrit la capacité d'un LLM à résoudre des problèmes qu'il n'a jamais - ou rarement - vus auparavant. Selon M. Ganguli, il s'agit là d'un objectif de longue date dans la recherche sur l'intelligence artificielle. Le fait de montrer que le GPT-3 pouvait résoudre des problèmes sans aucune donnée d'entraînement explicite dans un contexte d'apprentissage à zéro coup m'a amené à abandonner ce que je faisais et à m'impliquer davantage", a-t-il déclaré.

Il n'était pas le seul. Une série de chercheurs, qui ont détecté les premiers indices montrant que les LLM pouvaient dépasser les contraintes de leurs données d'apprentissage, s'efforcent de mieux comprendre à quoi ressemble l'émergence et comment elle se produit. La première étape a consisté à documenter minutieusement l'émergence.

Au-delà de l'imitation

En 2020, M. Dyer et d'autres chercheurs de Google Research ont prédit que les LLM auraient des effets transformateurs, mais la nature de ces effets restait une question ouverte. Ils ont donc demandé à la communauté des chercheurs de fournir des exemples de tâches difficiles et variées afin de déterminer les limites extrêmes de ce qu'un LLM pourrait faire. Cet effort a été baptisé "Beyond the Imitation Game Benchmark" (BIG-bench), en référence au nom du "jeu d'imitation" d'Alan Turing, un test visant à déterminer si un ordinateur peut répondre à des questions d'une manière humaine convaincante. (Le groupe s'est particulièrement intéressé aux exemples où les LLM ont soudainement acquis de nouvelles capacités qui étaient totalement absentes auparavant.

"La façon dont nous comprenons ces transitions brutales est une grande question de la echerche", a déclaré M. Dyer.

Comme on pouvait s'y attendre, pour certaines tâches, les performances d'un modèle se sont améliorées de manière régulière et prévisible au fur et à mesure que la complexité augmentait. Pour d'autres tâches, l'augmentation du nombre de paramètres n'a apporté aucune amélioration. Mais pour environ 5 % des tâches, les chercheurs ont constaté ce qu'ils ont appelé des "percées", c'est-à-dire des augmentations rapides et spectaculaires des performances à partir d'un certain seuil d'échelle. Ce seuil variant en fonction de la tâche et du modèle.

Par exemple, les modèles comportant relativement peu de paramètres - quelques millions seulement - n'ont pas réussi à résoudre des problèmes d'addition à trois chiffres ou de multiplication à deux chiffres, mais pour des dizaines de milliards de paramètres, la précision a grimpé en flèche dans certains modèles. Des sauts similaires ont été observés pour d'autres tâches, notamment le décodage de l'alphabet phonétique international, le décodage des lettres d'un mot, l'identification de contenu offensant dans des paragraphes d'hinglish (combinaison d'hindi et d'anglais) et la formulation d'équivalents en langue anglaise, traduit à partir de proverbes kiswahili.

Introduction

Mais les chercheurs se sont rapidement rendu compte que la complexité d'un modèle n'était pas le seul facteur déterminant. Des capacités inattendues pouvaient être obtenues à partir de modèles plus petits avec moins de paramètres - ou formés sur des ensembles de données plus petits - si les données étaient d'une qualité suffisamment élevée. En outre, la formulation d'une requête influe sur la précision de la réponse du modèle. Par exemple, lorsque Dyer et ses collègues ont posé la question de l'emoji de film en utilisant un format à choix multiples, l'amélioration de la précision a été moins soudaine qu'avec une augmentation graduelle de sa complexité. L'année dernière, dans un article présenté à NeurIPS, réunion phare du domaine, des chercheurs de Google Brain ont montré comment un modèle invité à s'expliquer (capacité appelée raisonnement en chaîne) pouvait résoudre correctement un problème de mots mathématiques, alors que le même modèle sans cette invitation progressivement précisée n'y parvenait pas.

 Yi Tay, scientifique chez Google Brain qui a travaillé sur l'étude systématique de ces percées, souligne que des travaux récents suggèrent que l'incitation par de pareilles chaînes de pensées modifie les courbes d'échelle et, par conséquent, le point où l'émergence se produit. Dans leur article sur NeurIPS, les chercheurs de Google ont montré que l'utilisation d'invites via pareille chaines de pensée progressives pouvait susciter des comportements émergents qui n'avaient pas été identifiés dans l'étude BIG-bench. De telles invites, qui demandent au modèle d'expliquer son raisonnement, peuvent aider les chercheurs à commencer à étudier les raisons pour lesquelles l'émergence se produit.

Selon Ellie Pavlick, informaticienne à l'université Brown qui étudie les modèles computationnels du langage, les découvertes récentes de ce type suggèrent au moins deux possibilités pour expliquer l'émergence. La première est que, comme le suggèrent les comparaisons avec les systèmes biologiques, les grands modèles acquièrent réellement de nouvelles capacités de manière spontanée. "Il se peut très bien que le modèle apprenne quelque chose de fondamentalement nouveau et différent que lorsqu'il était de taille inférieure", a-t-elle déclaré. "C'est ce que nous espérons tous, qu'il y ait un changement fondamental qui se produise lorsque les modèles sont mis à l'échelle.

L'autre possibilité, moins sensationnelle, est que ce qui semble être émergent pourrait être l'aboutissement d'un processus interne, basé sur les statistiques, qui fonctionne par le biais d'un raisonnement de type chaîne de pensée. Les grands LLM peuvent simplement être en train d'apprendre des heuristiques qui sont hors de portée pour ceux qui ont moins de paramètres ou des données de moindre qualité.

Mais, selon elle, pour déterminer laquelle de ces explications est la plus probable, il faut mieux comprendre le fonctionnement des LLM. "Comme nous ne savons pas comment ils fonctionnent sous le capot, nous ne pouvons pas dire laquelle de ces choses se produit.

Pouvoirs imprévisibles et pièges

Demander à ces modèles de s'expliquer pose un problème évident : Ils sont des menteurs notoires. Nous nous appuyons de plus en plus sur ces modèles pour effectuer des travaux de base", a déclaré M. Ganguli, "mais je ne me contente pas de leur faire confiance, je vérifie leur travail". Parmi les nombreux exemples amusants, Google a présenté en février son chatbot d'IA, Bard. Le billet de blog annonçant le nouvel outil montre Bard en train de commettre une erreur factuelle.

L'émergence mène à l'imprévisibilité, et l'imprévisibilité - qui semble augmenter avec l'échelle - rend difficile pour les chercheurs d'anticiper les conséquences d'une utilisation généralisée.

"Il est difficile de savoir à l'avance comment ces modèles seront utilisés ou déployés", a déclaré M. Ganguli. "Et pour étudier les phénomènes émergents, il faut avoir un cas en tête, et on ne sait pas, avant d'avoir étudié l'influence de l'échelle. quelles capacités ou limitations pourraient apparaître.

Dans une analyse des LLM publiée en juin dernier, les chercheurs d'Anthropic ont cherché à savoir si les modèles présentaient certains types de préjugés raciaux ou sociaux, à l'instar de ceux précédemment signalés dans les algorithmes non basés sur les LLM utilisés pour prédire quels anciens criminels sont susceptibles de commettre un nouveau délit. Cette étude a été inspirée par un paradoxe apparent directement lié à l'émergence : Lorsque les modèles améliorent leurs performances en passant à l'échelle supérieure, ils peuvent également augmenter la probabilité de phénomènes imprévisibles, y compris ceux qui pourraient potentiellement conduire à des biais ou à des préjudices.

"Certains comportements nuisibles apparaissent brusquement dans certains modèles", explique M. Ganguli. Il se réfère à une analyse récente des LLM, connue sous le nom de BBQ benchmark, qui a montré que les préjugés sociaux émergent avec un très grand nombre de paramètres. "Les grands modèles deviennent brusquement plus biaisés. Si ce risque n'est pas pris en compte, il pourrait compromettre les sujets de ces modèles."

Mais il propose un contrepoint : Lorsque les chercheurs demandent simplement au modèle de ne pas se fier aux stéréotypes ou aux préjugés sociaux - littéralement en tapant ces instructions - le modèle devient moins biaisé dans ses prédictions et ses réponses. Ce qui suggère que certaines propriétés émergentes pourraient également être utilisées pour réduire les biais. Dans un article publié en février, l'équipe d'Anthropic a présenté un nouveau mode d'"autocorrection morale", dans lequel l'utilisateur incite le programme à être utile, honnête et inoffensif.

Selon M. Ganguli, l'émergence révèle à la fois un potentiel surprenant et un risque imprévisible. Les applications de ces grands LLM prolifèrent déjà, de sorte qu'une meilleure compréhension de cette interaction permettra d'exploiter la diversité des capacités des modèles de langage.

"Nous étudions la manière dont les gens utilisent réellement ces systèmes", a déclaré M. Ganguli. Mais ces utilisateurs sont également en train de bricoler, en permanence. "Nous passons beaucoup de temps à discuter avec nos modèles, et c'est là que nous commençons à avoir une bonne intuition de la confiance ou du manque de confiance.

Auteur: Ornes Stephen

Info: https://www.quantamagazine.org/ - 16 mars 2023. Trad DeepL et MG

[ dialogue ] [ apprentissage automatique ] [ au-delà du jeu d'imitation ] [ dualité ]

 

Commentaires: 0

Ajouté à la BD par miguel