Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 27
Temps de recherche: 0.0409s

idéal immanent

Il y a une dizaine d’années, je rendis visite dans un hôpital californien à un malade sans espoir de guérison.

A mon "how are you?”, il répondit par un geste qui ne semblait pas englober sa seule chambre mais l’humanité tout entière et me murmura quelque chose comme : "Nous ne savons pas grand-chose, aucun de nous." Alors que je lui demandai ce qu’il voulait dire, il haussa d’abord les épaules, comme si la réponse allait de soi, puis il me répondit en me posant à son tour une question : "Well... can they preserve us ?" ("Peuvent-ils nous conserver ?") Le pronom "they" renvoyait aux médecins ; quant au terme de "preserves", il sert à désigner des "fruits en conserve". Il voulait dire : "Peuvent-ils nous mettre en conserve ?"

Je répondis par la négative.

"And spare men they haven’t got either ?“ (“Et des hommes de rechange, ils n’en ont pas non plus ?"), dit-il ensuite.

"Spare men ?" ("Des hommes de rechange ?"), demandai-je intrigué.

"Well, don’t we have spare things for everything ?” (“N’avons-nous pas des pièces de rechange pour tout ?") poursuivit-il.

Je compris enfin. Il avait forgé l’expression "spare men", hommes de rechange, sur le modèle de "spare bulb", ampoule de rechange, ou de "spare wheel", roue de secours. Il voulait dire : "Et des hommes de rechange, ils n’en ont pas en stock pour nous ?" Une nouvelle ampoule électrique, pour ains dire, qu’il suffirait de visser à sa place lorsqu’il s’éteindrait.

Ses dernières paroles furent : "Isn’t it a shame ?" ("N’est-ce pas une honte ?")

L’infériorité dont il souffrait était donc double : d’abord on ne pouvait pas le conserver comme un fruit ; ensuite on ne pouvait pas le remplacer comme une ampoule ; il était tout simplement un exemplaire unique et périssable. La honte était indéniable.

Auteur: Anders Günther Stern

Info: Dans "L'obsolescence de l'homme", trad. de l'allemand par Christophe David, éditions Ivrea, Paris, 2002, pages 71-72

[ société marchande ] [ rêve d'immortalité ] [ jalousie ] [ intrinsèque singularité ] [ désir d'auto-réification ] [ signifiants ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

débandade

[…] nous roulions !... ah le paysage charmant !... enfin, un peu flou... je dirais : poétique... les autres trimbalés derrière nous, des autres plates-formes, doivent trembler aussi... je les aperçois comme ci... comme ça... entre les bâches et les projecteurs, ils semblent comme nous recroquevillés et pas fiers... ils sont un peu plus vêtus que nous... enfin je crois... mais sûr il en reste sous les bâches, c'est pas tout du matériel... y a des planqués de la ferraille !... des resquilleurs de je ne sais où... des gens qui ne veulent pas être vus... nous sommes là à bringuebaler sur ces plates-formes avec plein de personnes invisibles... coexistence se dit maintenant... en avant donc, coexistants !... que nous roulions, l'essentiel !... même avec ces dissimulés nous arriverons à Hambourg, à moins que ce train saute !... ce qu'on ne voit pas qui compte dans la vie, ce qui se voit s'entend n'est que mascarade, coups de gueule, théâtre !... ce qui se passe au fond de votre prostate qu'est intéressant, ce millionième de gamète qui décide qu'il en a assez, qu'il obéit plus aux ordres, qu'il va travailler pour son compte, foutre des marquises et du petit ami ! qu'il va proliférer et hop ! vite, pour lui, lui-même ! vous à la fosse ! hop ! vous le verrez jamais ce millionième d'anarchiste gamète crasseux cancéreux !... vous sauriez même pas qu'il a existé !... hé là ! si je prolifère je vous perds de vue... oh là ! acré !... battre la campagne ?... je vous ai prévenu, certes !... ma tête !... ma tête fait aussi des siennes... oh, que je refuse !... et vous ramène à notre plate-forme... roulante... à tout cet énorme bastringue et tous ces gens repliés entre les dynamos... voilà ! pas à se plaindre, on avance... sous ces bâches sûr il y a du monde... j'insiste ! qui vivra verra !... Henri IV alors ? Romanoff ?... Louis XV ?... ils vivaient pas, et très bien, leurs assassins sous toutes les portes ?... à tous les coins de rues ?... ces choses-là, comme vous savez, regardent les Parques, pas du tout nous !... résumons : ce coup de brique m'a pas arrangé... soit ! mais nullement déprimé... du tout !... je dirais même, au contraire !... porté à une certaine gaieté !... un peu spéciale... ainsi les chaumières me semblent devenues assez artistes... des deux côtés du paysage... je dirais elles font tableaux, elles penchent et gondolent... surtout les cheminées... c'est une vision, c'est un style […]

Auteur: Céline Louis-Ferdinand

Info: Rigodon

[ soliloque ] [ voyage ] [ fuite ]

 
Commentaires: 1
Ajouté à la BD par Bandini

cité imaginaire

À Smeraldina, ville aquatique, un réseau de canaux et un réseau de rues se superposent et se recoupent.

Pour aller d’un endroit à un autre tu as toujours le choix entre le parcours terrestre et le parcours en barque : et comme la ligne la plus courte entre deux points à Smeraldina n'est pas une droite mais un zigzag qui se ramifie en variantes tortueuses, les voies qui s’ouvrent à chaque passant ne sont pas seulement au nombre de deux, mais il y en a beaucoup, et elles augmentent encore si on alterne des trajets en barque et des parcours à pied sec.

Ainsi l’ennui de parcourir tous les jours les mêmes rues est-il épargné aux habitants de Smeraldina. Et ce n'est pas tout : le réseau des voies de communication n'est pas disposé sur un seul niveau, mais il suit des escaliers qui montent et qui descendent, des galeries, des ponts en dos d’âne, des voies suspendues. En combinant les segments des différents trajets surélevés ou à la surface, chaque habitant se donne chaque jour le plaisir d’un nouvel itinéraire pour aller dans les mêmes endroits. À Smeraldina les vies les plus monotones et les plus tranquilles s’écoulent sans se répéter.

C’est à de plus grandes restrictions que s’exposent, ici comme ailleurs, les vies secrètes et aventureuses. Les chats de Smeraldina, les voleurs, les amants clandestins empruntent des chemins plus élevés et moins continus, sautant d’un toit à l’autre, se laissant tomber d’une terrasse sur un balcon, évitant les gouttières d’un pas de funambule. Plus bas, les rats courent dans l’obscurité des cloaques, à la queue leu leu, en compagnie des conspirateurs et des contrebandiers : ils passent la tête par les bouches d’égout et les grilles des caniveaux, ils se faufilent par les interstices et les ruelles, et traînent d’une cachette à l’autre des croûtes de fromage, des denrées prohibées, des barils de poudre à canon, ils traversent la densité de la ville trouée par l’éventail des galeries souterraines.

Un plan de Smeraldina devrait comprendre, indiqués avec des encres de couleurs différentes, tous ces tracés, solides et liquides, évidents et cachés. Il est plus difficile de fixer sur la carte les voies des hirondelles, qui fendent l’air par-dessus les toits, précipitent le long de paraboles invisibles avec leurs ailes tendues, s’écartent pour avaler un moustique, remontent en spirale en frôlant un pinacle, surplombent de chaque point de leur sentier d’air tous les points de la ville.

Auteur: Calvino Italo

Info: Villes invisibles. La ville et les échanges

[ tridimensionnelle ]

 

Commentaires: 0

Ajouté à la BD par miguel

inconnaissance

J’ai lu l’écriture de l’homme. J’ai vagabondé à travers ses pages, j’ai feuilleté ses idées. Je sais jusqu’où allèrent les peuples et combien les mena loin la tentation de l’esprit. Certains souffrirent pour inventer des formules, d’autres pour engendrer des héros ou pour figer l’ennui dans la foi. Tous dépensèrent leurs richesses parce qu’ils redoutaient le spectre du vide. Et quand ils ne crurent plus à rien, quand la vitalité ne soutint plus la flammèche des tromperies fécondes, ils se livrèrent aux délices du déclin, aux langueurs d’un esprit épuisé.

Ce qu’ils m’ont enseigné – une curiosité dévorante m’entraînait dans les méandres du devenir – n’est qu’eau morte où se reflètent les charognes de la pensée. Tout ce que je sais, je le dois aux fureurs de l’ignorance. Lorsque tout ce que j’ai appris disparaît, alors, nu, le monde nu devant moi, je commence à tout comprendre.

Je fus le compagnon des sceptiques d’Athènes, des écervelés de Rome, des saints de l’Espagne, des penseurs nordiques et des poètes britanniques aux ferveurs brumeuses – le débauché des passions inutiles, le zélateur vicieux et délaissé de toutes les inspirations.

… Et puis, revenu de tout cela, ce fut moi que je retrouvai. Je me remis en route sans eux, explorateur de mon ignorance. Quiconque fait le tour de l’histoire retombe durement en lui-même. Lorsque s’achève le labeur de ses pensées, l’homme, plus seul qu’auparavant, sourit innocemment à la virtualité.

Ce ne sont pas les exploits temporels qui te mettront sur le chemin de ton accomplissement. Affronte l’instant, ne redoute pas la fatigue, ce ne sont pas les hommes qui t’initieront aux mystères gisant dans ton ignorance. Le monde se tapit en elle. Écoute-la sans parler, tu y entendras tout. Il n’existe ni vérité ni erreur, ni objet ni fantasme. Prête l’oreille au monde qui couve quelque part en toi et qui est, sans avoir besoin de se montrer. Tout réside en toi, la place y est vaste pour les continents de la pensée.

Rien ne nous précède, rien ne nous côtoie, rien ne nous succède. L’isolement d’une créature est l’isolement de toutes. L’être est un jamais absolu.

Qui pourrait être dénué de fierté au point de tolérer quoi que ce soit en dehors de lui ? Avant toi retentirent des chants, après toi continuera la poésie des nuits – cela, as-tu la force de le supporter ?

Si, dans la débâcle du temps, dans le miracle d’une présence, je ne vois pas se faire et se défaire le monde vivant, alors ce que je fus et que je suis n’approche même pas le frisson d’une ombre d’étonnement.

Auteur: Cioran Emil Michel

Info: Bréviaire des vaincus (17)

[ monadisme ]

 
Commentaires: 1
Ajouté à la BD par Bandini

taylorisme

Quoique Taylor ait baptisé son système "Organisation scientifique du travail", ce n’était pas un savant. Sa culture correspondait peut-être au baccalauréat, et encore ce n’est pas sûr. Il n’avait jamais fait d’études d’ingénieur. Ce n’était pas non plus un ouvrier à proprement parler, quoiqu’il ait travaillé en usine. Comment donc le définir ? C’était un contremaître, mais non pas de l’espèce de ceux qui sont venus de la classe ouvrière et qui en ont gardé le souvenir. C’était un contremaître du genre de ceux dont on trouve des types actuellement dans les syndicats professionnels de maîtrise et qui se croient nés pour servir de chiens de garde au patronat. Ce n’est ni par curiosité d’esprit, ni par besoin de logique qu’il a entrepris ses recherches. C’est son expérience de contremaître chien de garde qui l’a orienté dans toutes ses études et qui lui a servi d’inspiratrice pendant trente-cinq années de recherches patientes. C’est ainsi qu’il a donné à l’industrie, outre son idée fondamentale d’une nouvelle organisation des usines, une étude admirable sur le travail des tours à dégrossir.

Taylor était né dans une famille relativement riche et aurait pu vivre sans travailler, n’étaient les principes puritains de sa famille et de lui-même, qui ne lui permettaient pas de rester oisif. Il fit ses études dans un lycée, mais une maladie des yeux les lui fit interrompre à 18 ans. Une singulière fantaisie le poussa alors à entrer dans une usine où il fit un apprentissage d’ouvrier mécanicien. Mais le contact quotidien avec la classe ouvrière ne lui donna à aucun degré l’esprit ouvrier. Au contraire, il semble qu’il y ait pris conscience d’une manière plus aiguë de l’opposition de classe qui existait entre ses compagnons de travail et lui-même, jeune bourgeois, qui ne travaillait pas pour vivre, qui ne vivait pas de son salaire, et qui, connu de la direction, était traité en conséquence.

Après son apprentissage, à l’âge de 22 ans, il s’embaucha comme tourneur dans une petite usine de mécanique, et dès le premier jour il entra tout de suite en conflit avec ses camarades d’atelier qui lui firent comprendre qu’on lui casserait la figure s’il ne se conformait pas à la cadence générale du travail ; car à cette époque régnait le système du travail aux pièces organisé de telle manière que, dès que la cadence augmentait, on diminuait les tarifs. Les ouvriers avaient compris qu’il ne fallait pas augmenter la cadence pour que les tarifs ne diminuent pas ; de sorte que chaque fois qu’il entrait un nouvel ouvrier, on le prévenait d’avoir à ralentir sa cadence sous peine d’avoir la vie intenable.

Au bout de deux mois, Taylor est arrivé à devenir contremaître. En racontant cette histoire, il explique que le patron avait confiance en lui parce qu’il appartenait à une famille bourgeoise. Il ne dit pas comment le patron l’avait distingué si rapidement, puisque ses camarades l’empêchaient de travailler plus vite qu’eux, et on peut se demander s’il n’avait pas gagné sa confiance en lui racontant ce qui s’était dit entre ouvriers.

Quand il est devenu contremaître, les ouvriers lui ont dit : "On est bien content de t’avoir comme contremaître, puisque tu nous connais et que tu sais que si tu essaies de diminuer les tarifs on te rendra la vie impossible." À quoi Taylor répondit en substance : "Je suis maintenant de l’autre côté de la barricade, je ferai ce que je dois faire." Et en fait, ce jeune contremaître fit preuve d’une aptitude exceptionnelle pour faire augmenter la cadence et renvoyer les plus indociles.

Cette aptitude particulière le fit monter encore en grade jusqu’à devenir directeur de l’usine. Il avait alors vingt-quatre ans.

Une fois directeur, il a continué à être obsédé par cette unique préoccupation de pousser toujours davantage la cadence des ouvriers. Évidemment, ceux-ci se défendaient, et il en résultait que ses conflits avec les ouvriers allaient en s’aggravant. Il ne pouvait exploiter les ouvriers à sa guise parce qu’ils connaissaient mieux que lui les meilleures méthodes de travail. Il s’aperçut alors qu’il était gêné par deux obstacles : d’un côté il ignorait quel temps était indispensable pour réaliser chaque opération d’usinage et quels procédés étaient susceptibles de donner les meilleurs temps ; d’un autre côté, l’organisation de l’usine ne lui donnait pas le moyen de combattre efficacement la résistance passive des ouvriers. Il demanda alors à l’administrateur de l’entreprise l’autorisation d’installer un petit laboratoire pour faire des expériences sur les méthodes d’usinage. Ce fut l’origine d’un travail qui dura vingt-six ans et amena Taylor à la découverte des aciers rapides, de l’arrosage de l’outil, de nouvelles formes d’outil à dégrossir, et surtout il a découvert, aidé d’une équipe d’ingénieurs, des formules mathématiques donnant les rapports les plus économiques entre la profondeur de la passe, l’avance et la vitesse des tours ; et pour l’application de ces formules dans les ateliers, il a établi des règles à calcul permettant de trouver ces rapports dans tous les cas particuliers qui pouvaient se présenter.

Ces découvertes étaient les plus importantes à ses yeux parce qu’elles avaient un retentissement immédiat sur l’organisation des usines. Elles étaient toutes inspirées par son désir d’augmenter la cadence des ouvriers et par sa mauvaise humeur devant leur résistance. Son grand souci était d’éviter toute perte de temps dans le travail. Cela montre tout de suite quel était l’esprit du système. Et pendant vingt-six ans il a travaillé avec cette unique préoccupation. Il a conçu et organisé progressivement le bureau des méthodes avec les fiches de fabrication, le bureau des temps pour l’établissement du temps qu’il fallait pour chaque opération, la division du travail entre les chefs techniques et un système particulier de travail aux pièces avec prime.

[...]

La méthode de Taylor consiste essentiellement en ceci : d’abord, on étudie scientifiquement les meilleurs procédés à employer pour n’importe quel travail, même le travail de manœuvres (je ne parle pas de manœuvres spécialisés, mais de manœuvres proprement dits), même la manutention ou les travaux de ce genre ; ensuite, on étudie les temps par la décomposition de chaque travail en mouvements élémentaires qui se reproduisent dans des travaux très différents, d’après des combinaisons diverses ; et une fois mesuré le temps nécessaire à chaque mouvement élémentaire, on obtient facilement le temps nécessaire à des opérations très variées. Vous savez que la méthode de mesure des temps, c’est le chronométrage. Il est inutile d’insister là-dessus. Enfin, intervient la division du travail entre les chefs techniques. Avant Taylor, un contremaître faisait tout ; il s’occupait de tout. Actuellement, dans les usines, il y a plusieurs chefs pour un même atelier : il y a le contrôleur, il y a le contremaître, etc.

Auteur: Weil Simone

Info: "La condition ouvrière", Journal d'usine, éditions Gallimard, 2002, pages 310 à 314

[ biographie ] [ résumé ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

dialogue

asseyez-vous, Stirkoff.

merci, sire.

mettez-vous à votre aise.

c’est très aimable à vous, sire.

Stirkoff, j’ai cru comprendre que vous aviez écrit des articles sur la justice, l’égalité, et aussi sur le droit au bonheur et à une meilleure existence. une question, Stirkoff.

je suis tout ouïe, sire.

pensez-vous qu’un jour le monde connaîtra une justice toute-puissante et pleine de bon sens ?

je crains que non, sire.

mais alors pourquoi toutes ces sornettes ? seriez-vous souffrant ?

ces temps-ci, je broie du noir, sire, à croire que je perds la raison.

buvez-vous beaucoup, Stirkoff ?

ça va de soi, sire.

et l’onanisme ?

tout le temps, sire.

mais de quelle façon ?

j’ai du mal à vous suivre, sire.

c’est simple, comment vous y prenez-vous ?

en mélangeant quatre à cinq œufs frais et une livre de viande hachée dans un vase à long col, et en écoutant Vaughn Williams ou Darius Milhaud.

cristal ?

non, plutôt anal, sire.

vous ne m’avez pas compris. je voulais savoir si le vase était en cristal.

bien sûr que non, sire.

avez-vous déjà été marié ?

de nombreuses fois, sire.

qu’est-ce qui n’a pas marché ?

tout, sire.

quel est votre meilleur souvenir ?

mes quatre à cinq œufs frais sans oublier la viande hachée dans un…

je vois, je vois !

sire, c’est ainsi.

est-ce que vous réalisez que votre soif de justice universelle, votre aspiration à un monde meilleur dissimulent en vérité la pourriture, la honte, l’insuccès qui vous collent à la peau ?

mouais.

votre père s’est-il mal comporté avec vous ?

je l’ignore, sire.

comment ça, vous l’ignorez ?

je veux dire qu’il me faudrait un point de comparaison. or je n’ai eu qu’un père.

seriez-vous en train de vous moquer de moi, Stirkoff ?

oh, non, sire, simplement, comme vous l’avez dit, qui peut se poser en juge ?

votre père vous battait ?

ils se relayaient.

j’avais cru comprendre que vous n’aviez eu qu’un père.

pour ça, oui, mais il y avait aussi ma mère, et donc ils se relayaient.

vous aimait-elle ?

comme on aime ce qui vous appartient.

mais n’est-ce pas une bonne définition de l’amour ?

n’importe qui prend soin de ce qui lui appartient. en quoi cela concerne-t-il les liens de parenté ? puisque ça s’applique aussi bien à un ballon de plage rouge ou à un toast beurré ?

voudriez-vous insinuer que vous pourriez AIMER un toast beurré ?

mais oui, sire. dans certaines conditions. le matin. au lever du soleil. quand l’amour prend son envol ou quand il se termine sans explications.

et aimer les êtres humains, est-ce que cela vous paraît possible ?

assurément, et surtout quand on les connaît mal. j’aime bien les voir passer sous ma fenêtre, déambulant sur les trottoirs.

Stirkoff, vous êtes un lâche.

exact, sire.

quelle est donc votre définition de la lâcheté ?

un homme qui y réfléchit à deux fois avant d’affronter un lion à mains nues.

et votre définition de la bravoure ?

un homme qui ne sait pas de quoi un lion est capable.

chacun sait de quoi un lion est capable.

mais chacun paie la conséquence de ses actes.

et votre définition de la folie ?

un homme qui ne pige pas que le Temps, la Société et la Chair sont, pour une grande part, atteints de gangrène.

mais alors qui sont les sages ?

il n’en existe pas, sire.

donc, il n’y a pas de fous. car s’il n’y a pas de nuit, il ne peut y avoir de jour, et si le blanc n’existe pas, le noir, non plus.

pardonnez-moi, sire, mais je croyais que chaque chose existait indépendamment des autres.

vous avez fourré votre queue dans trop de vases. et vous ne pouvez plus comprendre que TOUT est normal, que rien n’est choquant.

si, je comprends, sire, je comprends que ce qui arrive devait arriver.

que diriez-vous si je décidais de vous faire décapiter ?

que pourrais-je bien dire, sire ?

quoi qu’il en soit, en vous faisant couper la tête, je conserve le Pouvoir, et je vous renvoie dans le Néant.

je pourrais choisir une autre destination.

sauf que c’est moi qui CHOISIS.

non, chacun de nous peut choisir.

relax ! relax ! Détendez-vous !

vous êtes vraiment très courtois, sire.

mais non, nous le sommes tous les deux.

certes, sire.

vous m’avez dit qu’il vous arrive de perdre la raison. que faites-vous en de telles circonstances ?

j’écris des poèmes.

la poésie et la folie, ça va ensemble ?

la folie, c’est l’absence de poésie.

mais, je vous le redemande, c’est quoi la folie ?

la laideur.

qu’est-ce qui est laid ?

cela varie selon les hommes.

donc, la laideur nous est donnée dès la naissance ?

elle est en chacun de nous, en tout cas.

mais est-ce qu’elle est inhérente à chacun de nous ?

je l’ignore, sire.

vous prétendez être un homme de savoir. qu’est-ce que le savoir ?

en savoir le moins possible.

Expliquez-vous.

je n’ai rien à expliquer, sire.

sauriez-vous construire un pont ?

non, sire.

une arme à feu ?

non, sire.

pourtant, toutes ces choses n’ont été rendues possibles que par le savoir.

ce ne sont que des ponts et des armes à feu.

je vais vous faire couper la tête.

je vous en remercie, sire.

pourquoi m’en remercier ?

j’ai grand besoin d’être stimulé, et vous me stimulez.

je suis la Justice.

peut-être.

je suis le Pouvoir. je vais donc vous faire torturer, vous faire hurler. jusqu’à ce que vous souhaitiez être mort.

c’est bien comme ça que je l’entendais, sire.

ne comprenez-vous pas que je suis votre maître ?

vous êtes l’homme qui me manipule, mais il n’y a rien que vous puissiez me faire qui n’ait déjà été fait.

vous pensez être un malin, mais lorsque vous hurlerez de souffrance, vous ne le serez plus.

j’en doute, sire.

à propos, comment pouvez-vous supporter Vaughn Williams et Darius Milhaud ? n’avez-vous jamais entendu parler des Beatles ?

oh que oui, sire, qui n’a entendu parler des Beatles ?

et vous ne les aimez pas ?

je ne les déteste pas.

y a-t-il un chanteur que vous détestiez ? on ne peut détester les chanteurs.

disons, quelqu’un qui passe pour l’être.

alors, Frank Sinatra.

pourquoi ?

il chante la pourriture à une société pourrie.

lisez-vous les journaux ?

un seul.

lequel ?

OPEN CITY.

GARDE ! CONDUISEZ IMMÉDIATEMENT CET HOMME À LA CHAMBRE DES TORTURES ET NE M’ATTENDEZ PAS POUR COMMENCER !

sire, puis-je me permettre une dernière requête ?

accordée.

puis-je emporter avec moi mon vase à long col ?

pas question ! je compte m’en servir.

oh, sire !

mais non, je vous le confisque, voilà tout ! Holà, garde, débarrassez-moi de cet idiot ! et repassez me voir avec… avec…

avec quoi, sire ?

avec une demi-douzaine d’œufs frais et un kilo de rumsteak haché…



le garde et le prisonnier sortent. avec un sourire diabolique, le roi se met en position, alors que sur le circuit radiophonique intérieur on entend Vaughn Williams. ainsi va le monde tandis qu’un chien couvert de tiques pisse sur un superbe citronnier qui s’épanouit au soleil.

 

Auteur: Bukowski Charles

Info: Journal (1967), souvenirs et poèmes Broché – Livre grand format, 2007

[ théâtre ] [ musique ]

 
Commentaires: 2
Ajouté à la BD par Le sous-projectionniste

intelligence artificielle

Apprendre l'anglais n'est pas une tâche facile, comme le savent d'innombrables étudiants. Mais lorsque l'étudiant est un ordinateur, une approche fonctionne étonnamment bien : Il suffit d'alimenter un modèle mathématique géant, appelé réseau neuronal, avec des montagnes de textes provenant d'Internet. C'est le principe de fonctionnement des modèles linguistiques génératifs tels que ChatGPT d'OpenAI, dont la capacité à tenir une conversation cohérente (à défaut d'être toujours sincère) sur un large éventail de sujets a surpris les chercheurs et le public au cours de l'année écoulée.

Mais cette approche présente des inconvénients. D'une part, la procédure de "formation" nécessaire pour transformer de vastes archives textuelles en modèles linguistiques de pointe est coûteuse et prend beaucoup de temps. D'autre part, même les personnes qui forment les grands modèles linguistiques ont du mal à comprendre leur fonctionnement interne, ce qui, à son tour, rend difficile la prévision des nombreuses façons dont ils peuvent échouer.

Face à ces difficultés, certains chercheurs ont choisi d'entraîner des modèles plus petits sur des ensembles de données plus restreints, puis d'étudier leur comportement. "C'est comme le séquençage du génome de la drosophile par rapport au séquençage du génome humain", explique Ellie Pavlick, chercheuse sur les modèles de langage à l'université de Brown.

Dans un article récemment publié sur le serveur scientifique arxiv.org, deux chercheurs de Microsoft ont présenté une nouvelle méthode pour former de minuscules modèles de langage : Les élever avec un régime strict d'histoires pour enfants.

RÉSEAUX NEURONAUX

Des chercheurs acquièrent une nouvelle compréhension à partir d'une simple IA  

Les chercheurs en apprentissage automatique ont compris cette leçon. GPT-3.5, le grand modèle linguistique qui alimente l'interface ChatGPT, compte près de 200 milliards de paramètres et a été entraîné sur un ensemble de données comprenant des centaines de milliards de mots (OpenAI n'a pas publié les chiffres correspondants pour son successeur, GPT-4).  L'entraînement de modèles aussi vastes nécessite généralement au moins 1 000 processeurs spécialisés, appelés GPU, fonctionnant en parallèle pendant des semaines. Seules quelques entreprises peuvent réunir les ressources nécessaires, sans parler de l'entraînement et de la comparaison de différents modèles.

Les deux chercheurs ont montré que des modèles linguistiques des milliers de fois plus petits que les systèmes de pointe actuels apprenaient rapidement à raconter des histoires cohérentes et grammaticalement justes lorsqu'ils étaient formés de cette manière. Leurs résultats indiquent de nouvelles pistes de recherche qui pourraient être utiles pour former des modèles plus importants et comprendre leur comportement.

"J'ai trouvé tout  ça très instructif", a déclaré Chandra Bhagavatula, chercheur sur les modèles de langage à l'Allen Institute for Artificial Intelligence de Seattle. "Le concept lui-même est très intéressant.

Il était une fois

Les réseaux neuronaux au cœur des modèles de langage sont des structures mathématiques vaguement inspirées du cerveau humain. Chacun d'entre eux contient de nombreux neurones artificiels disposés en couches, avec des connexions entre les neurones des couches adjacentes. Le comportement du réseau neuronal est régi par la force de ces connexions, appelées paramètres. Dans un modèle linguistique, les paramètres contrôlent les mots que le modèle peut produire ensuite, compte tenu d'une invite initiale et des mots qu'il a déjà générés.

Un modèle ne prend véritablement vie qu'au cours de la formation, lorsqu'il compare de manière répétée ses propres résultats au texte de son ensemble de données de formation et qu'il ajuste ses paramètres afin d'accroître la ressemblance. Un réseau non entraîné avec des paramètres aléatoires est trivialement facile à assembler à partir de quelques lignes de code, mais il ne produira que du charabia. Après l'entraînement, il peut souvent poursuivre de manière plausible un texte peu familier. Les modèles de plus grande taille sont souvent soumis à des réglages plus fins qui leur apprennent à répondre à des questions et à suivre des instructions, mais l'essentiel de la formation consiste à maîtriser la prédiction des mots.

Pour réussir à prédire des mots, un modèle linguistique doit maîtriser de nombreuses compétences différentes. Par exemple, les règles de la grammaire anglaise suggèrent que le mot suivant le mot "going" sera probablement "to", quel que soit le sujet du texte. En outre, un système a besoin de connaissances factuelles pour compléter "la capitale de la France est", et compléter un passage contenant le mot "not" nécessite une connaissance rudimentaire de la logique.

"Le langage brut est très compliqué", explique Timothy Nguyen, chercheur en apprentissage automatique chez DeepMind. "Pour que des capacités linguistiques intéressantes apparaissent, les gens ont eu recours à l'idée que plus il y a de données, mieux c'est".

(photo) Ronen Eldan s'est rendu compte qu'il pouvait utiliser les histoires d'enfants générées par de grands modèles linguistiques pour en entraîner rapidement de plus petits.

Introduction

Ronen Eldan, mathématicien qui a rejoint Microsoft Research en 2022 pour étudier les modèles de langage génératifs, souhaitait développer un moyen moins coûteux et plus rapide d'explorer leurs capacités. Le moyen naturel d'y parvenir était d'utiliser un petit ensemble de données, ce qui signifiait qu'il devait entraîner les modèles à se spécialiser dans une tâche spécifique, afin qu'ils ne s'éparpillent pas. Au départ, il voulait entraîner les modèles à résoudre une certaine catégorie de problèmes mathématiques, mais un après-midi, après avoir passé du temps avec sa fille de 5 ans, il s'est rendu compte que les histoires pour enfants convenaient parfaitement. "L'idée m'est venue littéralement après lui avoir lu une histoire", a-t-il déclaré.

Pour générer des histoires cohérentes pour les enfants, un modèle de langage devrait apprendre des faits sur le monde, suivre les personnages et les événements, et observer les règles de grammaire - des versions plus simples des défis auxquels sont confrontés les grands modèles. Mais les grands modèles formés sur des ensembles de données massives apprennent d'innombrables détails non pertinents en même temps que les règles qui comptent vraiment. Eldan espérait que la brièveté et le vocabulaire limité des histoires pour enfants rendraient l'apprentissage plus gérable pour les petits modèles, ce qui les rendrait à la fois plus faciles à former et plus faciles à comprendre.

Dans le monde des modèles de langage, cependant, le terme "petit" est relatif : Un ensemble de données mille fois plus petit que celui utilisé pour former GPT-3.5 devrait encore contenir des millions d'histoires. "Je ne sais pas combien d'argent vous voulez dépenser, mais je suppose que vous n'allez pas engager des professionnels pour écrire quelques millions de nouvelles", a déclaré M. Nguyen.

Il faudrait un auteur extraordinairement prolifique pour satisfaire des lecteurs aussi voraces, mais Eldan avait quelques candidats en tête. Qui peut mieux écrire pour un public de petits modèles linguistiques que pour de grands modèles ?

Toys stories

Eldan a immédiatement entrepris de créer une bibliothèque d'histoires synthétiques pour enfants générées par de grands modèles linguistiques. Mais il a rapidement découvert que même les modèles de pointe ne sont pas naturellement très créatifs. Si l'on demande à GPT-4 d'écrire des histoires adaptées à des enfants de 4 ans, explique Eldan, "environ un cinquième des histoires concernera des enfants qui vont au parc et qui ont peur des toboggans". C'est apparemment la quintessence des histoires pour enfants d'âge préscolaire, selon l'Internet.

La solution a consisté à ajouter un peu d'aléatoire dans le message. Tout d'abord, Eldan a utilisé le GPT-4 pour générer une liste de 1 500 noms, verbes et adjectifs qu'un enfant de 4 ans pourrait connaître - suffisamment courte pour qu'il puisse facilement la vérifier lui-même. Il a ensuite écrit un programme informatique simple qui demanderait à plusieurs reprises à GPT-3.5 ou à GPT-4 de générer une histoire adaptée à l'âge de l'enfant, comprenant trois mots aléatoires de la liste, ainsi qu'un détail supplémentaire choisi au hasard, comme une fin heureuse ou un rebondissement de l'intrigue. Les histoires obtenues, heureusement, étaient moins axées sur des diapositives effrayantes.

Eldan disposait désormais d'une procédure pour produire des données de formation à la demande, mais il n'avait aucune idée du nombre d'histoires dont il aurait besoin pour former un modèle fonctionnel, ni de la taille de ce modèle. C'est alors qu'il s'est associé à Yuanzhi Li, chercheur en apprentissage automatique chez Microsoft et à l'université Carnegie Mellon, pour essayer différentes possibilités, en tirant parti du fait que les petits modèles peuvent être formés très rapidement. La première étape consistait à décider comment évaluer leurs modèles.

Introduction

Dans la recherche sur les modèles de langage - comme dans toute salle de classe - la notation est un sujet délicat. Il n'existe pas de rubrique parfaite qui englobe tout ce que les chercheurs veulent savoir, et les modèles qui excellent dans certaines tâches échouent souvent de manière spectaculaire dans d'autres. Au fil du temps, les chercheurs ont mis au point divers critères de référence standard basés sur des questions dont les réponses ne sont pas ambiguës, ce qui est une bonne approche si vous essayez d'évaluer des compétences spécifiques. Mais Eldan et Li se sont intéressés à quelque chose de plus nébuleux : quelle doit être la taille réelle des modèles linguistiques si l'on simplifie le langage autant que possible ?

"Pour vérifier directement si le modèle parle anglais, je pense que la seule chose à faire est de laisser le modèle générer de l'anglais de manière ouverte", a déclaré M. Eldan.

Il n'y a que deux façons de mesurer les performances d'un modèle sur des questions aussi qualitatives : S'appuyer sur des évaluateurs humains ou se tourner à nouveau vers le GPT-4. Les deux chercheurs ont opté pour cette dernière solution, laissant les grands modèles à la fois rédiger les manuels et noter les dissertations.

Bhagavatula a déclaré qu'il aurait aimé voir comment les évaluations de GPT-4 se comparaient à celles des correcteurs humains - GPT-4 peut être biaisé en faveur des modèles qu'il a aidé à former, et l'opacité des modèles de langage rend difficile la quantification de tels biais. Mais il ne pense pas que de telles subtilités affecteraient les comparaisons entre différents modèles formés sur des ensembles similaires d'histoires synthétiques - l'objectif principal du travail d'Eldan et Li.

Eldan et Li ont utilisé une procédure en deux étapes pour évaluer chacun de leurs petits modèles après la formation. Tout d'abord, ils ont présenté au petit modèle la première moitié d'une histoire distincte de celles de l'ensemble des données d'apprentissage, de manière à ce qu'il génère une nouvelle fin, en répétant ce processus avec 50 histoires de test différentes. Ensuite, ils ont demandé à GPT-4 d'évaluer chacune des fins du petit modèle en fonction de trois catégories : créativité, grammaire et cohérence avec le début de l'histoire. Ils ont ensuite fait la moyenne des notes obtenues dans chaque catégorie, obtenant ainsi trois notes finales par modèle.

Avec cette procédure en main, Eldan et Li étaient enfin prêts à comparer les différents modèles et à découvrir quels étaient les étudiants les plus brillants.

Résultats des tests

Après quelques explorations préliminaires, les deux chercheurs ont opté pour un ensemble de données de formation contenant environ 2 millions d'histoires. Ils ont ensuite utilisé cet ensemble de données, baptisé TinyStories, pour entraîner des modèles dont la taille varie de 1 million à 30 millions de paramètres, avec un nombre variable de couches. Le travail a été rapide : En utilisant seulement quatre GPU, l'entraînement du plus grand de ces modèles n'a pas pris plus d'une journée.

Les plus petits modèles ont eu du mal. Par exemple, l'une des histoires testées commence par un homme à l'air méchant qui dit à une fille qu'il va lui prendre son chat. Un modèle à un million de paramètres s'est retrouvé bloqué dans une boucle où la fille répète sans cesse à l'homme qu'elle veut être son amie. Mais les modèles plus grands, qui sont encore des milliers de fois plus petits que GPT-3.5, ont obtenu des résultats surprenants. La version à 28 millions de paramètres racontait une histoire cohérente, même si la fin était sinistre : "Katie s'est mise à pleurer, mais l'homme s'en fichait. Il a emporté le chat et Katie n'a plus jamais revu son chat. Fin de l'histoire".

En plus de tester leurs propres modèles, Eldan et Li ont soumis le même défi au GPT-2 d'OpenAI, un modèle de 1,5 milliard de paramètres publié en 2019. Le résultat a été bien pire - avant la fin abrupte de l'histoire, l'homme menace d'emmener la jeune fille au tribunal, en prison, à l'hôpital, à la morgue et enfin au crématorium.

Introduction

Selon M. Nguyen, il est passionnant que des modèles aussi petits soient aussi fluides, mais il n'est peut-être pas surprenant que GPT-2 ait eu du mal à accomplir la tâche : il s'agit d'un modèle plus grand, mais loin de l'état de l'art, et il a été formé sur un ensemble de données très différent. "Un enfant en bas âge qui ne s'entraînerait qu'à des tâches d'enfant en bas âge, comme jouer avec des jouets, obtiendrait de meilleurs résultats que vous ou moi", a-t-il fait remarquer. "Nous ne nous sommes pas spécialisés dans cette chose simple.

Les comparaisons entre les différents modèles de TinyStories ne souffrent pas des mêmes facteurs de confusion. Eldan et Li ont observé que les réseaux comportant moins de couches mais plus de neurones par couche étaient plus performants pour répondre aux questions nécessitant des connaissances factuelles ; inversement, les réseaux comportant plus de couches et moins de neurones par couche étaient plus performants pour garder en mémoire les personnages et les points de l'intrigue situés plus tôt dans l'histoire. Bhagavatula a trouvé ce résultat particulièrement intriguant. S'il peut être reproduit dans des modèles plus vastes, "ce serait un résultat vraiment intéressant qui pourrait découler de ce travail", a-t-il déclaré.

Eldan et Li ont également étudié comment les capacités de leurs petits modèles dépendaient de la durée de la période de formation. Dans tous les cas, les modèles maîtrisaient d'abord la grammaire, puis la cohérence. Pour Eldan, ce schéma illustre comment les différences dans les structures de récompense entraînent des différences dans les schémas d'acquisition du langage entre les réseaux neuronaux et les enfants. Pour les modèles de langage, qui apprennent en prédisant des mots, "l'incitation pour les mots "je veux avoir" est aussi importante que pour les mots "crème glacée"", a-t-il déclaré. Les enfants, en revanche, "ne se soucient pas de savoir s'ils disent 'j'aimerais avoir de la glace' ou simplement 'glace, glace, glace'".

Qualité contre quantité

Eldan et Li espèrent que cette étude incitera d'autres chercheurs à entraîner différents modèles sur l'ensemble des données de TinyStories et à comparer leurs capacités. Mais il est souvent difficile de prédire quelles caractéristiques des petits modèles apparaîtront également dans les plus grands.

"Peut-être que les modèles de vision chez la souris sont de très bons substituts de la vision humaine, mais les modèles de dépression chez la souris sont-ils de bons modèles de la dépression chez l'homme ? a déclaré M. Pavlick. "Pour chaque cas, c'est un peu différent.

Le succès des modèles TinyStories suggère également une leçon plus large. L'approche standard pour compiler des ensembles de données de formation consiste à aspirer des textes sur l'internet, puis à filtrer les déchets. Le texte synthétique généré par des modèles de grande taille pourrait constituer une autre façon d'assembler des ensembles de données de haute qualité qui n'auraient pas besoin d'être aussi volumineux.

"Nous avons de plus en plus de preuves que cette méthode est très efficace, non seulement pour les modèles de la taille de TinyStories, mais aussi pour les modèles plus importants", a déclaré M. Eldan. Ces preuves proviennent d'une paire d'articles de suivi sur les modèles à un milliard de paramètres, rédigés par Eldan, Li et d'autres chercheurs de Microsoft. Dans le premier article, ils ont entraîné un modèle à apprendre le langage de programmation Python en utilisant des extraits de code générés par GPT-3.5 ainsi que du code soigneusement sélectionné sur l'internet. Dans le second, ils ont complété l'ensemble de données d'entraînement par des "manuels" synthétiques couvrant un large éventail de sujets, afin d'entraîner un modèle linguistique à usage général. Lors de leurs tests, les deux modèles ont été comparés favorablement à des modèles plus importants formés sur des ensembles de données plus vastes. Mais l'évaluation des modèles linguistiques est toujours délicate, et l'approche des données d'entraînement synthétiques n'en est qu'à ses balbutiements - d'autres tests indépendants sont nécessaires.

Alors que les modèles linguistiques de pointe deviennent de plus en plus volumineux, les résultats surprenants de leurs petits cousins nous rappellent qu'il y a encore beaucoup de choses que nous ne comprenons pas, même pour les modèles les plus simples. M. Nguyen s'attend à ce que de nombreux autres articles explorent l'approche inaugurée par TinyStories.

"La question est de savoir où et pourquoi la taille a de l'importance", a-t-il déclaré. "Il devrait y avoir une science à ce sujet, et cet article est, je l'espère, le début d'une riche histoire.



 



 

Auteur: Internet

Info: https://www.quantamagazine.org/ Ben Brubaker, 5 octobre 2023

[ synthèse ]

 

Commentaires: 0

Ajouté à la BD par miguel