Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 81
Temps de recherche: 0.0485s

homme-animal

Fervent défenseur de la nature et auteur de best-sellers Lawrence Anthony vivait à Thula Thula en Afrique du Sud. Très connu pour son action en faveur des animaux du zoo de Bagdad et du rhinocéros blanc, il avait reçu de nombreuses distinctions internationales.

Son dernier livre, "L'homme qui murmurait à l'oreille des éléphants" raconte l'histoire de pachydermes sur une réserve de chasse. Alors qu'un troupeau d'éléphants allait être massacré à cause des dangers qu'il représentait pour les populations locales, Lawrence Anthony, réussira à les protéger, principalement par sa relation privilégiée avec la matriarche qui conduisait le troupeau : Nana. Le 7 Mars 2012 Lawrence Anthony décéda d'une attaque cardiaque en plein sommeil a 61 ans, laissant son épouse et ses 2 fils.

Deux jours après son décès, des éléphants sauvages arrivèrent non loin de son domicile, mené par deux grandes matriarches, dont Nana. D'autres groupes sauvages vinrent séparément pour se rassembler à proximité du logis de l'humain qui les avait protégés. On dénombra 31 éléphants qui avaient marché plus de 20 km pour venir.

Lawrence racontait comment Nana "savait" quand il revenait de ses nombreux voyages. Elle venait lui dire bonjour, souvent de loin.

Françoise, la femme de Lawrence, raconte que ce qui l'a frappée c'est que les éléphants n'étaient pas venus en groupe dans les parages depuis plus de 3 ans. "Ils sont restés dans les environs pendant 2 jours et 2 nuits sans rien manger, puis, un matin, ils sont repartis", a-t-elle précisé.

J'ai envie ici de connecter cet article avec le beau texte de Koestler ou il est évoqué une "interdépendance" entre les êtres qui nous échappe. J'aime à croire qu'avec les éléphants de la réserve de Thula Thula nous en avons eu un exemple.

Auteur: Mg

Info: 26 mars 2013

[ parapsychologie ]

 

Commentaires: 0

mort

Je revois donc cette chambre dont je parlais. La liste, allongée chaque jour, des médicaments inscrits sur un panneau au pied du lit. Je me souviens de la potion de Brampton en particulier. On m’avait expliqué qu’il fallait en augmenter les doses quotidiennement et qu’on ne pourrait plus revenir en arrière. Je réentends des mots, des expressions, des bribes de phrases. Radiographies, scintigraphies, vitesse de sédimentation, carcinome rénal, tumeurs. Radiothérapie, scanner, biopsie, chimiothérapie.

Et les noms des médicaments : Depoprodazone, Fortal, Solupred, Glifanan. Je revois le "matelas alternand" destiné à éviter les escarres. Et, sous le lit, ce petit sac en plastique, relié à la vessie, en train de se remplir lentement. Je revois les visiteurs et les visiteuses. Apitoyés, ennuyés, attentifs, pressés, tendres, impatients, rassurants. Pendant ce temps, les métastases, aussi imperturbables qu’invisibles, poursuivaient leur danse dévorante.

Cet engourdissement a duré jusqu’au réveil de la malade, je veux dire jusqu’à son entrée dans un délire terminal d’une éblouissante lucidité. Avec d’autant plus de violence qu’elle avait été longuement refoulée, la vérité s’est déchaînée alors, torrentielle, ravageant d’un seul coup le théâtre de semblant sous lequel on avait essayé de l’étouffer. Il y a eu des cris, des appels au secours, je les réentendrai toute ma vie. Comme j’aurai toujours dans l’oreille ses accusations : ceux qui l’approchaient portaient des "masques", on avait conspiré contre elle, le terme de "scénario" revenait tout le temps pour désigner ses quatre mois de torture : "Le scénario n’est vraiment pas fameux, je ne vous félicite pas ! … " (le visage hideux du Spectateur se révélait enfin).

C’était clair. Depuis le début, elle savait. Jamais un seul instant elle n’avait cru à ce qu’on lui racontait. Elle avait fait semblant, par politesse, c’est tout. Après cette bouffée de désenvoûtement radical, l’agonie est venue très vite.

Auteur: Muray Philippe

Info: Dans "Exorcismes spirituels I - Rejet de greffe", pages 287-288

[ hôpital ] [ acharnement thérapeutique ] [ cancer ] [ fin de vie ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

littérature

Miguel Hernández était cet écrivain sorti de la nature comme une pierre intacte, à la virginité sauvage et à l'irrésistible force vitale.
Il racontait combien c'était impressionnant de poser ses oreilles sur le ventre des chèvres endormies. On pouvait ainsi entendre le bruit du lait qui arrivait aux mamelles, cette rumeur secrète que personne n'a pu écouter hormis ce poète des chèvres.
A d'autres reprises il me parlait du chant des rossignols.
Le Levant espagnol d'où il provenait, était chargé d'orangers en fleurs et de rossignols. Comme cet oiseau n'existe pas dans mon pays, ce sublime chanteur, ce fou de Miguel voulait me donner la plus vive expression esthétique de sa puissance. Il grimpait à un arbre dans la rue, et depuis les plus hautes branches, il sifflait comme chantent ses chers oiseaux au pays natal.
Comme il n'avait pas de quoi à vivre, je lui cherchais un travail.
C'était difficile pour un poète de trouver du travail en Espagne.
Finalement un Vicomte, haut fonctionnaire des Relations, s'intéressa à son cas et me répondit que oui, qu'il était d'accord, qu'il avait lu les vers de Miguel, qu'il l'admirait, et que celui-ci veuille bien indiquer quel type de poste il souhaitait pour rédiger sa nomination.
Rempli de joie, je dis au poète:
- Miguel Hernández, tu as enfin un destin. Le Vicomte t'embauche.
Tu seras un haut employé. Dis-moi quel travail tu désires effectuer pour que l'on procède à ton engagement.
Miguel demeura songeur. Son visage aux grandes rides prématurées se couvrit d'un voile méditatif. Des heures passèrent et il fallut attendre l'après-midi pour qu'il me réponde. Avec les yeux brillants de quelqu'un qui aurait trouvé la solution de sa vie, il me dit:
- Le Vicomte pourrait-il me confier un troupeau de chèvres par ici, près de Madrid ?
Le souvenir de Miguel ne peut s'échapper des racines de mon coeur. Le chant des rossignols levantins, ses tours sonores érigées entre l'obscurité et les fleurs d'orangers, dont la présence l'obsédait, étaient une des composantes de son sang, de sa poésie terrestre et sylvestre dans laquelle se réunissaient tous les excès de la couleur, du parfum et de la voix du Levant espagnol, avec l'abondance et la fragrance d'une puissante et virile jeunesse.

Auteur: Neruda Pablo

Info: Confieso que he vivido 1974

 

Commentaires: 0

expérience

Comme tous les hommes de Babylone, j'ai été proconsul ; comme eux tous esclave ; j'ai connu comme eux tous l'omnipotence, l'opprobre, les prisons. Regardez : à ma main droite il manque l'index. Regardez ; cette déchirure de mon manteau laisse voir sur mon estomac un tatouage vermeil ; c'est le deuxième symbole, Beth. Les nuits de pleine lune, cette lettre me donne le pouvoir sur les hommes dont la marque est Ghimel, mais elle me subordonne à ceux d'Aleph, qui les nuits sans lune doivent obéissance à ceux de Ghimel. Au crépuscule de l'aube, dans une cave, j'ai égorgé des taureaux sacrés devant une pierre noire. Toute une année de lune durant, j'ai été déclaré invisible : je criais et on ne me répondait pas, je volais le pain et je n'étais pas décapité. J'ai connu ce qu'ignorent les Grecs : l'incertitude. Dans une chambre de bronze, devant le mouchoir silencieux du strangulateur, l'espérance me fut fidèle ; dans le fleuve des délices, la panique. Pythagore, si l'on croit le récit émerveillé d'Héraclide du Pont, se souvenait d'avoir été Pyrrhus, Euphorbe, et avant Euphorbe encore quelque autre mortel ; pour me remémorer d'analogues vicissitudes je puis me dispenser d'avoir recours à la mort, et même à l'imposture.
Je dois cette diversité presque atroce à une institution que d'autres républiques ignorent ou qui n'opère chez elles que de façon imparfaite et obscure : la loterie. Je n'en ai pas scruté l'histoire : il ne m'échappe pas que les magiciens restent là-dessus divisés ; toute la connaissance qui m'est donnée de ses puissants desseins, c'est celle que peut avoir de la lune l'homme non versé en astrologie. J'appartiens à un pays vertigineux où la loterie est une part essentielle du réel ; jusqu'au présent jour, j'avais pensé à elle aussi peu souvent qu'à la conduite des dieux indéchiffrables ou de mon propre cœur. Aujourd'hui, loin de mon pays et de ses chères coutumes, c'est avec quelque surprise que j'évoque la loterie et les conjectures blasphématoires que sur elle, à la chute du jour, vont murmurant les hommes voilés.
Mon père me rapportait qu'autrefois - parlait-il d'années ou de siècle ? - la loterie était à Babylone un jeu de caractère plébéien. Il racontait, mais je ne sais s'il disait vrai, que les barbiers débitaient alors contre quelques monnaies de cuivre des rectangles d'os ou de parchemin ornés de symboles. Un tirage au sort s'effectuait en plein jour, et les favorisés recevaient, sans autre corroboration du hasard, des pièces d'argent frappées. Le procédé était rudimentaire, comme vous le voyez.

Auteur: Borges Jorge Luis

Info: La loterie à Babylone, in Fictions

[ incipit ] [ entame ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

antispiritualisme

Regardez tous ces gens qui se dressent au-dessus du peuple chrétien, n'ont-ils pas altéré l'image de Dieu et sa vérité ? Ils ont la science assujettie aux sens. Quant au monde spirituel, la moitié supérieure de l'être humain, on le repousse, on le bannit allègrement, même avec haine. Le monde a proclamé la liberté [...] ; mais que représente cette liberté ! Rien que l'esclavage et le suicide ! Car le monde dit : "Tu as des besoins, assouvis-les, tu possèdes les mêmes droits que les grands, et les riches. Ne crains pas donc pas de les assouvir, accrois-les même" ; voilà ce qu'on enseigne maintenant. Telle est leur conception de la liberté. Et que résulte-t-il de ce droit à accroître les besoins ? Chez les riches, la solitude et le suicide spirituel ; chez les pauvres, l'envie et le meurtre, car on a conféré des droits, mais on a pas encore indiqué les moyens d'assouvir les besoins. On assure que le monde, en abrégeant les distances, en transmettant la pensée dans les airs, s'unira toujours davantage, que la fraternité régnera. Hélas ! Ne croyez pas à cette union des hommes. Concevant la liberté comme l'accroissement des besoins et leur prompte satisfaction, ils altèrent leur nature, car ils font naître en eux une foule de désirs insensés, d'habitudes et d'imaginations absurdes. Ils ne vivent que pour s'envier mutuellement, pour la sensualité et l'ostentation. [...] quant aux pauvres, l'inassouvissement des besoins et de l'envie sont pour le moment noyés dans l'ivresse. Mais bientôt, au lieu de vin, ils s'enivreront de sang, c'est le but vers lequel on les mène. Dites-moi si un tel homme est libre. Un "champion de l'idée" me racontait un jour qu'étant en prison on le priva de tabac et que cette privation lui fut si pénible qu'il faillit trahir son "idée" pour en obtenir. Or cet individu prétendait "lutter pour l'humanité". De quoi peut-il être capable ? Tout au plus d'un effort momentané, qu'il ne soutiendra pas longtemps. Rien d'étonnant à ce que les hommes aient rencontré la servitude au lieu de la liberté, et qu'au lieu de servir la fraternité et l'union ils soient tombés dans la désunion et la solitude [...]. Aussi le dévouement à l'humanité, de la fraternité, de la solidarité disparaît-elle graduellement dans le monde ; en réalité, on l'accueille même avec dérision, car comment se défaire de ses habitudes, où ira ce prisonnier des besoins innombrables par lui inventés ? Dans la solitude, il se soucie fort peu de la collectivité. En fin de compte, les biens matériels se sont accrus et la joie a diminué.

Auteur: Dostoïevski Fédor Mikhaïlovitch

Info: Les Frères Karamazov (1880), p. 426, trad. Henri Montgault, éd. Gallimard, coll. "Folio"

[ impasse matérialiste ]

 

Commentaires: 0

Ajouté à la BD par miguel

révolution française

Un gentilhomme, nommé M. de Châtaubrun, avait été condamné à mort par le tribunal révolutionnaire; il avait été mis sur le fatal tombereau et conduit au lieu de l'exécution. Après la Terreur, il est rencontré parmi de ses amis, qui pousse un cri d'étonnement, ne peut croire ses yeux, et lui demande l'explication d'une chose si étrange. Il la lui donna, et je la tiens de son ami. Il fut conduit au supplice avec vingt autres malheureuses victimes. Après douze ou quinze exécutions, une partie de l'horrible instrument se brisa ; on fit venir un ouvrier pour le réparer. Le condamné était avec les autres victimes, auprès de l'échafaud, les mains liées derrière le dos. La réparation fut longue. Le jour commençait à baisser; la foule très-nombreuse des spectateurs était occupée du travail qu'on faisait à la guillotine bien plus que des victimes qui attendaient la mort; tous, et les gendarmes eux-mêmes, avaient les yeux fixés sur l'échafaud. Résigné, mais affaibli, le condamné se laissait aller sur les personnes qui étaient derrière lui. Pressées par le poids de son corps, elles lui firent place machinalement; d'autres firent de même, toujours occupées du spectacle qui captivait toute leur attention. Insensiblement il se trouva dans les derniers rangs de la foule, sans l'avoir cherché, sans y avoir pensé. L'instrument rétabli, les supplices recommencèrent; on en pressait fin. Une nuit sombre dispersa les bourreaux et les spectateurs. Entraîné par la foule, il fut d'abord étonné de sa situation; mais il conçut bientôt l'espoir de se sauver. Il se rendit aux Champs-Elysées; là, il s'adressa à un homme qui lui parut être un ouvrier. Il lui dit, en riant, que des camarades avec qui il badinait lui avaient attaché les mains derrière le dos et pris son chapeau, en lui disant de l'aller chercher. Il pria cet homme de couper les cordes. L'ouvrier avait un couteau et les coupa, en riant, du tour qu'on lui racontait. M. de Châtaubrun lui proposa de le régaler dans un des cabarets qui sont aux Champs-Elysées. Pendant ce petit repas, il paraissait attendre que ses camarades vinssent lui rendre son chapeau. Ne les voyant pas arriver, il pria son convive de porter un billet à un de ses amis, qu'il voulait prier de lui apporter un chapeau, parce qu'il ne voulait pas traverser les rues la tête nue. Il ajoutait que cet ami lui apporterait de l'argent, et que ses camarades avaient pris sa bourse en jouant avec lui. Ce brave homme crut tout ce que lui disait M. de Châtaubrun se chargea du billet, et revint une demi-heure après avec, cet ami.

Auteur: Vaublanc Vincent-Marie Viénot comte de

Info: Mémoires

[ évasion ] [ anecdote ]

 

Commentaires: 0

enfance

Puis je pensai à ma grand-mère. Elle croyait aux fantômes, souvent ils lui rendaient visite. La maison se trouvait dans un vieux verger au bout du village. Elle racontait ses visions tranquillement comme quelque chose de naturel. Les fantômes venaient tant le jour que la nuit, entraient simplement par la porte et la surprenaient dans ses activités quotidiennes à la ferme ou dans sa cuisine. Ils avaient l’air humain, mais étaient faits dans une substance plus légère, souvent ils ressemblaient à quelqu’un de la famille. Tout le monde croyait à ses histoires. Moi aussi. […]

"Il est passé par là, s’est arrêté ici, a ouvert le tiroir, a fait sonner les cuillères, mais n’a rien dérangé." J’adorais son sens du concret Ces événements avaient toujours leur temps et leur endroit propres. "Il était six heures, je venais de me réveiller, je m’étais assise sur le lit. Mais il est venu de l’alcôve, pas du couloir." Ces témoignages étaient totalement désintéressés, ne voulaient rien prouver ni rien promettre. J’y crois encore. Jamais depuis ce temps-là je ne fus confronté à des signes si simples et si directs. Face à l’extraordinaire, son seul compromis était de ponctuer ses récits de "qu’est-ce que j’ai eu peur" spontanés et rhétoriques. Car on ne voyait aucune peur. Ça sonnait plutôt comme "qu’est-ce que j’ai été surprise", "oh là là". Venant du passé, sa famille et ses amis ne faisaient rien d’autre que de lui rendre visite. Ils s’attardaient un peu à la fenêtre ou à côté du buffet blanc, puis repartaient, laissant derrière eux la porte entrouverte qu’il fallait refermer à cause des courants d’air. […]

Puis un jour, ma grand-mère décéda. Je me réveillai dans la pièce voisine de la sienne, et les tantes qui la veillaient me dirent : "Tu n’as plus ta grand-mère." Je l’aimais et cela me rendit triste. Elle était maintenant allongée, droite, le visage grave et sévère. J’étais près d’elle et regardais. Dans le silence de la matinée, j’entendais mes tantes s’affairer quelque part derrière moi, une matinée ordinaire de plus dans une maison à la campagne, et je sentis que cette mort, que peut-être même la mort, était quelque chose de, comment dire, un peu surfait. Je sentais que ma grand-mère n’était absente qu’un peu, quelle s’était discrètement faufilée hors de cette chambre et de ce monde pour aller dans un endroit pas très loin, quelle avait seulement rejoint ceux qui lui rendaient visite et que, si elle le voulait, elle viendrait comme eux avant. C’est-à-dire que je savais qu’elle était vivante. Seulement, elle n’avait pas pu prendre avec elle la silhouette qui reposait maintenant dans son lit. Elle n’en avait certainement pas besoin.

Auteur: Stasiuk Andrzej

Info: Dukla

[ grand-maman ] [ surnaturel ] [ mémé ] [ mamie ]

 
Commentaires: 7
Ajouté à la BD par miguel

humour

Un jour un maître kabbaliste juif, un initié chrétien et un soufi étaient voyage très loin de leurs patries. Après avoir terminé leurs affaires, sur le chemin du retour vers leur ville, il leur restait deux jour de marche avant d'atteindre la ville. Comme ils avaient plus rien à manger, hormis un halva (gâteau très sucré), s'imposa l'idée de jeûner la journée et de dormir la nuit sans rien manger. Comme ça le matin, ils pourraient partager la "halva" pour reprendre des forces avant de se remettre en route.
La nuit, ils s'arrêtèrent dans une gîte pour dormir. C'étaient des saints hommes qui avaient l'habitude de faire des expériences mystiques via des pratiques ésotérique. Le matin, entre initiés, chacun racontait ses rêves (ou voyages astraux) pour en discuter les interprétations.Cette nuit-là dans le gîte chacun fit sa prière, demandant à Dieu de l'inspirer.
Au matin, avant de reprendre la marche de cette longue dernière journée, chacun conta ses songes.

Le maître kabbaliste commença : "Cette nuit je suis monté dans la merkavah... j'ai exploré différents sephiroths de l'arbre jusqu’à atteindre kether et j'ai vu l'ange Metraton."
- Ôh ! quel rêve magnifique ! tu as vu Metraton ? en tous cas la grâce de jehovah était vraiment avec toi dirent l'initié chretien et le soufi.
"Oui,la grâce de jehovah est vraiment avec moi."
L'initié chrétien raconta alors:
"Cette nuit dans mon rêve, j'ai vu notre seigneur Jésus-Christ dans toute sa gloire descendre vers moi. Il était accompagné des anges, des archanges, des trônes, puissances, etc...
Ces êtres de lumière chantaient : HOSANNA FILS DE DAVID... LE CIEL ET LA TERRE SONT EMPLI DE TA GLOIRE.
Dans mon rêve je suis entré en extase tellement le chant des anges était magnifique. Une musique céleste comme vous n'avez jamais entendu."
Waouh ! s'écrièrent le maître kabbaliste et le soufi. - Tu as vu le messie en personne ? Le fils de Dieu ? En tous cas, voilà un vrai rêve mystique.
Et toi l'ami soufi, qu'as-tu as vu ? demandèrent le maitre kabbaliste et l'initié chrétien.
"HEU ! moi je ne sais ce qui se passe. Je n'ai vu ni l'ange Metraton, ni le Christ."
- Ah bon ! tu n'a pas rêvé ?
"Si,si... J'ai fait un rêve, bien sûr, dans lequel j'ai vu le prophète Mohammed. Qui m'a dit : ET TOI ! QUE FAIS-TU LA A DORMIR ??!... LÈVE-TOI ET MANGE LE GÂTEAU (halva)...
- Et ?
"Je me suis levé et je l'ai mangé pour obéir à cet ordre."
Le kabbaliste et l'initié chrétien jetèrent un d'oeil là ou il y avait le gâteau pour constater sa disparition.
Un peu déprimé et le ventre vide d'avoir jêuné, ils dirent:
- TON RÊVE EST PLUS ÉLEVÉ QUE LE NOTRE, EN VÉRITÉ TU AS FAIT UN TRÈS BEAU RÊVE.
Et le voyage continua...

Auteur: Internet

Info:

[ gnostique ] [ monothéïsmes ] [ éveil ] [ pragmatisme ]

 

Commentaires: 0

transhumanisme

[...] j’étais chez le dentiste l’autre jour

et je lisais cette revue médicale

et ils disaient

tout ce que t’as à faire

c’est vivre jusqu’à l’année 2020 après J.-C. et ensuite

si t’as assez de fric

une fois que ton corps lâche ils pourront transplanter ton cerveau dans un corps sans chair qui t’offrira

la vue et le mouvement – par exemple tu pourras faire du vélo ou n’importe quel truc de ce genre et aussi tu

n’auras pas besoin de t’enquiquiner à uriner ou déféquer ou manger – tu auras juste ce petit

réservoir de sang au sommet du crâne à recharger

environ une fois par mois – un peu comme l’essence

pour le cerveau.

Et t’en fais pas, il y aura même du sexe, ils disent,

seulement ce sera un peu différent (haha) tu pourras

la sauter jusqu’à ce qu’elle te supplie de lever le pied

(elle te quittera non plus à cause d’un manque

mais seulement d’un trop-plein)

c’est la partie transplantation désincarnée.



mais il y a une autre alternative : ils pourront

transplanter ton cerveau dans un corps vivant

dont le cerveau aura été retiré de manière à ce qu’il y ait de la place pour le tien.

seulement le coût de cette opération sera plus

prohibitif

sachant qu’ils devront localiser un corps

un corps vivant quelque part

disons par exemple dans un asile ou une prison ou

quelque part dans la rue – peut-être un kidnapping –

et bien que ces corps seront plus adaptés,

plus réalistes, ils ne dureront pas aussi longtemps que

le corps sans chair qui pourra durer dans les

500 ans avant qu’on doive le remplacer.

donc tout ça ne sera qu’une question de choix, selon

ce que tu souhaites, ou ce que tu peux te payer.



si tu intègres un corps vivant il faut savoir que ça ne

durera pas aussi longtemps – ils évaluent la durée à 110 ans à compter de

2020 après J.-C. – Et après ça il te faudra de nouveau trouver

un corps vivant de substitution ou bien opter pour un

de ces corps désincarnés.

globalement, dans cet article que j’ai lu chez mon dentiste,

il est sous-entendu que si tu n’es plus très riche

tu te rabats sur l’option désincarnée mais

si t’as toujours les poches bien remplies

tu repars sur une base de corps vivant.

(le dispositif des corps vivants a des avantages

dans la mesure où tu pourras leurrer la plupart des gens

dans la rue et qu’accessoirement

la vie sexuelle sera plus réaliste quoique

plus brève.) [...]



bref, Carl, j’ai continué ma lecture

et ce type racontait que

pour chaque type de transplantation du cerveau

que ce soit dans un corps vivant ou un corps désincarné

quelque chose d’autre se produirait pour les gens

assez blindés pour investir dans ces histoires de transfert :

le savoir informatisé de tous les siècles passés serait

injecté dans le cerveau – et quelle que soit la discipline que tu voudrais exercer

tu la maîtriserais sur le bout des doigts : tu serais capable de peindre comme

Rembrandt ou Picasso,

conquérir le monde comme César, tu pourrais faire tous ces trucs

que ces gars-là et d’autres dans ton genre ont réalisé

mais en mieux.

tu serais plus brillant qu’Einstein –

il y aurait très peu de choses que tu ne pourrais pas faire

et peut-être que le prochain corps à ta disposition

pourrait le permettre.



à partir de là ça donne un peu le vertige –

le type va toujours plus loin

un peu comme ces mabouls dans leurs

Maserati blindés de coke ; il tient à préciser

dans son langage technique à la limite du compréhensible que

ça n’est pas de la Science-Fiction

c’est une porte ouverte sur un monde d’horreur et d’émerveillements

qu’on n’aurait jamais osé imaginer avant et il soutient que la

dernière Guerre de l’Être humain opposera les riches

au cerveau alimenté par un ordinateur et les moins riches constituant

la Majorité

qui ne supporteront plus d’être écartés de

l’immortalité

et les riches voudront la préserver

pour toujours

et

à la fin

les riches au cerveau alimenté par ordinateur remporteront

la dernière

guerre de l’Être Humain.

Auteur: Bukowski Charles

Info: Dans "Tempête pour les morts et les vivants", au diable vauvert, trad. Romain Monnery, 2019, " lettre à un ami victime d'un problème domestique:"

[ spéculations ] [ moyen de domination ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par Coli Masson

intelligence artificielle

Apprendre l'anglais n'est pas une tâche facile, comme le savent d'innombrables étudiants. Mais lorsque l'étudiant est un ordinateur, une approche fonctionne étonnamment bien : Il suffit d'alimenter un modèle mathématique géant, appelé réseau neuronal, avec des montagnes de textes provenant d'Internet. C'est le principe de fonctionnement des modèles linguistiques génératifs tels que ChatGPT d'OpenAI, dont la capacité à tenir une conversation cohérente (à défaut d'être toujours sincère) sur un large éventail de sujets a surpris les chercheurs et le public au cours de l'année écoulée.

Mais cette approche présente des inconvénients. D'une part, la procédure de "formation" nécessaire pour transformer de vastes archives textuelles en modèles linguistiques de pointe est coûteuse et prend beaucoup de temps. D'autre part, même les personnes qui forment les grands modèles linguistiques ont du mal à comprendre leur fonctionnement interne, ce qui, à son tour, rend difficile la prévision des nombreuses façons dont ils peuvent échouer.

Face à ces difficultés, certains chercheurs ont choisi d'entraîner des modèles plus petits sur des ensembles de données plus restreints, puis d'étudier leur comportement. "C'est comme le séquençage du génome de la drosophile par rapport au séquençage du génome humain", explique Ellie Pavlick, chercheuse sur les modèles de langage à l'université de Brown.

Dans un article récemment publié sur le serveur scientifique arxiv.org, deux chercheurs de Microsoft ont présenté une nouvelle méthode pour former de minuscules modèles de langage : Les élever avec un régime strict d'histoires pour enfants.

RÉSEAUX NEURONAUX

Des chercheurs acquièrent une nouvelle compréhension à partir d'une simple IA  

Les chercheurs en apprentissage automatique ont compris cette leçon. GPT-3.5, le grand modèle linguistique qui alimente l'interface ChatGPT, compte près de 200 milliards de paramètres et a été entraîné sur un ensemble de données comprenant des centaines de milliards de mots (OpenAI n'a pas publié les chiffres correspondants pour son successeur, GPT-4).  L'entraînement de modèles aussi vastes nécessite généralement au moins 1 000 processeurs spécialisés, appelés GPU, fonctionnant en parallèle pendant des semaines. Seules quelques entreprises peuvent réunir les ressources nécessaires, sans parler de l'entraînement et de la comparaison de différents modèles.

Les deux chercheurs ont montré que des modèles linguistiques des milliers de fois plus petits que les systèmes de pointe actuels apprenaient rapidement à raconter des histoires cohérentes et grammaticalement justes lorsqu'ils étaient formés de cette manière. Leurs résultats indiquent de nouvelles pistes de recherche qui pourraient être utiles pour former des modèles plus importants et comprendre leur comportement.

"J'ai trouvé tout  ça très instructif", a déclaré Chandra Bhagavatula, chercheur sur les modèles de langage à l'Allen Institute for Artificial Intelligence de Seattle. "Le concept lui-même est très intéressant.

Il était une fois

Les réseaux neuronaux au cœur des modèles de langage sont des structures mathématiques vaguement inspirées du cerveau humain. Chacun d'entre eux contient de nombreux neurones artificiels disposés en couches, avec des connexions entre les neurones des couches adjacentes. Le comportement du réseau neuronal est régi par la force de ces connexions, appelées paramètres. Dans un modèle linguistique, les paramètres contrôlent les mots que le modèle peut produire ensuite, compte tenu d'une invite initiale et des mots qu'il a déjà générés.

Un modèle ne prend véritablement vie qu'au cours de la formation, lorsqu'il compare de manière répétée ses propres résultats au texte de son ensemble de données de formation et qu'il ajuste ses paramètres afin d'accroître la ressemblance. Un réseau non entraîné avec des paramètres aléatoires est trivialement facile à assembler à partir de quelques lignes de code, mais il ne produira que du charabia. Après l'entraînement, il peut souvent poursuivre de manière plausible un texte peu familier. Les modèles de plus grande taille sont souvent soumis à des réglages plus fins qui leur apprennent à répondre à des questions et à suivre des instructions, mais l'essentiel de la formation consiste à maîtriser la prédiction des mots.

Pour réussir à prédire des mots, un modèle linguistique doit maîtriser de nombreuses compétences différentes. Par exemple, les règles de la grammaire anglaise suggèrent que le mot suivant le mot "going" sera probablement "to", quel que soit le sujet du texte. En outre, un système a besoin de connaissances factuelles pour compléter "la capitale de la France est", et compléter un passage contenant le mot "not" nécessite une connaissance rudimentaire de la logique.

"Le langage brut est très compliqué", explique Timothy Nguyen, chercheur en apprentissage automatique chez DeepMind. "Pour que des capacités linguistiques intéressantes apparaissent, les gens ont eu recours à l'idée que plus il y a de données, mieux c'est".

(photo) Ronen Eldan s'est rendu compte qu'il pouvait utiliser les histoires d'enfants générées par de grands modèles linguistiques pour en entraîner rapidement de plus petits.

Introduction

Ronen Eldan, mathématicien qui a rejoint Microsoft Research en 2022 pour étudier les modèles de langage génératifs, souhaitait développer un moyen moins coûteux et plus rapide d'explorer leurs capacités. Le moyen naturel d'y parvenir était d'utiliser un petit ensemble de données, ce qui signifiait qu'il devait entraîner les modèles à se spécialiser dans une tâche spécifique, afin qu'ils ne s'éparpillent pas. Au départ, il voulait entraîner les modèles à résoudre une certaine catégorie de problèmes mathématiques, mais un après-midi, après avoir passé du temps avec sa fille de 5 ans, il s'est rendu compte que les histoires pour enfants convenaient parfaitement. "L'idée m'est venue littéralement après lui avoir lu une histoire", a-t-il déclaré.

Pour générer des histoires cohérentes pour les enfants, un modèle de langage devrait apprendre des faits sur le monde, suivre les personnages et les événements, et observer les règles de grammaire - des versions plus simples des défis auxquels sont confrontés les grands modèles. Mais les grands modèles formés sur des ensembles de données massives apprennent d'innombrables détails non pertinents en même temps que les règles qui comptent vraiment. Eldan espérait que la brièveté et le vocabulaire limité des histoires pour enfants rendraient l'apprentissage plus gérable pour les petits modèles, ce qui les rendrait à la fois plus faciles à former et plus faciles à comprendre.

Dans le monde des modèles de langage, cependant, le terme "petit" est relatif : Un ensemble de données mille fois plus petit que celui utilisé pour former GPT-3.5 devrait encore contenir des millions d'histoires. "Je ne sais pas combien d'argent vous voulez dépenser, mais je suppose que vous n'allez pas engager des professionnels pour écrire quelques millions de nouvelles", a déclaré M. Nguyen.

Il faudrait un auteur extraordinairement prolifique pour satisfaire des lecteurs aussi voraces, mais Eldan avait quelques candidats en tête. Qui peut mieux écrire pour un public de petits modèles linguistiques que pour de grands modèles ?

Toys stories

Eldan a immédiatement entrepris de créer une bibliothèque d'histoires synthétiques pour enfants générées par de grands modèles linguistiques. Mais il a rapidement découvert que même les modèles de pointe ne sont pas naturellement très créatifs. Si l'on demande à GPT-4 d'écrire des histoires adaptées à des enfants de 4 ans, explique Eldan, "environ un cinquième des histoires concernera des enfants qui vont au parc et qui ont peur des toboggans". C'est apparemment la quintessence des histoires pour enfants d'âge préscolaire, selon l'Internet.

La solution a consisté à ajouter un peu d'aléatoire dans le message. Tout d'abord, Eldan a utilisé le GPT-4 pour générer une liste de 1 500 noms, verbes et adjectifs qu'un enfant de 4 ans pourrait connaître - suffisamment courte pour qu'il puisse facilement la vérifier lui-même. Il a ensuite écrit un programme informatique simple qui demanderait à plusieurs reprises à GPT-3.5 ou à GPT-4 de générer une histoire adaptée à l'âge de l'enfant, comprenant trois mots aléatoires de la liste, ainsi qu'un détail supplémentaire choisi au hasard, comme une fin heureuse ou un rebondissement de l'intrigue. Les histoires obtenues, heureusement, étaient moins axées sur des diapositives effrayantes.

Eldan disposait désormais d'une procédure pour produire des données de formation à la demande, mais il n'avait aucune idée du nombre d'histoires dont il aurait besoin pour former un modèle fonctionnel, ni de la taille de ce modèle. C'est alors qu'il s'est associé à Yuanzhi Li, chercheur en apprentissage automatique chez Microsoft et à l'université Carnegie Mellon, pour essayer différentes possibilités, en tirant parti du fait que les petits modèles peuvent être formés très rapidement. La première étape consistait à décider comment évaluer leurs modèles.

Introduction

Dans la recherche sur les modèles de langage - comme dans toute salle de classe - la notation est un sujet délicat. Il n'existe pas de rubrique parfaite qui englobe tout ce que les chercheurs veulent savoir, et les modèles qui excellent dans certaines tâches échouent souvent de manière spectaculaire dans d'autres. Au fil du temps, les chercheurs ont mis au point divers critères de référence standard basés sur des questions dont les réponses ne sont pas ambiguës, ce qui est une bonne approche si vous essayez d'évaluer des compétences spécifiques. Mais Eldan et Li se sont intéressés à quelque chose de plus nébuleux : quelle doit être la taille réelle des modèles linguistiques si l'on simplifie le langage autant que possible ?

"Pour vérifier directement si le modèle parle anglais, je pense que la seule chose à faire est de laisser le modèle générer de l'anglais de manière ouverte", a déclaré M. Eldan.

Il n'y a que deux façons de mesurer les performances d'un modèle sur des questions aussi qualitatives : S'appuyer sur des évaluateurs humains ou se tourner à nouveau vers le GPT-4. Les deux chercheurs ont opté pour cette dernière solution, laissant les grands modèles à la fois rédiger les manuels et noter les dissertations.

Bhagavatula a déclaré qu'il aurait aimé voir comment les évaluations de GPT-4 se comparaient à celles des correcteurs humains - GPT-4 peut être biaisé en faveur des modèles qu'il a aidé à former, et l'opacité des modèles de langage rend difficile la quantification de tels biais. Mais il ne pense pas que de telles subtilités affecteraient les comparaisons entre différents modèles formés sur des ensembles similaires d'histoires synthétiques - l'objectif principal du travail d'Eldan et Li.

Eldan et Li ont utilisé une procédure en deux étapes pour évaluer chacun de leurs petits modèles après la formation. Tout d'abord, ils ont présenté au petit modèle la première moitié d'une histoire distincte de celles de l'ensemble des données d'apprentissage, de manière à ce qu'il génère une nouvelle fin, en répétant ce processus avec 50 histoires de test différentes. Ensuite, ils ont demandé à GPT-4 d'évaluer chacune des fins du petit modèle en fonction de trois catégories : créativité, grammaire et cohérence avec le début de l'histoire. Ils ont ensuite fait la moyenne des notes obtenues dans chaque catégorie, obtenant ainsi trois notes finales par modèle.

Avec cette procédure en main, Eldan et Li étaient enfin prêts à comparer les différents modèles et à découvrir quels étaient les étudiants les plus brillants.

Résultats des tests

Après quelques explorations préliminaires, les deux chercheurs ont opté pour un ensemble de données de formation contenant environ 2 millions d'histoires. Ils ont ensuite utilisé cet ensemble de données, baptisé TinyStories, pour entraîner des modèles dont la taille varie de 1 million à 30 millions de paramètres, avec un nombre variable de couches. Le travail a été rapide : En utilisant seulement quatre GPU, l'entraînement du plus grand de ces modèles n'a pas pris plus d'une journée.

Les plus petits modèles ont eu du mal. Par exemple, l'une des histoires testées commence par un homme à l'air méchant qui dit à une fille qu'il va lui prendre son chat. Un modèle à un million de paramètres s'est retrouvé bloqué dans une boucle où la fille répète sans cesse à l'homme qu'elle veut être son amie. Mais les modèles plus grands, qui sont encore des milliers de fois plus petits que GPT-3.5, ont obtenu des résultats surprenants. La version à 28 millions de paramètres racontait une histoire cohérente, même si la fin était sinistre : "Katie s'est mise à pleurer, mais l'homme s'en fichait. Il a emporté le chat et Katie n'a plus jamais revu son chat. Fin de l'histoire".

En plus de tester leurs propres modèles, Eldan et Li ont soumis le même défi au GPT-2 d'OpenAI, un modèle de 1,5 milliard de paramètres publié en 2019. Le résultat a été bien pire - avant la fin abrupte de l'histoire, l'homme menace d'emmener la jeune fille au tribunal, en prison, à l'hôpital, à la morgue et enfin au crématorium.

Introduction

Selon M. Nguyen, il est passionnant que des modèles aussi petits soient aussi fluides, mais il n'est peut-être pas surprenant que GPT-2 ait eu du mal à accomplir la tâche : il s'agit d'un modèle plus grand, mais loin de l'état de l'art, et il a été formé sur un ensemble de données très différent. "Un enfant en bas âge qui ne s'entraînerait qu'à des tâches d'enfant en bas âge, comme jouer avec des jouets, obtiendrait de meilleurs résultats que vous ou moi", a-t-il fait remarquer. "Nous ne nous sommes pas spécialisés dans cette chose simple.

Les comparaisons entre les différents modèles de TinyStories ne souffrent pas des mêmes facteurs de confusion. Eldan et Li ont observé que les réseaux comportant moins de couches mais plus de neurones par couche étaient plus performants pour répondre aux questions nécessitant des connaissances factuelles ; inversement, les réseaux comportant plus de couches et moins de neurones par couche étaient plus performants pour garder en mémoire les personnages et les points de l'intrigue situés plus tôt dans l'histoire. Bhagavatula a trouvé ce résultat particulièrement intriguant. S'il peut être reproduit dans des modèles plus vastes, "ce serait un résultat vraiment intéressant qui pourrait découler de ce travail", a-t-il déclaré.

Eldan et Li ont également étudié comment les capacités de leurs petits modèles dépendaient de la durée de la période de formation. Dans tous les cas, les modèles maîtrisaient d'abord la grammaire, puis la cohérence. Pour Eldan, ce schéma illustre comment les différences dans les structures de récompense entraînent des différences dans les schémas d'acquisition du langage entre les réseaux neuronaux et les enfants. Pour les modèles de langage, qui apprennent en prédisant des mots, "l'incitation pour les mots "je veux avoir" est aussi importante que pour les mots "crème glacée"", a-t-il déclaré. Les enfants, en revanche, "ne se soucient pas de savoir s'ils disent 'j'aimerais avoir de la glace' ou simplement 'glace, glace, glace'".

Qualité contre quantité

Eldan et Li espèrent que cette étude incitera d'autres chercheurs à entraîner différents modèles sur l'ensemble des données de TinyStories et à comparer leurs capacités. Mais il est souvent difficile de prédire quelles caractéristiques des petits modèles apparaîtront également dans les plus grands.

"Peut-être que les modèles de vision chez la souris sont de très bons substituts de la vision humaine, mais les modèles de dépression chez la souris sont-ils de bons modèles de la dépression chez l'homme ? a déclaré M. Pavlick. "Pour chaque cas, c'est un peu différent.

Le succès des modèles TinyStories suggère également une leçon plus large. L'approche standard pour compiler des ensembles de données de formation consiste à aspirer des textes sur l'internet, puis à filtrer les déchets. Le texte synthétique généré par des modèles de grande taille pourrait constituer une autre façon d'assembler des ensembles de données de haute qualité qui n'auraient pas besoin d'être aussi volumineux.

"Nous avons de plus en plus de preuves que cette méthode est très efficace, non seulement pour les modèles de la taille de TinyStories, mais aussi pour les modèles plus importants", a déclaré M. Eldan. Ces preuves proviennent d'une paire d'articles de suivi sur les modèles à un milliard de paramètres, rédigés par Eldan, Li et d'autres chercheurs de Microsoft. Dans le premier article, ils ont entraîné un modèle à apprendre le langage de programmation Python en utilisant des extraits de code générés par GPT-3.5 ainsi que du code soigneusement sélectionné sur l'internet. Dans le second, ils ont complété l'ensemble de données d'entraînement par des "manuels" synthétiques couvrant un large éventail de sujets, afin d'entraîner un modèle linguistique à usage général. Lors de leurs tests, les deux modèles ont été comparés favorablement à des modèles plus importants formés sur des ensembles de données plus vastes. Mais l'évaluation des modèles linguistiques est toujours délicate, et l'approche des données d'entraînement synthétiques n'en est qu'à ses balbutiements - d'autres tests indépendants sont nécessaires.

Alors que les modèles linguistiques de pointe deviennent de plus en plus volumineux, les résultats surprenants de leurs petits cousins nous rappellent qu'il y a encore beaucoup de choses que nous ne comprenons pas, même pour les modèles les plus simples. M. Nguyen s'attend à ce que de nombreux autres articles explorent l'approche inaugurée par TinyStories.

"La question est de savoir où et pourquoi la taille a de l'importance", a-t-il déclaré. "Il devrait y avoir une science à ce sujet, et cet article est, je l'espère, le début d'une riche histoire.



 



 

Auteur: Internet

Info: https://www.quantamagazine.org/ Ben Brubaker, 5 octobre 2023

[ synthèse ]

 

Commentaires: 0

Ajouté à la BD par miguel