Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 16
Temps de recherche: 0.0351s

apparences

La pauvreté permet à la douleur de s'étendre en surface, la richesse et les loisirs de se développer et de se compliquer en profondeur ; mais nous n'y pensons pas. Cela tient sans doute à ce que, dans notre soicété pénétrée d'argent, la pauvreté paraît le pire des maux et le porte-monnaie garni le plus grand des bienfaits. Cette simplification crue des problèmes humains vient de ce que, comme tous les matérialistes ; nous ne croyons que ce que nous voyons : la détresse d'un être moralement disgrâcié qui n'a jamais pu se faire aimer ne se voit pas ; la détresse d'un chiffonnier se voit.

Auteur: Morand Paul

Info: éloge du repos (1937, 125 p., éditions Arléa) p.46

[ misère ] [ argent ]

 
Commentaires: 4

xyloglotte

Xyloglotte signifie en grec : langue de bois. C'est une langue nouvelle reposant sur le concept incontournable du complexificationnage. L'idée maîtresse s'exprime et se comprend aisément : pourquoi, comme le disait autrefois mon prof de math, se compliquer la vie à faire simple alors qu'il est si simple de faire compliqué ? Alors s'il existe des mots et des expressions compréhensibles par le commun des mortels, quoi de plus distrayant que de les rendre abscons ? Vous en avez rêvé, je l'ai fait.

On pourra aussi s'essayer au Logotron, qui fonctionne peu ou prout sur les mêmes bases. Il fut mis sur pieds par Jean-Pierre Petit il y a déjà fort longtemps, avec pour but principal de rigoler un bon coup.

Auteur: Internet

Info: http://www.cledut.net/xylo.htm. Légèrement modifié et compilé par FLP

[ néologisme ]

 

Commentaires: 0

xénolinguistique

Les jours fastes (jours fastes pour le savant aussi bien que pour le mimoïde*), l'observateur contemple un spectacle inoubliable. En ces jours d'hyperproduction, le mimoïde se livre à d’extraordinaires "essors de création". Il s'abandonne à des variantes sur le thème des objets extérieurs, qu'il se plaît à compliquer et à partir desquels il développe des "prolongements formels" ; il s'amuse ainsi pendant des heures, pour la joie du peintre non figuratif et le désespoir du savant, qui s'efforce en vain de comprendre quoi que ce soit aux processus en cours. Si parfois, le mimoïde a des simplifications "puériles", il a aussi ses "écarts baroques", ses crises d'extravagance magnifiques. Les vieux mimoïdes, notamment, fabriquent des formes très comiques. En regardant les photographies, je n'ai pourtant jamais été porté à rire, tant j'étais bouleversé, chaque fois, par leur mystère.

Auteur: Lem Stanislaw

Info: Solaris *Le Solaris-océan crée à sa surface de gigantesques formations qui ont été baptisées en fonction de leurs formes ou de leurs spécificités : "Longus", "Mimoïdes", "Agilus", etc.

[ science-fiction ] [ énigme ] [ inconscient miroir ] [ astrolinguistique ]

 

Commentaires: 0

Ajouté à la BD par miguel

spiritisme

[...] il est plutôt exceptionnel que les réponses ou les "communications" obtenues dépassent sensiblement le niveau intellectuel du médium ou des assistants ; le spirite qui, possédant quelques facultés médiumniques, s’enferme chez lui pour consulter sa table à propos de n’importe quoi, ne se doute pas que c’est tout simplement avec lui-même qu’il communique par ce moyen détourné, et c’est pourtant ce qui lui arrive le plus ordinairement. Dans les séances des groupes, la présence d’assistants plus ou moins nombreux vient un peu compliquer les choses ; le médium n’en est plus réduit à sa seule pensée, mais, dans l’état spécial où il se trouve et qui le rend éminemment accessible à la suggestion sous toutes ses formes, il pourra tout aussi bien refléter et exprimer la pensée de l’un quelconque des assistants. D’ailleurs, dans ce cas comme dans le précédent, il ne s’agit pas forcément d’une pensée qui est nettement consciente au moment présent, et même une telle pensée ne s’exprimera guère que si quelqu’un a la volonté bien arrêtée d’influencer les réponses ; habituellement, ce qui se manifeste appartient plutôt à ce domaine très complexe que les psychologues appellent le "subconscient.

Auteur: Guénon René

Info: Dans "L'erreur spirite", Editions traditionnelles, 1952, page 104

[ perception extra-sensorielle ] [ explication naturelle ] [ porosité mentale ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

langage

- Trois mois qu'il s'enferme dans sa putain de véranda, dit-il, tout son vocabulaire doit y passer plusieurs fois par jour.

- Dis que ton père est analphabète...

- Mon père est un Américain de base, tu as oublié ce que c'était. Un type qui parle pour se faire comprendre, pas pour faire des phrases. Un homme qui n'a pas besoin de dire vous quand il sait dire tu. Un type qui est, qui a, qui dit et qui fait, il n'a pas besoin d'autres verbes. Un type qui ne dîne, ne déjeune et ne soupe jamais : il mange. Pour lui, le passé est ce qui arrivé avant le présent, et le futur ce qui arrivera après, à quoi bon compliquer ? As-tu déjà listé le nombre de choses que ton père est capable d'exprimer rien qu'avec le mot "fuck" ?

- Pas de cochonneries, s'il te plait.

- C'est bien autre chose que des cochonneries. "Fuck" dans sa bouche peut vouloir dire : "Mon Dieu, dans quelle panade me suis-je fourré !", ou encore : "Ce gars-là va me le payer cher un jour", mais aussi "J'adore ce film". Pourquoi un type comme lui aurait besoin d'écrire.

Auteur: Benacquista Tonino

Info: Malavita (discussion entre les deux ados de la famille)

[ simplicité ] [ contextualisé ] [ clarté ] [ routines ] [ tics polyvalents ] [ pulsions ]

 

Commentaires: 0

Ajouté à la BD par miguel

machine-homme

Le début d’un gros problème: Google hallucine sur les… hallucinations de ChatGPT

Le moteur de recherche s’est basé sur une information inventée par ChatGPT pour fournir une réponse erronée. Selon un expert, ce genre de fausses informations risquent de se multiplier

(photo) Image créée le 4 octobre 2023 par le générateur de Bing de Microsoft, avec la requête "an egg melting slowly in an oven, very realistic photograph".

Observez bien l’image illustrant cet article: elle est impossible à reproduire dans la vie réelle. Et pour cause, il s’agit d’une image créée avec le générateur d’illustrations de Bing, appartenant à Microsoft. L’auteur de ces lignes a écrit la commande, en anglais, "un œuf fondant lentement dans un four, photographie très réaliste". Et Bing a ensuite affiché un résultat convaincant et de qualité. Un peu comme on lui demande de dessiner un tyrannosaure rose nageant dans le lac Léman. Dopés à l’intelligence artificielle (IA), les générateurs d’images peuvent absolument tout faire.

Mais lorsqu’il s’agit de répondre factuellement à des questions concrètes, l’IA se doit d’être irréprochable. Or ce n’est pas toujours le cas. Pire encore, des systèmes d’intelligence artificielle peuvent se nourrir entre eux d’erreurs, aboutissant à des "hallucinations" – noms courants pour les informations inventées de toutes pièces par des agents conversationnels – qui en créent de nouvelles.

Un œuf qui fond

Récemment, un internaute américain, Tyler Glaiel, en a fait l’éclatante démonstration. Le développeur informatique a d’abord effectué une simple requête sur Google, "can you melt eggs", soit "peut-on faire fondre des œufs". Réponse du moteur de recherche: "Oui, un œuf peut être fondu. La façon la plus courante de faire fondre un œuf est de le chauffer à l’aide d’une cuisinière ou d’un four à micro-ondes". Google a affiché cette réponse loufoque (un œuf durcit, il ne fond pas, évidemment) dans ce qu’on appelle un "snippet", soit une réponse extraite d’un site web, affichée juste en dessous de la requête. Google montre depuis des années des "snippets", grâce auxquels l’internaute n’a pas à cliquer sur la source de l’information, et reste ainsi dans l’univers du moteur de recherche.

Quelle était la source de cette fausse information? Le célèbre site Quora.com, apprécié de nombreux internautes, car chacun peut y poser des questions sur tous les sujets, n’importe qui pouvant répondre aux questions posées. N’importe qui, dont des agents conversationnels. Quora utilise ainsi des systèmes d’IA pour apporter certaines réponses. Dans le cas présent, le site web indique que c’est ChatGPT qui a rédigé cette "hallucination" sur les œufs. Google s’est donc fait avoir par Quora, qui lui-même s’est fait avoir par ChatGPT… Ou plus précisément par l’une de ses anciennes versions. "Quora utilise l’API GPT-3 text-davinci-003, qui est connue pour présenter fréquemment de fausses informations par rapport aux modèles de langage plus récents d’OpenAI", explique le site spécialisé Ars Technica. Expérience faite, aujourd’hui, cette grosse erreur sur l’œuf ne peut pas être reproduite sur ChatGPT.

Risque en hausse

Mais avec de plus en plus de contenu produit par l’IA et publié ensuite sur le web, la menace existe que des "hallucinations" se nourrissent entre elles et se multiplient ainsi dans le domaine du texte – il n’y a pas encore eu de cas concernant des images. "Il est certain que le risque d’ hallucination va augmenter si les utilisateurs ne demandent pas à l’IA de s’appuyer sur des sources via la recherche internet. Beaucoup de contenu en ligne est déjà, et va être généré par des machines, et une proportion sera incorrecte en raison d’individus et contributeurs soit mal intentionnés, soit n’ayant pas les bonnes pratiques de vérification des sources ou de relecture des informations", estime Rémi Sabonnadiere, directeur de la société Effixis, basée à Saint-Sulpice (VD), spécialisée dans les modèles de langage et l’IA générative.

Est-ce à dire que Google pourrait devenir moins fiable? "Difficile à dire, cela dépendra surtout de l’utilisation que nous en faisons, poursuit l’expert. Il y a déjà beaucoup de contenu faux en ligne de nos jours quand nous sommes sur Google, mais avec une bonne recherche et un esprit critique, nous ne tombons pas dans les pièges. Il en va de même avec l’utilisation de l’intelligence artificielle. Avec l’IA générative, les contenus erronés, biaisés et tendancieux vont être de grande qualité en termes de forme, convaincants et bien écrits, rendant l’identification difficile."

Modèles spécialisés

Mais des efforts sont réalisés pour minimiser ces risques. Selon Rémi Sabonnadiere, l’industrie investit énormément dans la recherche et le développement pour minimiser ces problèmes. "Les créateurs de LLM [grands modèles de langage] cherchent à améliorer la précision et la fiabilité des informations générées. Parallèlement, l’émergence de modèles spécialisés dans des domaines comme la médecine, le droit, ou la finance est une tendance encourageante, car ils sont souvent mieux armés pour fournir des informations précises et fiables."

Reste que la fusion entre moteurs de recherche et agents conversationnels – que ce soit Bard pour Google ou Bing pour Microsoft – va compliquer la situation. On avait déjà vu Bard afficher une grossière erreur, lors de son lancement, concernant le télescope James Webb. Les géants de la tech tentent de réduire ces erreurs. Mais les utilisateurs doivent se former en conséquence, affirme Rémi Sabonnadiere, et mieux maîtriser les "prompts", soit les commandes texte: "Maîtriser les prompts est une compétence essentielle pour naviguer dans l’ère de l’information générée par l’IA. Une formation adéquate en ingénierie de prompt peut aider à prévenir les risques liés aux hallucinations de l’IA et aux informations erronées". A noter qu’Effixis a créé à ce propos une formation pour répondre à des besoins spécifiques sur les "prompts".

Auteur: Internet

Info: Le Temps.ch, 5 octobre 2023, par Anouch Seydtaghia

[ machine-homme ] [ sémantique hors-sol ] [ invite de commande langagière ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste