Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 8
Temps de recherche: 0.0308s

vie

Nous sommes tous malades. Nous tombons malades en naissant et guérissons à l'heure de notre mort.

Auteur: Goimard Jacques,

Info: préface de, histoires de médecins, la grande anthologie de la science-fiction

[ chiasme ] [ existence ] [ imperfection ]

 

Commentaires: 0

existence

Nous sommes comme les feux d'artifice. Nous montons, nous brillons, et ensuite à coup sûr nous tombons, séparés et emportés par le vent.

Auteur: Kubo Tite Taito Noriaki

Info: Bleach, Tome 20, End of hypnosis

[ résumé ] [ vie ]

 

Commentaires: 0

équilibre

Le chemin que nous devons suivre en ce monde est étroit et haut placé. Si nous nous en écartons, nous tombons dans un précipice profond.

Auteur: Sagesse aztèque

Info:

 

Commentaires: 0

vieillesse

Nous tombons dans la vulgarité quand nous passons la cinquantaine et continuons néanmoins à vivre, à exister. Nous sommes assez lâches pour aller jusqu'à la limite, pensai-je, et nous devenons doublement lamentables une fois que nous avons franchi le cap des cinquante ans.

Auteur: Bernhard Thomas

Info: Le Naufragé

[ couradise ] [ peur de la mort ]

 
Commentaires: 1
Ajouté à la BD par miguel

couple

Nous sommes tout un peu bizarre. Et la vie est un peu bizarre. Et quand nous trouvons une personne avec qui nous sommes bizarrement compatible nous nous engageons avec elle et tombons ensemble dans une bizarreté mutuelle satisfaisante - et nous l'appelons amour. Le véritable amour.

Auteur: Fulghum Robert

Info: True Love

[ mariage ] [ réussi ] [ compatible ] [ assorti ]

 

Commentaires: 0

présent

Il est des temps de décadence, où s'efface la forme en laquelle notre vie profonde doit s'accomplir. Arrivés dans de telles époques, nous vacillons et trébuchons comme des êtres à qui manque l'équilibre. Nous tombons de la joie obscure à la douleur obscure, le sentiment d'un manque infini nous fait voir pleins d'attraits l'avenir et le passé. Nous vivons ainsi dans des temps écoulés ou dans des utopies lointaines, cependant que l'instant s'enfuit.

Auteur: Jünger Ernst

Info: Sur les falaises de marbre (1942), trad. Henri Thomas, éd. Gallimard, coll. L'Imaginaire, 2005, p. 35

[ aveuglement ] [ tragédie ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

réflexion

"Cogito, ergo sum" ("Je pense, donc je suis" René Descartes, Principes de la philosophie)

Si nous cherchons dans le Larousse une définition du mot "pensée", nous trouvons, entre autres : "Ensemble des processus par lesquels l'être humain au contact de la réalité matérielle et sociale élabore des concepts, les relie entre eux et acquiert de nouvelles connaissances". Je trouve cette définition aux relents d’anthropocentrisme un peu injurieuse pour les animaux car elle sous-entend qu’ils ne pensent pas, la pensée étant l’apanage de l’espèce humaine. Si nous nous tournons maintenant vers le Wiktionnaire, nous trouvons : "Toute opération de l’intelligence" Cette fois, nous tombons dans l’excès inverse : même les ordinateurs et les robots seraient censés penser ! Depuis, entre autres, le développement de l’intelligence artificielle, ils sont en effet capable d'effectuer des opérations intellectuelles compliquées, parfois bien plus compliquée que celles qui peuvent être réalisées par les êtres humains ou les animaux.

Ces exemples illustrent le flou de la notion et la difficulté à la cerner. Quand Descartes écrivait son fameux "Cogito, ergo sum", il ne pensait sans doute pas à l’intelligence artificielle car on ne devait pas encore l’imaginer à son époque. Son aphorisme devait signifier : "Je suis conscient, donc je suis". Et, si c’est le cas, il ne pouvait y utiliser que la première personne du singulier car l’existence dont il serait alors question serait celle de la conscience, cette mystérieuse conscience que nous ne pouvons expérimenter qu’au plus intime de nous-même, sans aucune possibilité pour la partager avec d’autres ou pour expérimenter celle des autres. Curieusement, la vérité de cette existence est absolue : elle subsisterait même si, comme dans l’hypothèse extrême du solipsisme, il n’existait rien d’autre !

Auteur: Santarini Gérard

Info: Extrait de "Croire ou savoir ? Petites graines de réflexion pour un monde meilleur", Librinova, 2019

[ compréhension ] [ homme-animal ]

 

Commentaires: 0

Ajouté à la BD par SANTARINI

machine-homme

Le début d’un gros problème: Google hallucine sur les… hallucinations de ChatGPT

Le moteur de recherche s’est basé sur une information inventée par ChatGPT pour fournir une réponse erronée. Selon un expert, ce genre de fausses informations risquent de se multiplier

(photo) Image créée le 4 octobre 2023 par le générateur de Bing de Microsoft, avec la requête "an egg melting slowly in an oven, very realistic photograph".

Observez bien l’image illustrant cet article: elle est impossible à reproduire dans la vie réelle. Et pour cause, il s’agit d’une image créée avec le générateur d’illustrations de Bing, appartenant à Microsoft. L’auteur de ces lignes a écrit la commande, en anglais, "un œuf fondant lentement dans un four, photographie très réaliste". Et Bing a ensuite affiché un résultat convaincant et de qualité. Un peu comme on lui demande de dessiner un tyrannosaure rose nageant dans le lac Léman. Dopés à l’intelligence artificielle (IA), les générateurs d’images peuvent absolument tout faire.

Mais lorsqu’il s’agit de répondre factuellement à des questions concrètes, l’IA se doit d’être irréprochable. Or ce n’est pas toujours le cas. Pire encore, des systèmes d’intelligence artificielle peuvent se nourrir entre eux d’erreurs, aboutissant à des "hallucinations" – noms courants pour les informations inventées de toutes pièces par des agents conversationnels – qui en créent de nouvelles.

Un œuf qui fond

Récemment, un internaute américain, Tyler Glaiel, en a fait l’éclatante démonstration. Le développeur informatique a d’abord effectué une simple requête sur Google, "can you melt eggs", soit "peut-on faire fondre des œufs". Réponse du moteur de recherche: "Oui, un œuf peut être fondu. La façon la plus courante de faire fondre un œuf est de le chauffer à l’aide d’une cuisinière ou d’un four à micro-ondes". Google a affiché cette réponse loufoque (un œuf durcit, il ne fond pas, évidemment) dans ce qu’on appelle un "snippet", soit une réponse extraite d’un site web, affichée juste en dessous de la requête. Google montre depuis des années des "snippets", grâce auxquels l’internaute n’a pas à cliquer sur la source de l’information, et reste ainsi dans l’univers du moteur de recherche.

Quelle était la source de cette fausse information? Le célèbre site Quora.com, apprécié de nombreux internautes, car chacun peut y poser des questions sur tous les sujets, n’importe qui pouvant répondre aux questions posées. N’importe qui, dont des agents conversationnels. Quora utilise ainsi des systèmes d’IA pour apporter certaines réponses. Dans le cas présent, le site web indique que c’est ChatGPT qui a rédigé cette "hallucination" sur les œufs. Google s’est donc fait avoir par Quora, qui lui-même s’est fait avoir par ChatGPT… Ou plus précisément par l’une de ses anciennes versions. "Quora utilise l’API GPT-3 text-davinci-003, qui est connue pour présenter fréquemment de fausses informations par rapport aux modèles de langage plus récents d’OpenAI", explique le site spécialisé Ars Technica. Expérience faite, aujourd’hui, cette grosse erreur sur l’œuf ne peut pas être reproduite sur ChatGPT.

Risque en hausse

Mais avec de plus en plus de contenu produit par l’IA et publié ensuite sur le web, la menace existe que des "hallucinations" se nourrissent entre elles et se multiplient ainsi dans le domaine du texte – il n’y a pas encore eu de cas concernant des images. "Il est certain que le risque d’ hallucination va augmenter si les utilisateurs ne demandent pas à l’IA de s’appuyer sur des sources via la recherche internet. Beaucoup de contenu en ligne est déjà, et va être généré par des machines, et une proportion sera incorrecte en raison d’individus et contributeurs soit mal intentionnés, soit n’ayant pas les bonnes pratiques de vérification des sources ou de relecture des informations", estime Rémi Sabonnadiere, directeur de la société Effixis, basée à Saint-Sulpice (VD), spécialisée dans les modèles de langage et l’IA générative.

Est-ce à dire que Google pourrait devenir moins fiable? "Difficile à dire, cela dépendra surtout de l’utilisation que nous en faisons, poursuit l’expert. Il y a déjà beaucoup de contenu faux en ligne de nos jours quand nous sommes sur Google, mais avec une bonne recherche et un esprit critique, nous ne tombons pas dans les pièges. Il en va de même avec l’utilisation de l’intelligence artificielle. Avec l’IA générative, les contenus erronés, biaisés et tendancieux vont être de grande qualité en termes de forme, convaincants et bien écrits, rendant l’identification difficile."

Modèles spécialisés

Mais des efforts sont réalisés pour minimiser ces risques. Selon Rémi Sabonnadiere, l’industrie investit énormément dans la recherche et le développement pour minimiser ces problèmes. "Les créateurs de LLM [grands modèles de langage] cherchent à améliorer la précision et la fiabilité des informations générées. Parallèlement, l’émergence de modèles spécialisés dans des domaines comme la médecine, le droit, ou la finance est une tendance encourageante, car ils sont souvent mieux armés pour fournir des informations précises et fiables."

Reste que la fusion entre moteurs de recherche et agents conversationnels – que ce soit Bard pour Google ou Bing pour Microsoft – va compliquer la situation. On avait déjà vu Bard afficher une grossière erreur, lors de son lancement, concernant le télescope James Webb. Les géants de la tech tentent de réduire ces erreurs. Mais les utilisateurs doivent se former en conséquence, affirme Rémi Sabonnadiere, et mieux maîtriser les "prompts", soit les commandes texte: "Maîtriser les prompts est une compétence essentielle pour naviguer dans l’ère de l’information générée par l’IA. Une formation adéquate en ingénierie de prompt peut aider à prévenir les risques liés aux hallucinations de l’IA et aux informations erronées". A noter qu’Effixis a créé à ce propos une formation pour répondre à des besoins spécifiques sur les "prompts".

Auteur: Internet

Info: Le Temps.ch, 5 octobre 2023, par Anouch Seydtaghia

[ machine-homme ] [ sémantique hors-sol ] [ invite de commande langagière ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste