Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 15
Temps de recherche: 0.0331s

lecture

J'ajouterai une remarque personnelle : les genres littéraires dépendent peut-être moins des textes eux-mêmes que de la façon dont ces textes sont lus. Le fait esthétique requiert, pour se produire, la rencontre du lecteur et du texte. Il est absurde de supposer qu'un livre soit beaucoup plus qu'un livre. Il commence à exister quand un lecteur l'ouvre. Alors se produit le phénomène esthétique qui peut rappeler le moment où l'ouvrage a été conçu.

Auteur: Borges Jorge Luis

Info: conférences

[ écriture ] [ interaction ] [ langage ]

 

Commentaires: 0

question

... si seulement on pouvait être un impressionniste avec les mots, ce sont justement les impressionnistes qui ont introduit dans la peinture ce regard neuf qui consiste à traduire, ou plutôt à transposer la lumière en couleur. Or, comment transposer la lumière dans la langue pour rendre ce chatoiement, ce frissonnement sur l'eau, ces méduses scintillantes, cette luisante de la toile d'araignée dans les roseaux, ces réverbérations de la lumière sur les pierres humides, cette brillance des feuilles et ces jeux du soleil dans les bouclettes de Martusza ? Les mots ne chatoient pas, ils sont immobiles. Comment écrire avec des mots la lumière de tes cheveux ?

Auteur: Wilk Mariusz

Info: La maison du vagabond, p 166

[ écriture ] [ langage ] [ limitation ]

 

Commentaires: 0

dictionnaire analogique

A l'instar de la liste, qui fut la forme la plus usitée dès les débuts de l'écriture, Anatole France a écrit, trois mille ans plus tard : "un dictionnaire, c'est l'univers par ordre alphabétique."
Voilà qui constitue une bonne base de départ pour le concept des "Fils de La Pensée", n'est que la technologie permet aujourd'hui de croiser les classifications, de mélanger les paramètres de recherche, de complexifier. Ce qui a pour résultat la création de listes multi-dimensionelles, articulées par paramètres combinés : mélanges de mots, classement par taille, mots exclus, recherche avancée, par auteurs, pays... par catégories, combinaisons de tags... bouts de phrases, etc. Un truc véritablement passionnant pour qui aime les mots, leurs significations, leurs sens combinés, la lecture analytique, les évolutions des idées, etc...
Et malgré la subjectivité de tout ceci, nous nous appuyons néanmoins sur un réel commun, qui a produit des mots, des idiomes et des habitudes. Ici, comme pour l'argent, on voit une virtualisation en marche.

Auteur: Mg

Info: 3 novembre 2017

[ langage écrit ] [ citation s'appliquant à ce logiciel ] [ intrication linguistique ]

 

Commentaires: 0

évocation

Ecrire ne remplace pas. Comment modeler un torse avec des mots ? Comment dessiner ? Brossard a des idées là-dessus. Moi, je patouille la glaise mot à mot, mais ça ne donne rien de propre, rien de simultané, surtout, comme dit Brossard.

Un jour il m'a dit : Décris-moi mon chien. C'était risible. Pourtant je le connais depuis longtemps, son chien. Je l'ai vu naître, grandir, évoluer. Il y a du chiot dans ce chien. Allez donc exprimer ça. Même un coquetier c'est difficile. Il suffit d'en regarder un pour deviner que les oeufs ne sont pas ronds. Et pourtant si, par mégarde, un oeuf est rond il peut quand même s'asseoir dedans. C'est cette ambiguïté qui rend la description difficile. Certes, dans les pays sans poules, il suffit de dire : c'est un objet dans lequel on mange ce qui a été pondu. Mais ces pays-là sont rares.

Pour un peintre, au contraire, un coquetier est un régal. D'un trait, il nous rappelle nos mouillettes, le sel, le beurre et, derrière nous, notre mère, nos soeurs.

Auteur: Dumayet Pierre

Info: "Brossard et moi", éd. Verdier, p.12

[ langage ] [ mots-choses ] [ adéquation ] [ écriture ]

 

Commentaires: 0

Ajouté à la BD par Benslama

intelligence artificielle

Résumé et explication du texte "Attention is All You Need"



Le texte "Attention is All You Need" (Vaswani et al., 2017) a révolutionné le domaine du traitement du langage naturel (TLN) en introduisant l'architecture Transformer, un modèle neuronal basé entièrement sur le mécanisme d'attention. Ce résumé explique les concepts clés du texte et son impact sur le TLN.



Concepts clés:





  • Attention: Le mécanisme central du Transformer. Il permet au modèle de se concentrer sur des parties spécifiques d'une séquence d'entrée (par ex., une phrase) lors du traitement, capturant ainsi les relations à longue distance entre les mots.




  • Encodeur-décodeur: L'architecture du Transformer. L'encodeur traite la séquence d'entrée et produit une représentation contextuelle. Le décodeur utilise ensuite cette représentation pour générer la séquence de sortie.




  • Positional encoding: Ajoute des informations de position aux séquences d'entrée et de sortie, permettant au modèle de comprendre l'ordre des mots.




  • Apprentissage par self-attention: Le Transformer utilise uniquement des mécanismes d'attention, éliminant le besoin de réseaux récurrents (RNN) comme les LSTM.





Impact:





  • Efficacité: Le Transformer a surpassé les modèles RNN en termes de performance et de parallélisation, permettant un entraînement plus rapide et une meilleure scalabilité.




  • Polyvalence: L'architecture Transformer s'est avérée efficace pour une large gamme de tâches en TLN, telles que la traduction automatique, le résumé de texte et la réponse aux questions.




  • Impact durable: Le Transformer est devenu l'architecture de base pour de nombreux modèles de pointe en TLN et continue d'inspirer des innovations dans le domaine.





En résumé:



"Attention is All You Need" a marqué un tournant dans le TLN en introduisant l'architecture Transformer. Le mécanisme d'attention et l'absence de RNN ont permis d'améliorer considérablement l'efficacité et la polyvalence des modèles de TLN, ouvrant la voie à de nombreuses avancées dans le domaine.



Points importants:





  • Le Transformer repose sur le mécanisme d'attention pour capturer les relations à longue distance dans les séquences.




  • L'architecture encodeur-décodeur avec self-attention offre une grande efficacité et une grande flexibilité.




  • Le Transformer a eu un impact profond sur le domaine du TLN et continue d'inspirer de nouvelles recherches.



Auteur: Internet

Info: Compendium de gemini

[ historique ] [ traitement automatique du langage ] [ écrit célèbre ]

 

Commentaires: 0

Ajouté à la BD par miguel