Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 2
Temps de recherche: 0.0317s

privilégié

Revenons à BHL: s’il est tellement soucieux de l’état de la planète qu’il estime que l’Etat maastrichtien doive faire payer les pauvres avec leurs voitures de travail afin que les riches puissent polluer en se déplaçant en avion, alors qu’il cesse de passer son temps entre deux aéroports lui qui disait sans vergogne qu’il avait trop de maisons…

On peut lire en effet dans L’Obs (5 juillet 2017): "J’ai trop de maisons dans le monde": Bernard-Henri Lévy se résout à vendre une de ses villas pour 6 millions d’euros. Lisons cet article: "Trop d’argent, pas assez de temps. Bernard-Henri Lévy a confié à Bloomberg dans un article publié ce lundi qu’il était contraint de vendre une de ses villas au Maroc, à Tanger, faute de pouvoir en profiter suffisamment: "Je partage mon temps entre Paris, New York et Marrakech. J’ai trop de maisons dans le monde et hélas, l’année ne dure que 52 semaines". Prix de la demeure sacrifiée: 6 millions d’euros, en vente sur le site de Christie’s International Real Estate, pour 600 mètres carrés situés "au sommet d’une falaise, face à Gibraltar, au point précis où se côtoient l’Atlantique et la Méditerranée", affirme BHL, bon vendeur. Bonjour la trace carbone du philosophe!

On comprend que cet homme-là ignore quelle misère signifie un trou de cinquante euros dans le budget d’une famille vivant avec moins de mille euros par mois… "Salauds de pauvres!", en effet.

Auteur: Onfray Michel

Info: https://michelonfray.com/interventions-hebdomadaires/le-message-clair-des-gilets-jaunes-a-bhl?fbclid=IwAR0aM3eMLho9eR4BdyoJFRvSs5okg89GOPcala8yzoG2SBKZ4sLCVb6Hu8I à propos de Bernard-Henri Lévy

[ cynisme ] [ aveuglement ] [ intérêts personnels ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

intelligence artificielle

Résumé et explication du texte "Attention is All You Need"



Le texte "Attention is All You Need" (Vaswani et al., 2017) a révolutionné le domaine du traitement du langage naturel (TLN) en introduisant l'architecture Transformer, un modèle neuronal basé entièrement sur le mécanisme d'attention. Ce résumé explique les concepts clés du texte et son impact sur le TLN.



Concepts clés:





  • Attention: Le mécanisme central du Transformer. Il permet au modèle de se concentrer sur des parties spécifiques d'une séquence d'entrée (par ex., une phrase) lors du traitement, capturant ainsi les relations à longue distance entre les mots.




  • Encodeur-décodeur: L'architecture du Transformer. L'encodeur traite la séquence d'entrée et produit une représentation contextuelle. Le décodeur utilise ensuite cette représentation pour générer la séquence de sortie.




  • Positional encoding: Ajoute des informations de position aux séquences d'entrée et de sortie, permettant au modèle de comprendre l'ordre des mots.




  • Apprentissage par self-attention: Le Transformer utilise uniquement des mécanismes d'attention, éliminant le besoin de réseaux récurrents (RNN) comme les LSTM.





Impact:





  • Efficacité: Le Transformer a surpassé les modèles RNN en termes de performance et de parallélisation, permettant un entraînement plus rapide et une meilleure scalabilité.




  • Polyvalence: L'architecture Transformer s'est avérée efficace pour une large gamme de tâches en TLN, telles que la traduction automatique, le résumé de texte et la réponse aux questions.




  • Impact durable: Le Transformer est devenu l'architecture de base pour de nombreux modèles de pointe en TLN et continue d'inspirer des innovations dans le domaine.





En résumé:



"Attention is All You Need" a marqué un tournant dans le TLN en introduisant l'architecture Transformer. Le mécanisme d'attention et l'absence de RNN ont permis d'améliorer considérablement l'efficacité et la polyvalence des modèles de TLN, ouvrant la voie à de nombreuses avancées dans le domaine.



Points importants:





  • Le Transformer repose sur le mécanisme d'attention pour capturer les relations à longue distance dans les séquences.




  • L'architecture encodeur-décodeur avec self-attention offre une grande efficacité et une grande flexibilité.




  • Le Transformer a eu un impact profond sur le domaine du TLN et continue d'inspirer de nouvelles recherches.



Auteur: Internet

Info: Compendium de gemini

[ historique ] [ traitement automatique du langage ] [ écrit célèbre ]

 

Commentaires: 0

Ajouté à la BD par miguel