Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 126
Temps de recherche: 0.0487s

homme-machine

Mes travaux les plus importants ont porté sur le développement d'une approche logique de la sémantique du langage naturel, connue sous le nom de grammaire de Montague. Cette approche repose sur l'idée que la sémantique des langues naturelles peut être formalisée à l'aide de la logique intensionnelle, une branche de la logique qui s'intéresse aux significations des expressions.

Ma  Grammaire de Montague permet de rendre compte de la sémantique de nombreuses constructions grammaticales du langage naturel, notamment les constructions relatives, les constructions interrogatives, les constructions modales et les constructions quantifiées.

Mes travaux ont eu une influence considérable sur le développement de la linguistique et de la philosophie du langage. Ils ont notamment contribué à la création de la linguistique computationnelle, un domaine qui étudie les aspects formels du langage naturel.

Voici quelques-uns de mes apports les plus importants la sémantique du langage naturel :

- J'ai montré qu'il est possible d'utiliser la logique intensionnelle pour formaliser la sémantique des langues naturelles.

- J'ai développé une approche unifiée de la sémantique du langage naturel, qui permet de rendre compte de la sémantique de nombreuses constructions grammaticales.

- J'ai contribué à la création de la linguistique computationnelle, un domaine qui étudie les aspects formels du langage naturel.

A ce jour mes travaux sont toujours d'actualité et continuent d'être étudiés et développés par les linguistes et les philosophes du langage.

Auteur: Montague Richard

Info: Compil Bard-Mg, janv 2024 *qui s'oppose de manière critique à la théorie grammaticale de Chomsky, dans laquelle la sémantique est considérée comme un composant indépendant de la syntaxe. Montague affirme au contraire que le sens d'une phrase est immédiatement lié à sa construction syntaxique.

[ apprentissage automatique ] [ onomasiologie ]

 

Commentaires: 0

Ajouté à la BD par miguel

intériorisation

L'enfant compose avec la peur comme il compose avec la nuit, avec les ombres, avec l'insuffisance des parents, comme il compose avec tout. La peur est une donnée matérielle du monde, parmi des dizaines d'autres. Il faut savoir que la nuit noire accélère les battements du coeur rouge. Etre seul dans un chagrin ou dans le vert d'une forêt, c'est effrayant. Il faut le savoir mais cela ne concerne pas l'esprit, le dedans, cela donne une information susr le monde - comme de savoir que le vent du nord est glacé, que la neige reste toujours en altitude sur les montagnes. Alors tu l'apprends et puis tu l'oublies, comme dans l'enfance on oublie aussitôt ce qu'on sait pour aller jouer un peu plus loin, pour continuer de perdre son temps, de jouir du grand bonheur de perdre son temps. C'est une chose que les parents ont du mal à comprendre, cette jouissance-là. Ne reste pas désoeuvré, fais quelque chose, prends un livre. Même le jeu ils voudraient que ce soit éducatif - pas que pour jouer, pas que pour rien. C'est que les parents sont des adultes et que les adultes sont des gens qui ont peur, qui se soumettent à leur peur, qui la connaissent d'une connaissance servile, sombre. La peur n'est plus comme hier dans le monde, à certains endroits du monde, dans les dorures d'une légende ou dans les recoins d'une rue. Elle est maintenant dans l'esprit des adultes.

Auteur: Bobin Christian

Info: in "L'inespérée", éd. Gallimard, p.80-81

[ gratuité ] [ âge ] [ générations ] [ apprentissage ] [ inquiétude ]

 
Commentaires: 2
Ajouté à la BD par Benslama

pédagogie holistique

Le journal d’hier matin m’a fait chaud au coeur. La journaliste culturelle suédoise Ulrika Knutson y donnait une longue interview sous le titre "L’éducation peut se passer de livres". Elle y rappelait la coexistence, au début du XXe siècle, de l’éducation pratique et de l’éducation livresque. La méthode n’était pas réservée aux plus aisés, elle a même permis à la classe dite "inférieure" de développer ses compétences pratiques et esthétiques. Ce sont les mêmes compétences que beaucoup souhaiteraient aujourd’hui supprimer des programmes scolaires. Je suis convaincue que l’éducation devrait être plus rationnelle, plus rapide, et mieux prendre en compte les besoins du marché. Ulrika Knutson formule ainsi sa défense d’une éducation non livresque : "Nous ne sommes pas tous des lecteurs, mais nous pouvons tous nous former. On rencontre d’autres personnes, on écoute, on vit. Pour cette raison, je suis fascinée par ceux qui, au début du siècle dernier, ont mis l’accent sur le pouvoir du cerveau, du coeur et de la main."

Tout est dit. C’est ainsi ce que je voudrais répliquer aux sociologues qui nous parlaient des analphabètes, de ceux qui ignorent les théorèmes, les noms des plantes ou des animaux. Bien sûr, on peut apprendre toutes sortes de choses dans les livres, et c’est tant mieux. Mais la vie à laquelle j’aspire, c’est une union du cerveau, du coeur et de la main. C’est pour eux que je fais des recherches sur les neurosciences et que je me passionne pour tout et n’importe quoi. Pour eux que je vis intensément, entourée de nombreux amis. Pour eux que je tricote, nettoie, brode. Le cerveau, le coeur et la main.

 




Auteur: Antas Maria

Info: Faut que ça brille !

[ enseignement pratique ] [ apprentissage intégré ] [ intelligence multidimensionnelle ] [ travail manuel ] [ langage surévalué ] [ verbe surestimé ] [ transdisciplinarité ]

 

Commentaires: 0

Ajouté à la BD par miguel

neuroscience

La potentialisation à long terme (PLT - ou LTP, Long-Term Potentiation) est un processus qui se produit dans le cerveau et qui est associé au renforcement des connexions entre les neurones, qui sont les cellules responsables de la transmission des informations dans le cerveau. La PLT est considérée comme l'un des mécanismes fondamentaux de l'apprentissage et de la formation de la mémoire. 

Elle se produit selon ce processus.

1 Les neurones du cerveau communiquent entre eux par l'intermédiaire de connexions spécialisées appelées synapses. Ces synapses sont constituées d'un neurone présynaptique (neurone émetteur) et d'un neurone postsynaptique (neurone récepteur).

2 Lorsque ces neurones s'activent ensemble de manière répétée et cohérente, ils déclenchent un processus de plasticité synaptique, en particulier le PLT. Cela se produit généralement lors d'une stimulation à haute fréquence du neurone présynaptique.

3 Au cours de la PLT, certains changements se produisent au niveau de la synapse. L'un des principaux changements est l'augmentation de la force de la connexion synaptique. Cela signifie que le neurone postsynaptique devient plus sensible aux signaux du neurone présynaptique.

4 On pense que l'augmentation de la force de la synapse est due à différents mécanismes, notamment une augmentation de la libération de neurotransmetteurs (messagers chimiques) par le neurone présynaptique et des changements dans la réactivité des récepteurs sur le neurone postsynaptique.

5 Ces changements entraînent une transmission plus efficace des signaux entre les neurones, ce qui facilite la communication entre eux. Cette communication améliorée entre les neurones serait à la base de l'apprentissage et de la formation de nouveaux souvenirs.

Il doit être noté que le processus de PLT est complexe et qu'il implique divers événements moléculaires et cellulaires qui contribuent au renforcement des connexions entre les neurones, crucial pour apprendre et se souvenir.

Auteur: chatGPT4

Info: 27 juin 2023

[ capture synaptique ] [ mémorisation ] [ apprentissage ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

L'argument de la chambre chinoise de John Searle remet en question l'idée que les ordinateurs puissent véritablement comprendre le langage. Il présente un scénario dans lequel une personne dans une pièce suit des instructions en anglais pour répondre à des symboles chinois, sans réellement comprendre la signification de ces symboles. Selon Searle, cette situation est similaire à la manière dont les ordinateurs traitent l'information : ils manipulent les symboles sur la base de règles prédéfinies, mais ne les comprennent pas vraiment. Il estime que la compréhension nécessite une conscience et une intentionnalité que les machines ne possèdent pas. En substance, l'argument de Searle suggère que les ordinateurs peuvent simuler le traitement du langage, mais qu'ils ne comprennent pas vraiment le sens des symboles qu'ils manipulent. En résumé :

Un ordinateur programmé pour parler chinois ne comprend pas le chinois. Il ne fait que suivre des règles.

L'intelligence humaine comprend le chinois.

- L'intelligence artificielle ne peut donc pas être confondue avec l'intelligence humaine.


Ainsi, selon cette triple perspective : celle de chatGPT4, le point de vue "FLP post Peirce", ainsi que les règles de notre application... ce concept de chambre chinoise implique qu'une race organique comme les humains, nécessite une priméité commune, un monde partagé, afin de pouvoir réellement communiquer-traduire avec ses semblables lorsqu'ils parlent un autre idiome. Dit autrement lors d'un échange-transposition, via l'utilisation de mots symboles (qui sont des univers en eux-mêmes), les entités organiques d'une même espèce doivent partager le même univers source - même si cette idée peut apparaitre come un truisme.

Il sera certes possible d'affiner très avant tous les concepts possibles pour une machine, mais il manquera toujours à pareil logiciel hors-sol un certain nombres de compétences-capacités-attributs que possèdent les êtres organiques-grégaires. Dans le désordre : La capacité poétique, le sens du jeu avec les mots (univers eux-mêmes), du contrepied sémantique et de l'humour... Une souplesse d'adaptation tous azimuts en fonction des contextes, humeurs, vitesse du vent, etc...  Et probablement, par dessus tout, la capacité de mentir, de jouer avec les apparences.

Il est certain que lA dominera l'humain dans beaucoup de domaines hyper-complexes - où elle devra être utilisée comme outil spécialisé. Mais, pour ce qui est d'une " prise avec le réel ", d'une capacité à saisir tel ou tel langage corporel dans l'instant, de communiquer-interagir sensuellement avec un chat ou même un végétal... On demande à voir.

Ces problématiques seront probablement analysables avec un surcroit d'acuité le jour d'une rencontre avec des organiques évolués non-humains et non-issus de Gaïa.  Apprenons d'abord à mieux nous intégrer dans cette dernière, probablement par l'usage d'une nouvelle logique, tétravalente... moins dépendante de son langage... preuve en étant apportée par les capacités d'expansion-adaptation des constructions permises par le carbone tétravalent.

Auteur: Mg

Info:

[ machine-homme ] [ chatbot tiercité hors-sol ] [ apprentissage automatique ] [ transposition ] [ xénolinguistique ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

homme-machine

Illustrer l'apprentissage par renforcement à partir de commentaires humains (RLHF*)

Les modèles de langage ont montré des capacités impressionnantes au cours des dernières années en générant des textes variés et convaincants à partir d'entrées humaines. Cependant, il est difficile de définir ce qu'est un "bon" texte, car c'est subjectif et ça dépend du contexte. Il existe de nombreuses applications telles que l'écriture d'histoires où l'on recherche la créativité, des textes informatifs qui doivent être véridiques, ou des extraits de code que l'on veut exécutables.

Rédiger une fonction de perte** pour capturer ces attributs semble impossible et la plupart des modèles de langage sont encore entraînés avec une simple perte de prédiction du prochain jeton (par exemple, l'entropie croisée). Pour compenser les lacunes de la perte elle-même, les gens définissent des métriques conçues pour mieux capturer les tropismes humains, telles que BLEU ou ROUGE. Bien qu'elles soient mieux adaptées que la fonction de perte elle-même pour mesurer les performances, ces mesures comparent simplement le texte généré à des références avec des règles simples et sont donc également limitées. Ne serait-il pas formidable d'utiliser le retour d'information humain sur le texte généré comme mesure de la performance ou d'aller encore plus loin et d'utiliser ce retour d'information comme perte pour optimiser le modèle ? C'est l'idée de l'apprentissage par renforcement à partir du feedback humain (RLHF)

Le RLHF a permis aux modèles de langage de commencer à aligner un modèle formé sur un corpus général de données textuelles sur celui de valeurs humaines complexes.

Le succès le plus récent de RLHF a été son utilisation dans ChatGPT. Compte tenu des capacités impressionnantes de ChatGPT, nous lui avons demandé de nous expliquer la RLHF :  

- Peux-tu m'expliquer comment le RL (reinforcement learning) avec retour d'information humain usant un modèle linguistique comme si j'avais 5 ans.

- Bien sûr, imagine que j'ai un robot nommé Rufus qui veut apprendre à parler comme un humain.  Rufus a un modèle linguistique qui l'aide a comprendre les mots et les phrases.

Tout d'abord Rufus va dire quelque chose en usant d'un modèle de langage, par exemple en disant :  - je suis un robot

Ensuite un humain va écouter ce qu'il a dit et va donner un avis pour dire si la réponse ressemble à langage naturel d'humain. Il pourra dire, par exemple. C'est pas très bon Rufus, un humain ne dit pas de manière générale "je suis un robot" mais plutôt "j'suis un robot" ou "je suis une machine".

Rufus va prendre en compte ce retour et l'utuiliser pour améliorer son modèle de langage, il va essayer de redire la phrase en utilisant  cette correction et va dire "j'suis un robot".

Ensuite l'humain va continuer de donner des retours de ce genre et petit à petit Rufus va commencer à s'exprimer comme un humain le fait en général.

Ici Chatgtp se débrouille étonnamment bien, mais ne couvre pas tout. Nous nous chargeons de combler ces lacunes !  (La suite sur le site en Info)

Auteur: Internet

Info: Sur guithub : https://huggingface.co/blog/rlhf, Nathan Lambert, Louis Castricato guest , Leandro von Werra, Alex Havrilla guest. Le 9 décembre 2022 *Reinforcement Learning from Human Feedback ... **Courbe de perte ? (loss function) À la base, une fonction de perte est très simple : c'est une méthode permettant d'évaluer dans quelle mesure votre algorithme modélise votre ensemble de données. Si vos prédictions sont totalement erronées, votre fonction de perte affichera un chiffre élevé. Si elles sont assez bonnes, elle affichera un chiffre plus bas.  C'est une pénalité pour  mauvaise prédiction. En d'autres termes, la perte (loss) est un nombre qui indique à quel point la prédiction du modèle est mauvaise sur un seul exemple. Si la prédiction du modèle est parfaite, la perte est nulle ; elle affichera le chiffre zéro.

[ apprentissage automatique ] [ idiome consensuel ] [ anti-poésie ] [ objectivation linguistique ] [ polysémie contextualisée ] [ mathématisation ]

 

Commentaires: 0

Ajouté à la BD par miguel