Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 6
Temps de recherche: 0.0322s

intelligence artificielle

Alors que Chomsky s'est concentré sur une grammaire innée et l'utilisation de la logique, le Deep Learning s'intéresse au sens. Il s'avère que la grammaire n'est que la cerise sur le gâteau. Ce qui compte vraiment, c'est notre intention (l'obectif) : c'est surtout le choix des mots qui détermine ce que nous voulons dire, et le sens associé peut être appris.

Auteur: Bengio Yoshua

Info:

[ homme-machine ] [ sémantique ] [ apprentissage automatique profond ]

 
Commentaires: 2
Ajouté à la BD par miguel

justice

Les Africains ne connaissent qu’un seul moyen pour rétablir l’équilibre infiniment changeant des circonstances. Il faut concéder une réparation. Comme l’eau qui afflue là où le niveau a baissé, ils cherchent à combler les trous creusés par le destin, et les motifs d’un acte ne les intéressent quasiment pas. Si quelqu’un surprend son ennemi en pleine nuit et lui tranche la gorge, ou si on écrase un passant imprudent en abattant un arbre, les conséquences sont les mêmes. La société a subi un préjudice qu’il faut réparer le mieux possible. L’Africain ne se soucie pas de la question de responsabilité ou d’intérêt, soit qu’il considère que cela risquerait de se révéler une tâche interminable, soit parce qu’il juge que cela ne le concerne pas. En revanche, il se plonge dans des calculs complexes pour déterminer comment un crime ou un accident sera réparé par un tel nombre de chèvres ou de moutons. 

Auteur: Blixen Karen

Info: La ferme africaine (Out of Africa), 1937, éditions Gallimard, 1942, coll. Folio, 2006

[ subsahara ] [ Afrique ] [ législation ] [ tribalisme ] [ pragmatisme ]

 

Commentaires: 0

Ajouté à la BD par miguel

illusion du contrôle

"Donner vie" à un enfant fabriqué, à l’inverse de "donner la vie", est un abus de pouvoir. Si mon concepteur choisit mes caractères génétiques selon son propre désir, il détermine en partie ma personne physique et ma personnalité morale et devient pour moi la figure du destin. D’autant plus que je suis censé être en dette envers lui pour ses choix, forcément les meilleurs pour moi. Y compris s’il m’a programmé sourd (ou nain) pour lui ressembler, à l’image de ce couple de lesbiennes canadiennes qui a utilisé le sperme d’un ami sourd congénital pour produire deux enfants également sourds (les banques de sperme refusant les gamètes des handicapés). D’où les relations despotiques entre programmeur et programmé : des liens de subordination implacables.

Certes nous dépendons d’autrui pour devenir un humain, un animal social, dans un monde façonné par d’autres avant nous. Mais tout homme reçoit sa liberté d’action avec sa naissance. L’humanité renaît avec chaque homme. Par le seul fait de sa naissance, chacun peut créer un "commencement" (Arendt), c’est-à-dire agir en étant davantage que le produit d’une socialisation.

En éliminant le hasard, le design de l’enfant détruit les fondements de cette liberté. Mais pour les transhumanistes ennemis de l’imprévu, la liberté est un choix de consommateur entre des modèles plus ou moins interchangeables, en libre-service, et garantis sur facture.

Auteur: PMO Pièces et main-d'oeuvre

Info: Dans "Alertez les bébés ! ", éditions Service compris, 2020, pages 54-55

[ pseudo-démiurge ] [ procréation médicalement assistée ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

homme-machine

Ici dans les laboratoires de Zurich, nous travaillons sur l’après. Dans les dix prochaines années, il y aura des innovations liées aux techniques d’intelligence artificielle qu’on mettra à disposition, telle que l’intelligence artificielle généralisée (AGI). Une intelligence artificielle plus intelligente. Un des concepts sur lesquels mes équipes travaillent ici est la partie symbolique, que l’on appelle l’intelligence symbolique*. L’idée est de ne pas seulement dépendre d’un réseau de neurones qui demande une quantité colossale de données à répétition pour pouvoir apprendre.

Je vous donne l’exemple d’un système de conduite pour automobile, pour que ce soit plus compréhensible. Au lieu d’entraîner le système avec une grosse quantité de vidéos de voitures qui s’arrêtent à une intersection quand une autre voiture arrive de la droite, nous pourrions lui faire ingérer le code de conduite directement, et intégrer cette notion dans celle-ci. On en arrivera au même point, mais avec l’apprentissage neuronal classique, il faut une quantité phénoménale de vidéos différentes qu’il faudra répéter plusieurs fois pour que le réseau ait compris et ajusté ses poids pour obtenir la bonne réponse.

Le travail est donc d’aller faire ingérer le modèle de ces 50 pages comprenant toutes les règles et leur description, puis d’utiliser cette intelligence symbolique en combinaison avec l’intelligence basée sur les données, le Deep Neural Network. Ce sera beaucoup plus efficace ainsi. Notamment dans les situations uniques où le modèle n’aurait pas été entraîné. Avec un système de conduite, cela pourrait être utile si une voiture rencontre un panneau stop tombé sur le bas-côté de la route. On pourra aller plus loin dans ce que l’on appelle la out of distribution generalization* : la généralisation de ce qu’on a appris en dehors des données fournies pendant l’apprentissage.

 

Auteur: Haas Robert

Info: https://www.01net.com/, 24 déc 2023, *à différencier du développement de la fonction symbolique chez l'enfant, c'est-à-dire la capacité d'avoir des représentations mentales. ****généralisation hors distribution (OOD), ou problème de généralisation de domaine, qui suppose l'accès uniquement à des données tirées d'un ensemble "Eavail" "domaines disponibles pendant la formation".  Il faut donc aller vers la généralisation d'un ensemble de domaines plus large "Eall" comprenant des domaines non vus.

[ combinaison ouverture ]

 

Commentaires: 0

Ajouté à la BD par miguel

philosophie

Le De inventione est le premier ouvrage de Cicéron sur la rhétorique ; il l’a écrit une trentaine d’années avant le De oratore, en même temps à peu près que l’auteur inconnu de l’Ad Herennium rédigeait son manuel. Le De inventione ne nous apprend rien de nouveau des idées de Cicéron sur la mémoire artificielle, car le livre ne s’occupe que de la première partie de la rhétorique, l’inventio, découverte ou mise au point du sujet d’un discours, l’assemblage des "choses" dont il va traiter. Le De inventione devait jouer cependant un rôle important dans l’histoire postérieure de l’art de la mémoire, car c’est à partir des définitions que donne Cicéron des vertus dans cet ouvrage, que la mémoire artificielle est devenue au Moyen Age une partie de la vertu cardinale de la Prudence.

Vers la fin du De inventione, Cicéron définit la vertu comme une "disposition d’esprit en harmonie avec la raison et l’ordre du monde", définition stoïcienne de la vertu. Il affirme alors que la vertu a quatre parties, la Prudence, la Justice, la Constance et la Tempérance. […]

Les définitions que donne Cicéron des vertus et de leurs parties ont été une source très importante pour la formation de ce que l’on appela plus tard les quatre vertus cardinales. Quand Albert le Grand et saint Thomas d’Aquin analysent les vertus dans leurs Summae, ils citent la définition donnée par "Tullius" pour les trois parties de la Prudence. Et le fait que "Tullius" fasse de la mémoire une partie de la Prudence fut la raison essentielle de la considération qu’ils avaient pour la mémoire artificielle. Le raisonnement avait une belle symétrie et il était lié au fait que le Moyen Age associait le De inventione et l’Ad Herennium en y voyant deux œuvres de Tullius ; les deux œuvres étaient connues respectivement sous le nom de Prima et Seconda Rhetorica de Tullius. [...] C'est sous la rubrique de la mémoire comme élément de la Prudence qu'Albert le Grand et saint Thomas d'Aquin citent et analysent les règles de la mémoire artificielle.

Auteur: Yates Frances Amelia

Info: L'art de la mémoire, de l’anglais par Daniel Arasse, éditions Gallimard, 2022, pages 43 à 45

[ théologie ] [ historique ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

data élagage

IA : Cette technique oubliée du 18e siècle rend le Deep Learning inutile

Et si le deep learning devenait inutile au développement de l’intelligence artificielle ? Cette technique oubliée du 18e siècle pourrait le remplacer.

Jusqu’à maintenant, le deep learning ou l’apprentissage profond est présenté comme un processus essentiel au développement de l’intelligence artificielle. Il consiste à entraîner les grands modèles de langage (LLM) avec un énorme volume de données. Mais des chercheurs finlandais avancent que le deep learning pourrait devenir inutile.

Ces chercheurs font partie d’une équipe de l’université de Jyväskylä qui effectue des travaux sur les techniques de développement de l’intelligence artificielle. Ils ont publié le mois dernier, dans la revue Neurocomputing, un papier intéressant sur une ancienne méthode mathématique du 18e siècle.

Cette technique est plus simple et plus performante que l’apprentissage profond, défendent les auteurs dans leur papier. Notons que cette conclusion constitue l’aboutissement de six années de recherche.

Il faut que le deep learning devienne inutile…

Le deep learning s’apparente aux techniques d’intelligence artificielle exploitant massivement des données et des ressources informatiques. Celles-ci servent à entraîner des réseaux neuronaux pour avoir des LLM. Rappelons que ces derniers se trouvent au cœur des IA génératives comme le populaire Chat-GPT.

Mais il ne faut pas croire que l’apprentissage profond est infaillible. Le volume des données à traiter en fait une méthode complexe et souvent sujette à des erreurs. Cela impacte significativement les performances des modèles génératifs obtenus.

En effet, la complexité du deep learning se retrouve dans la structure d’un LLM (large miodèle de langage). Cela peut instaurer une boîte noire sur le mécanisme du modèle IA. Dans la mesure où son fonctionnement n’est pas maîtrisé, les performances ne seront pas au rendez-vous. L’opacité du mécanisme IA peut même exposer à des risques.

Des modèles IA performants sans deep learning

L’équipe de l’université de Jyväskylä travaille ainsi depuis six ans sur l’amélioration des procédés d’apprentissage profond. Leurs travaux consistaient notamment à explorer la piste de la réduction des données. L’objectif est de trouver un moyen pratique pour alimenter les LLM sans pour autant les noyer de données.

Les auteurs de la recherche pensent avoir trouvé la solution dans les applications linéaire et non-linéaire. Il s’agit d’un concept mathématique dont le perfectionnement a eu lieu du 17e au 18e siècle. Celui-ci s’appuie principalement sur la combinaison des fonctions et des équations différentielles.

Les applications linéaire et non-linéaire permettent ainsi de générer un nouvel ordre de modèles de langage. Il en résulte des LLM avec une structure beaucoup moins complexe. Par ailleurs, son fonctionnement ne requiert pas un énorme volume de données. Cela n’a pourtant aucun impact négatif sur la performance.

Les mathématiques du 18e siècle pour moderniser l’IA…

L’importance de l’intelligence artificielle dans la technologie moderne augmente rapidement. La compréhension et la vraie maîtrise des grands modèles de langage deviennent indispensables. Les chercheurs finlandais pensent que leur nouvelle méthode peut résoudre certains problèmes en lien avec le développement de l’intelligence artificielle.

En effet, plus le développement de l’IA sera simple et transparent, il sera davantage facile d’envisager son utilisation éthique. L’accent est également mis sur la dimension écologique du nouveau procédé. Des LLM plus simples requièrent beaucoup moins de ressources informatiques et sont moins énergivores.

Néanmoins, les chercheurs craignent le scepticisme des actuels principaux acteurs de l’IA. "Le deep learning occupe une place si importante dans la recherche, le développement de l’intelligence artificielle (…) Même si la science progresse, la communauté elle-même peut se montrer réticente au changement", explique l’un des auteurs de la recherche.

Auteur: Internet

Info: https://www.lebigdata.fr/, Magloire 12 octobre 2023

[ limitation de la force brute ] [ vectorisation sémantique ] [ émondage taxonomique ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste