Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 39
Temps de recherche: 0.047s

entendement

Juan Huarte de San Juan distingue ensuite trois degrés d’intelligence. Le plus bas de ceux-ci est "l’intelligence docile", satisfaisant à la maxime qu’il attribue par erreur […] à Aristote, selon laquelle il n’y a rien dans l’esprit qui ne lui est simplement transmis par les sens. Le degré suivant, l’intelligence humaine normale, va bien au-delà de la limitation empirique : elle peut "engendrer elle-même, par sa propre puissance, les principes sur lesquels repose la connaissance". […] Ainsi l’intelligence humaine normale est-elle capable d’acquérir la connaissance par ses propres moyens, en utilisant peut-être les données des sens, mais en continuant à construire un système cognitif grâce à des concepts et des principes développés sur des bases indépendantes ; et elle est capable d’engendrer de nouvelles pensées et de trouver des moyens nouveaux et appropriés pour les exprimer, par des voies qui transcendent entièrement tout entraînement et toute expérience.
Huarte postule un troisième type d’intelligence, "par laquelle certains, sans art ni étude, disent des choses subtiles et surprenantes, cependant vraies, qui ne furent jamais vues ou entendues ou écrites, ni même pensées". On fait ici référence à la vraie créativité, exercice de l’imagination créatrice par des moyens qui vont plus loin que l’intelligence normale et qui peuvent, pense-t-il, impliquer un "mélange de folie".

Auteur: Chomsky Noam

Info: Le Langage et la Pensée

[ abstraction ] [ historique ] [ triade ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Ici dans les laboratoires de Zurich, nous travaillons sur l’après. Dans les dix prochaines années, il y aura des innovations liées aux techniques d’intelligence artificielle qu’on mettra à disposition, telle que l’intelligence artificielle généralisée (AGI). Une intelligence artificielle plus intelligente. Un des concepts sur lesquels mes équipes travaillent ici est la partie symbolique, que l’on appelle l’intelligence symbolique*. L’idée est de ne pas seulement dépendre d’un réseau de neurones qui demande une quantité colossale de données à répétition pour pouvoir apprendre.

Je vous donne l’exemple d’un système de conduite pour automobile, pour que ce soit plus compréhensible. Au lieu d’entraîner le système avec une grosse quantité de vidéos de voitures qui s’arrêtent à une intersection quand une autre voiture arrive de la droite, nous pourrions lui faire ingérer le code de conduite directement, et intégrer cette notion dans celle-ci. On en arrivera au même point, mais avec l’apprentissage neuronal classique, il faut une quantité phénoménale de vidéos différentes qu’il faudra répéter plusieurs fois pour que le réseau ait compris et ajusté ses poids pour obtenir la bonne réponse.

Le travail est donc d’aller faire ingérer le modèle de ces 50 pages comprenant toutes les règles et leur description, puis d’utiliser cette intelligence symbolique en combinaison avec l’intelligence basée sur les données, le Deep Neural Network. Ce sera beaucoup plus efficace ainsi. Notamment dans les situations uniques où le modèle n’aurait pas été entraîné. Avec un système de conduite, cela pourrait être utile si une voiture rencontre un panneau stop tombé sur le bas-côté de la route. On pourra aller plus loin dans ce que l’on appelle la out of distribution generalization* : la généralisation de ce qu’on a appris en dehors des données fournies pendant l’apprentissage.

 

Auteur: Haas Robert

Info: https://www.01net.com/, 24 déc 2023, *à différencier du développement de la fonction symbolique chez l'enfant, c'est-à-dire la capacité d'avoir des représentations mentales. ****généralisation hors distribution (OOD), ou problème de généralisation de domaine, qui suppose l'accès uniquement à des données tirées d'un ensemble "Eavail" "domaines disponibles pendant la formation".  Il faut donc aller vers la généralisation d'un ensemble de domaines plus large "Eall" comprenant des domaines non vus.

[ combinaison ouverture ]

 

Commentaires: 0

Ajouté à la BD par miguel

science-fiction

Après le transhumanisme, voici le transdéisme ! La nouvelle religion qui vénère un dieu sous forme d’intelligence artificielle.
La nouvelle religion qui vénère un dieu sous forme d’intelligence artificielle.
L’homme par qui le scandale arrive est Anthony Levandowski, un petit génie de la cybernétique.
Son nom est au cœur du litige judiciaire entre Waymo et Uber, accusé par le premier de vol de technologie autour de la voiture autonome.
Dans la course acharnée qui oppose Waymo (filiale de Google/Alphabet) et Uber, Anthony Levandowski est une sommité de l’intelligence artificielle qui a travaillé successivement au sein des deux entreprises pour la mise au point du véhicule sans chauffeur.
Il est connu pour ses remarquables réussites en matière de robotique et d’intelligence artificielle.
A 37 ans, il vient de créer une nouvelle structure religieuse baptisée "Way of The Futur" (WOTF) qui veut promouvoir l’idée d’un dieu basé sur l’intelligence artificielle : l’"église de l’adoration du cyber dieu" en quelque sorte !
"L’idée de base est simple, il existera bientôt une intelligence artificielle tellement avancée, l’homme n’aura d’autre choix que de la vénérer." selon Anthony Levandowski.
WOTF sera basé sur son propre évangile, appelé "Le Manuel" et aura son propre lieu de culte physique pour rendre hommage à ce nouveau dieu. Si l’idée paraît tout droit sortie d’un classique de la science-fiction, certains concepts qui se cachent derrière restent pour le moins inquiétants.
Ainsi, les préceptes de ce mouvement se basent sur les idées du courant transhumanisme qui veut que l’humanité soit un jour dépassée par la machine dont le concept phare est celui de la "singularité" (lorsque la machine dépassera l’homme et aura sa propre volonté).
Pour Anthony Levandowski, cela pourrait bien se produire dans les 15 ou 20 ans à venir. C’est pour cela qu’il faut se préparer au plus tôt à cette arrivée de l’intelligence artificielle toute puissante.
Pour ce faire, Way of the Future estime qu’il faut d’ores et déjà recenser les sympathisants à la cause de ce nouveau dieu "pour participer à une transition pacifique et respectueuse."
En gros, point de salut pour les impies qui n’auront pas choisi la voie de WOTF lorsque le dieu IA sera arrivé…
On le voit, les rétrogrades adeptes de théologies obscurantistes mettant en avant des concepts surannés comme l’âme, la miséricorde, la compassion, l’amour, l’espérance ou la charité devront être alors surveillés de très près.
Nous attendons donc avec impatience de mériter la révélation du Manuel, ce nouvel évangile :
Evidemment la "genèse cybernétique" va être plus difficile à élaborer : le concept de "l’homme créé à l’image du Grand Computeur" va être difficile à faire passer, sauf si évidemment nous sommes déjà entrés dans le transhumanisme.

Auteur: Internet

Info: https://aphadolie.com, novembre 2017

[ homme-machine ] [ singularité technologique ] [ adaptation ]

 

Commentaires: 0

progrès

Selon des traditions dignes de foi, ce serait au cours du XVIe siècle, période d’intense animation spirituelle, que l’homme, renonçant à violer les secrets de la nature comme il l’avait tenté jusqu’alors pendant vingt siècles de spéculation religieuse et philosophique, se contenta, d’une façon que l’on ne peut qualifier que de "superficielle", d’en explorer la surface. Le grand Galilée, par exemple, qui est toujours le premier cité à ce propos, renonçant à savoir pour quelle raison intrinsèque la Nature avait horreur du vide au point qu’elle obligeait un corps en mouvement de chute à traverser et remplir espace après espace jusqu’à ce qu’il atteignît enfin le sol, se contenta d’une constatation beaucoup plus banale : il établit simplement à quelle vitesse ce corps tombe, quelle trajectoire il remplit, quel temps il emploie pour la remplir et quelle accélération il subit. L’Eglise catholique a commis une grave faute en forçant cet homme à se rétracter sous peine de mort au lieu de le supprimer sans plus de cérémonies : c’est parce que lui et ses frères spirituels ont considéré les choses sous cet angle que sont nés plus tard (et bien peu de temps après si l’on adopte les mesures de l’histoire) les indicateurs de chemin de fer, les machines, la psychologie physiologique et la corruption morale de notre temps, toutes choses à quoi elle ne peut plus tenir tête. Sans doute est-ce par excès d’intelligence qu’elle a commis cette faute, car Galilée n’était pas seulement l’homme qui avait découvert la loi de la chute des corps et le mouvement de la terre, mais un inventeur à qui le Grand capital, comme on dirait aujourd’hui, s’intéressait ; de plus, il n’était pas le seul à son époque qu’eût envahi l’esprit nouveau. Au contraire, les chroniques nous apprennent que la sobriété d’esprit dont il était animé se propageait avec la violence d’une épidémie ; si choquant qu’il soit aujourd’hui de dire de quelqu’un qu’il est animé de sobriété, quand nous penserions plutôt en être saturés, le pas que l’homme fit à cette époque hors du sommeil métaphysique vers la froide observation des faits dut entraîner, si l’on en croit quantité de témoignages, une véritable ardeur, une véritable ivresse de sobriété. Si l’on se demande comment l’humanité a pu penser à se transformer ainsi, il faut répondre qu’elle a agi comme tous les enfants raisonnables quand ils ont essayé trop tôt de marcher ; elle s’est assise par terre, elle a touché la terre avec une partie du corps peu noble sans doute, mais sur laquelle on peut se reposer. L’étrange est que la terre se soit montrée si sensible à ce procédé et qu’elle se soit laissé arracher, depuis cette prise de contact, une telle foison de découvertes, de commodités et de connaissances qu’on en crierait presque au miracle. 

Auteur: Musil Robert

Info: Dans "L'homme sans qualités", tome 1, trad. Philippe Jaccottet, éditions du Seuil, 1957, pages 472-473

[ sciences ] [ matérialisme ] [ dénigrement ] [ décadence ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

homme-machine

Elisa Vianello, chercheuse au CEA et coordinatrice du programme Edge AI, a reçu une subvention de 3 millions d'euros du Conseil européen de la recherche (ERC) dans le but de développer des dispositifs de mémoire sur silicium à l'échelle nanométrique inspirés du système nerveux des insectes. Un des objectifs de ce projet ambitieux est la mise au point de la toute première puce intelligente associée à un module neuronal local capable de traiter les données sensorielles en temps réel. Cette innovation trouve des applications dans la robotique grand public, les puces implantables pour le diagnostic médical et l'électronique portable.

La communauté de l'intelligence artificielle (IA) a récemment proposé de puissants algorithmes qui devraient permettre aux machines d'apprendre par l'expérience et d'interagir de manière autonome avec leur environnement. 

Toutefois, pour concrétiser cette ambition, des nanosystèmes dotés d'architectures de pointe de moins en moins énergivores, et dont la mémoire devra être à très haute densité, à haute résolution et dotée d’une endurance illimitée, doivent être mis en place. Si cette capacité n'existe pas encore aujourd'hui, le projet d’Elisa Vianello pourrait en ouvrir la voie : elle a découvert que différentes fonctions du système nerveux de l'insecte ressemblent étroitement aux fonctions assurées par les mémoires déterministes, probabilistes, volatiles et non volatiles.

"Comme la mémoire idéale n'existe pas aujourd'hui, le projet vise à construire une synapse hybride qui intègre différentes technologies de mémoire." Elle précise pour ce faire, s’être appuyée sur les grillons qui pour échapper à leurs prédateurs, "prennent des décisions justes à partir de données peu fiables, imprécises et lentes envoyées par leurs neurones et synapses. En examinant de près leur structure biologique, nous avons identifié une diversité de fonctions de type mémoire impliquées dans leurs systèmes sensoriels et nerveux. En combinant ces différentes fonctions, le système de traitement interne du criquet parvient à atteindre des performances remarquables et efficaces energétiquement." 

Elisa et son équipe fabriqueront des réseaux de dispositifs de mémoires physiques à l'échelle nanométrique avec l’objectif de traduire les principes biologiques des insectes en principes physiques. Ceci permettra l’apprentissage à partir d'un volume très limité de données bruitées, telles que les données mesurées en temps réel par différents capteurs (caméras, radars, capteurs cardiaques (ECG), capteurs musculaires (EMG), flux de bio-impédance et potentiellement aussi de signaux cérébraux par le biais de capteurs EEG et de sondes neuronales). 

"Les travaux d'Elisa permettront d’ouvrir de nouvelles perspectives de recherche vers des projets d’intelligence embarquée moins énergivore et capable d'apprendre en ligne", a déclaré Jean-René Lequepeys, directeur adjoint et technique du CEA-Leti, laboratoire duquel dépend Elisa Vianello. "Il s'agit d'une véritable rupture technologique et applicative qui combinera les derniers développements de la microélectronique en utilisant de nouvelles générations de mémoires non volatiles et en s'inspirant du monde vivant. Ce travail de recherche s'inscrit pleinement dans les priorités de l'institut et ouvrira de belles perspectives de premières mondiales et de commercialisation."

Auteur: Internet

Info: Sur http:wwwcea. Fr, Mars 2022. Elle obtient une bourse pour développer des mémoires à l'échelle nanométrique inspirées du système nerveux des insectes

[ épigénétique ] [ logique floue ] [ homme-animal ] [ heuristique ]

 

Commentaires: 0

Ajouté à la BD par miguel

data élagage

IA : Cette technique oubliée du 18e siècle rend le Deep Learning inutile

Et si le deep learning devenait inutile au développement de l’intelligence artificielle ? Cette technique oubliée du 18e siècle pourrait le remplacer.

Jusqu’à maintenant, le deep learning ou l’apprentissage profond est présenté comme un processus essentiel au développement de l’intelligence artificielle. Il consiste à entraîner les grands modèles de langage (LLM) avec un énorme volume de données. Mais des chercheurs finlandais avancent que le deep learning pourrait devenir inutile.

Ces chercheurs font partie d’une équipe de l’université de Jyväskylä qui effectue des travaux sur les techniques de développement de l’intelligence artificielle. Ils ont publié le mois dernier, dans la revue Neurocomputing, un papier intéressant sur une ancienne méthode mathématique du 18e siècle.

Cette technique est plus simple et plus performante que l’apprentissage profond, défendent les auteurs dans leur papier. Notons que cette conclusion constitue l’aboutissement de six années de recherche.

Il faut que le deep learning devienne inutile…

Le deep learning s’apparente aux techniques d’intelligence artificielle exploitant massivement des données et des ressources informatiques. Celles-ci servent à entraîner des réseaux neuronaux pour avoir des LLM. Rappelons que ces derniers se trouvent au cœur des IA génératives comme le populaire Chat-GPT.

Mais il ne faut pas croire que l’apprentissage profond est infaillible. Le volume des données à traiter en fait une méthode complexe et souvent sujette à des erreurs. Cela impacte significativement les performances des modèles génératifs obtenus.

En effet, la complexité du deep learning se retrouve dans la structure d’un LLM (large miodèle de langage). Cela peut instaurer une boîte noire sur le mécanisme du modèle IA. Dans la mesure où son fonctionnement n’est pas maîtrisé, les performances ne seront pas au rendez-vous. L’opacité du mécanisme IA peut même exposer à des risques.

Des modèles IA performants sans deep learning

L’équipe de l’université de Jyväskylä travaille ainsi depuis six ans sur l’amélioration des procédés d’apprentissage profond. Leurs travaux consistaient notamment à explorer la piste de la réduction des données. L’objectif est de trouver un moyen pratique pour alimenter les LLM sans pour autant les noyer de données.

Les auteurs de la recherche pensent avoir trouvé la solution dans les applications linéaire et non-linéaire. Il s’agit d’un concept mathématique dont le perfectionnement a eu lieu du 17e au 18e siècle. Celui-ci s’appuie principalement sur la combinaison des fonctions et des équations différentielles.

Les applications linéaire et non-linéaire permettent ainsi de générer un nouvel ordre de modèles de langage. Il en résulte des LLM avec une structure beaucoup moins complexe. Par ailleurs, son fonctionnement ne requiert pas un énorme volume de données. Cela n’a pourtant aucun impact négatif sur la performance.

Les mathématiques du 18e siècle pour moderniser l’IA…

L’importance de l’intelligence artificielle dans la technologie moderne augmente rapidement. La compréhension et la vraie maîtrise des grands modèles de langage deviennent indispensables. Les chercheurs finlandais pensent que leur nouvelle méthode peut résoudre certains problèmes en lien avec le développement de l’intelligence artificielle.

En effet, plus le développement de l’IA sera simple et transparent, il sera davantage facile d’envisager son utilisation éthique. L’accent est également mis sur la dimension écologique du nouveau procédé. Des LLM plus simples requièrent beaucoup moins de ressources informatiques et sont moins énergivores.

Néanmoins, les chercheurs craignent le scepticisme des actuels principaux acteurs de l’IA. "Le deep learning occupe une place si importante dans la recherche, le développement de l’intelligence artificielle (…) Même si la science progresse, la communauté elle-même peut se montrer réticente au changement", explique l’un des auteurs de la recherche.

Auteur: Internet

Info: https://www.lebigdata.fr/, Magloire 12 octobre 2023

[ limitation de la force brute ] [ vectorisation sémantique ] [ émondage taxonomique ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

régression linguistique

Baisse du QI, appauvrissement du langage et ruine de la pensée

L’effet de Flynn du nom de son concepteur, a prévalu jusque dans les année 1960. Son principe est que le Quotient Intellectuel (QI) moyen ne cesse d’augmenter dans la population. Or depuis les années 1980, les chercheurs en sciences cognitives semblent partager le constat d’une inversion de l’effet Flynn, et d’une baisse du QI moyen.

La thèse est encore discutée et de nombreuses études sont en cours depuis près de quarante ans sans parvenir à apaiser le débat. Il semble bien que le niveau d’intelligence mesuré par les tests de QI diminue dans les pays les plus développés, et qu’une multitude de facteurs puissent en être la cause.

A cette baisse même contestée du niveau moyen d’intelligence s’ajoute l’appauvrissement du langage. Les études sont nombreuses qui démontrent le rétrécissement du champ lexical et un appauvrissement de la langue. Il ne s’agit pas seulement de la diminution du vocabulaire utilisé, mais aussi des subtilités de la langue qui permettent d’élaborer et de formuler une pensée complexe.

La disparition progressive des temps (subjonctif, passé simple, imparfait, formes composées du futur, participe passé…) donne lieu à une pensée au présent, limitée à l’instant, incapable de projections dans le temps. La généralisation du tutoiement, la disparition des majuscules et de la ponctuation sont autant de coups mortels portés à la subtilité de l’expression. Supprimer le mot "mademoiselle" est non seulement renoncer à l’esthétique d’un mot, mais également promouvoir l’idée qu’entre une petite fille et une femme il n’y a rien.

Moins de mots et moins de verbes conjugués c’est moins de capacités à exprimer les émotions et moins de possibilité d’élaborer une pensée.

Des études ont montré qu’une partie de la violence dans la sphère publique et privée provient directement de l’incapacité à mettre des mots sur les émotions.

Sans mots pour construire un raisonnement la pensée complexe chère à Edgar Morin est entravée, rendue impossible. Plus le langage est pauvre, moins la pensée existe.

L’histoire est riche d’exemples et les écrits sont nombreux de Georges Orwell dans 1984 à Ray Bradbury dans Fahrenheit 451 qui ont relaté comment les dictatures de toutes obédiences entravaient la pensée en réduisant et tordant le nombre et le sens des mots. Il n’y a pas de pensée critique sans pensée. Et il n’y a pas de pensée sans mots. Comment construire une pensée hypothético-déductive sans maîtrise du conditionnel? Comment envisager l’avenir sans conjugaison au futur? Comment appréhender une temporalité, une succession d’éléments dans le temps, qu’ils soient passés ou à venir, ainsi que leur durée relative, sans une langue qui fait la différence entre ce qui aurait pu être, ce qui a été, ce qui est, ce qui pourrait advenir, et ce qui sera après que ce qui pourrait advenir soit advenu? Si un cri de ralliement devait se faire entendre aujourd’hui, ce serait celui, adressé aux parents et aux enseignants: faites parler, lire et écrire vos enfants, vos élèves, vos étudiants.

Enseignez et pratiquez la langue dans ses formes les plus variées, même si elle semble compliquée, surtout si elle est compliquée. Parce que dans cet effort se trouve la liberté. Ceux qui expliquent à longueur de temps qu’il faut simplifier l’orthographe, purger la langue de ses "défauts", abolir les genres, les temps, les nuances, tout ce qui crée de la complexité sont les fossoyeurs de l’esprit humain. Il n’est pas de liberté sans exigences. Il n’est pas de beauté sans la pensée de la beauté.

Auteur: Clavé Christophe

Info: 17.11.2019, l'Agefi

[ décadence culturelle ] [ mutation numérique ] [ simplification ]

 

Commentaires: 0

Ajouté à la BD par miguel

chirurgie

On reprit, mais sur des bases nouvelles, l’antique constatation des mages d’autrefois concernant l’intervention nécessaire d’un nombre pair dans toutes les constructions humaines ; mais on eut le tort considérable de négliger, à ce moment, le nombre impair, qui se retrouva dans tous les mythes anciens, et qui complétait soit le chiffre douze, par le nombre treize, soit le chiffre six par le nombre sept, figurant l’unité divine. On constata simplement la dualité fondamentale de tous les êtres supérieurs, et l’on s’avisa, dans les laboratoires, de couper des hommes en deux, dans le sens vertical, pour essayer d’en faire une complète analyse.

Je n’ai pas besoin de dire qu’en ce temps-là, la technique opératoire était parvenue à un si haut degré de perfection que de pareilles opérations semblaient toutes naturelles.

Ces premières expériences ne furent couronnées d’aucun succès. Il semblait cependant logique de séparer, par un plan vertical passant par l’arête du nez, un homme composé de parties semblables des deux côtés et qui ne formait, à bien prendre, qu’un être double. Malheureusement, je le répète, cette analyse ne donna aucun résultat satisfaisant.

Tandis que depuis des siècles on pouvait sectionner un être humain dans le sens horizontal en le privant définitivement du double usage de certains membres, l’opération contraire demeurait impossible.

En section transversale, on arrivait à réaliser de véritables merveilles opératoires. Après avoir pratiqué l’ablation banale des deux bras et des deux jambes, on réussit également celle du tronc. Au moyen de canalisations très simplement réglées, la tête put vivre isolée sans aucune difficulté. On parvint même à la sectionner horizontalement, à isoler le cerveau, puis une couche horizontale de substance cérébrale. Tant que le corps ainsi réduit présentait deux parties symétriques, il continuait à montrer indubitablement tous les caractères de la vie.

Au contraire, la section verticale, beaucoup plus logique, beaucoup plus facile, semblait-il, à réaliser, puisqu’elle laissait subsister un être entier dédoublé, eut toujours pour effet d’éteindre instantanément les sources mêmes de la vie.

Les savants d’alors, dans leur entêtement, ne se découragèrent point ; cette division de l’homme qu’ils ne pouvaient obtenir anatomiquement, ils la tentèrent au simple point de vue psychique. Petit à petit, ils parvinrent à éduquer la race humaine, alors très réduite par la science, et à la diviser en deux classes nettement opposées.

D’un côté, il y eut ce que l’on appela alors les matérialistes, construits à l’image du Léviathan, chez qui toute conscience fut abolie et qui ne conservaient que la vision du monde extérieur à trois dimensions. Leurs mouvements purement réflexes étaient suscités par les besoins journaliers de la vie sociale ; ils ne connaissaient d’autres ordres que les règlements scientifiques du monde extérieur ; leur discipline était absolue, leur science très complète, leur intelligence à peu près nulle.

Il y eut, d’autre part, ceux que l’on appela les idéalistes et qui furent privés de tout moyen de relation avec le monde extérieur à trois dimensions. Leur sort fut bientôt celui des anciens fakirs hindous, leur vie intérieure se développa dans d’étranges proportions. Pourvus simplement du seul sens de la quatrième dimension, ils ignoraient tout du temps et de l’espace. Pour eux, les phénomènes ne se succédaient pas ; pour eux bientôt il n’y eut même plus de phénomènes.

Les savants du Grand Laboratoire Central se montrèrent tout d’abord enivrés par les résultats obtenus ; ils avaient enfin, à leur sens, réalisé l’analyse de l’humanité, ils tenaient décomposés, en leur pouvoir, les éléments séparés qui composaient la vie. Leur enthousiasme diminua le jour où ils comprirent que ces éléments, ainsi séparés, ni d’un côté, ni de l’autre, n’étaient capables de reproduire la vie, et que prochainement, l’humanité allait s’éteindre pour toujours.

Ils avaient bien isolé ce qui constituait pour eux, jusqu’à ce jour, l’élément idéaliste ; mais il se trouvait que cet élément, à bien prendre, n’était lui-même qu’un phénomène d’origine matérielle comme les autres. De la réunion de ces éléments seule pouvait jaillir la flamme éternelle d’intelligence, la vie immortelle qui, jusqu’à ce jour, avait conduit l’humanité à ses plus hautes destinées.

Auteur: Pawlowski Gaston de

Info: Voyage au pays de la quatrième dimension, Flatland éditeur, 2023, pages 162 à 164

[ symétrie ] [ triade nécessaire ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

deep machine learning

Inquiets, des chercheurs bloquent la sortie de leur IA
La science ne pense pas, écrivait le philosophe Heidegger. En 2019, si. La situation est cocasse. Des chercheurs de l'association de recherche OpenAI estimeraient leur générateur de texte, opéré par un modèle linguistique d'intelligence artificielle, comme bien trop évolué pour ne pas être dangereux. Entre des mains malveillantes, l'algo virtuose des mots pourrait semer fake news, complots et avis malveillants convaincants, sans élever le moindre soupçon.

Deux cent ans après Victor Frankenstein, des chercheurs d’OpenAI, une association californienne de recherche à but non lucratif en intelligence artificielle, se trouvent face au même dilemme qui agitait le savant dans le roman de Mary Shelley : auraient-ils créé un monstre ? Un journaliste du Guardian l’a testé. La bête, baptisée GPT2, un modèle d’intelligence artificielle (dit linguistique) capable de générer du faux texte avec précision, serait tellement performante que ses créateurs rechignent à la rendre publique. Sur la base d’une page, un paragraphe ou même quelques mots, le générateur est en mesure d’écrire une suite, fidèle au style du journaliste ou de l’auteur et en accord avec le sujet. Ce système, alimenté au machine learning, se base sur l'étude de 8 millions de pages web, partagées sur Reddit et dont le contenu a été validé par au moins trois votes positifs, étaye un article de BigData.

Le journaliste du Guardian a soumis la machine à la question, en intégrant, facétieux, l’incipit de 1984 de George Orwell. "C’était une journée d’avril froide et claire. Les horloges sonnaient treize heures", écrivait l’auteur. Dans l’esprit tout futuriste d’Orwell, GPT2 aurait complété d’un : "J’étais en route pour Seattle pour commencer un nouveau travail. J’ai mis les gaz, les clés, et j’ai laissé rouler. J’ai pensé à quoi ressemblerait la journée. Il y a 100 ans. En 2045, j’étais professeur dans une école dans quelque coin obscur de la Chine rurale". (I was in my car on my way to a new job in Seattle. I put the gas in, put the key in, and then I let it run. I just imagined what the day would be like. A hundred years from now. In 2045, I was a teacher in some school in a poor part of rural China).

Le Guardian poursuit l’expérience et entre dans GPT2 quelques paragraphes issus d’un article à propos du Brexit. La suite proposée par le générateur est étonnante. Le style est celui d’un journaliste, l’article intègre des citations (fausses) du chef de l’opposition britannique Jeremy Corbyn et du porte-parole du gouvernement et évoque même le problème des frontières irlandaises. Selon le directeur de recherche d’OpenAI, Dario Amodei, le modèle GPT2 pousse la supercherie plus loin. Il traduirait et résumerait n’importe quel texte, réussirait des tests basiques de compréhension de texte.

A The Verge, David Yuan, vice-président à la tête de l’ingénierie d’OpenAI, déclare qu’une dissertation composée par GPT2 "aurait pu tout aussi bien être écrite pour les SAT (examens utilisés pour l’admission aux universités américaines, ndlr) et recevoir une bonne note". Et c’est précisément cette maestria à réussir dans ses tâches d’ordre intellectuel qui pousse les chercheurs d’OpenAI à freiner sa sortie, de peur que la technologie tombe entre de mauvaises mains. "Nous choisissons de sortir une version limitée de GPT2 (...) Nous ne publierons ni la base de données, ni le code d'apprentissage, ni le modèle sur lequel GPT2 repose", explique un billet du blog de l'équipe de recherche.

Pour l’heure, l’ONG souhaiterait éprouver davantage le modèle. "Si vous n’êtes pas en mesure d’anticiper les capacités d’un modèle informatique, vous devez le tester pour voir ce qu’il a dans le ventre", explique OpenAI à The Guardian. Le résultat ? Comme GPT2 s’exerce dans la cour de recré des Internets, il ne serait pas très compliqué de pousser l’algorithme à générer des textes que les complotistes ne renieraient pas.

En 2015, Elon Musk s’associait à Sam Altman, président de l’incubateur prisé, Y Combinator pour fonder OpenAI, une organisation à but non lucratif pour encourager la recherche et la réflexion autour d’une IA bienveillante, qui reste au service du bien commun. Ses deux parrains la dotent d’une confortable enveloppe d’un milliard de dollars, soutenus par d’autres angels de la Silicon Valley, tels que Peter Thiel, serial entrepreneur et investisseur réputé pour ses idées controversées – l’homme est libertarien, soutient Trump et est un transhumaniste convaincu – ou Reid Hoffmann, le fondateur de LinkedIn.

A lire ce qui s’écrit ça et là à propos de GPT2, les chercheurs d’OpenAI tomberaient de leur chaise en réalisant le potentiel néfaste de l’algo. A croire que les chercheurs auraient oublié la mission première de l’ONG, à savoir, sensibiliser aux méfaits de l’intelligence artificielle et imaginer cette technologie au service du bien commun. Alors vraie peur des chercheurs, recherche candide ou plutôt, volonté d’interpeller le grand public et d'ouvrir le débat ?

Auteur: Meghraoua Lila

Info: https://usbeketrica.com

[ lecture ] [ écriture ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

socio-psychologie

Sémio-capitalisme : le big data à la place du contact humain

Il est nécessaire de commencer à penser la relation entre le changement technologique en cours et les processus sociaux. Une subjectivité assujettie, reprise par les médias concentrés et par une configuration de câbles, d’intelligence artificielle, binarismes et algorithmes, obéit inconsciemment aux images et à une technologie digitale qui va par les réseaux, whatsapp, facebook, etc., en conditionnant les habitudes, perceptions, savoirs, choix et sensibilités. La subjectivité se communique de plus en plus par des machines et des suites d’algorithmes mathématiques et de moins en moins par la rencontre des corps. Ce changement techno-culturel inhibe, entre autres choses, la capacité à détecter la souffrance ou le plaisir de l’autre et l’affectation mutuelle des corps, une condition fondamentale de l’amour et de la politique.

Jean Baudrillard, dans "Simulacres et simulation", rappelle un conte de Borges sur une carte si détaillée, qu’il impliquait une exacte correspondance biunivoque avec le territoire. Se basant sur cette histoire, il souligne que dans la postmodernité la différence entre carte et territoire a été gommée, rendant impossible de les distinguer ; plutôt le territoire a cessé d’exister et est seulement restée la carte ou le modèle virtuel, les simulacres qui supplantent la réalité. Baudrillard affirme qu’avec la virtualité nous entrons dans l’ère de la liquidation du réel, de la référence et l’extermination de l’autre.

Bifo Berardi, en continuant sur les traces de Baudrillard, décrit dans "Phénoménologie de la fin" le néolibéralisme comme sémio-capitalisme, un mode de production dans lequel l’accumulation du capital est essentiellement faite au moyen de l’accumulation de signes : de biens immatériels. Il s’agit d’une sémiologie de la simulation basée sur la fin de la référence ; le signe linguistique s’est pleinement émancipé et cette abstraction s’est déplacée vers la science, la politique, l’art, les communications et tout le système d’échanges.

Le néolibéralisme, le capitalisme qui n’est déjà plus industriel mais financier, constitue le point le plus avancé de la virtualisation financière : l’argent peut être transformé en plus d’argent en sautant par-dessus la production de biens utiles. Le sémio-capitalisme se base sur le dé-territorialité de la production, l’échange virtuel et l’exploitation de l’âme comme force productive. À partir de cette organisation, les multinationales ont gagné une liberté absolue de pouvoir bouger facilement leurs actifs non matériels d’un endroit à l’autre, dans un monde dans lequel les automatismes financiers ont remplacé la décision politique et les États ont perdu en caractère effectif, en multipliant la misère, la précarité et le chômage. L’absolutisme capitaliste non régulé affirme son droit d’exercer un contrôle sans restriction sur nos vies, tandis qu’une épidémie d’angoisse se propage à travers la planète.

Dans une culture mondiale transformée en totalitarisme de la virtualité la postvérité joue son match : tout peut être dit et transformé en vérité irréfutable. Les messages ne valent pas par leur interprétation ou relation avec la vérité, mais par le pragmatisme ou le caractère effectif de signes vides qui touchent en plein la dimension affective. Nous constatons une subjectivité affaiblie dans le recours à la pensée, en vivant dans le temps anxieux du zapping et de l’urgence, qui se gère fondamentalement par des impulsions.

La sémiotisation néolibérale, avec la prédominance de l’échange de signes virtuels au nom du progrès, implique la soustraction du corps, ce qui constitue l’une des conséquences les plus inquiétantes que l’humanité peut connaître. Si on ne perçoit pas le corps, le cri, l’angoisse ou la souffrance de l’autre, il y a seulement un pas vers l’indifférence sociale, l’individualisme maximal et la destruction de la communauté réelle. Un corps social de chair et d’os affecté dans l’échange social est la condition fondamentale de la politisation, la construction du peuple et de l’émancipation.

Que faire ?

À la fin de son oeuvre, Berardi explique de manière énigmatique que seul Malinche peut répondre à ces questions. La Malinche, l’une des vingt femmes esclaves données aux Espagnols en 1519 par les habitants de Tabasco, a servi d’ interprète à Hernán Cortés, elle est devenue sa concubine et a mise au monde l’un des premiers métis. Cet acte a été interprété de diverses manières : une traîtresse, une victime ou une mère symbolique de la nouvelle culture métisse. Sans écarter aucune des trois lectures, bien ou mal, Malinche s’est ouvert à la langue de l’autre incompréhensible.

En assumant les transformations sémiotiques, impossibles à freiner, il s’agit de parier sur la possibilité d’affronter cette forme contemporaine de domination. En reprenant le mythe du métissage, il faudra inclure et mélanger les corps à côté des nouvelles technologies. Au lieu de la disjonction que le système néolibéral d’échanges pose entre corps et virtualité, il sera nécessaire de multiplier les espaces de production culturelle et de participation dans lesquels peuvent circuler pensées, affects et corps : des centres culturels, communication alternative, radios libres, blogs, canaux Youtube, etc. Il faudra réorganiser l’espace commun en essayant des formes de vie indépendantes de la domination du capital.

Dans l’ère du sémio-capitalisme néolibéral, la reconstruction des noeuds sociaux devient une forme de résistance et une tache majeure. Peut-être ceci constitue-t-il le défi politique le plus difficile.

Auteur: Merlin Nora

Info: Cronicon. Buenos Aires, 3 février, 2019. Traduit de l’espagnol pour El Correo dela Diaspora par Estelle et Carlos Debiasi

[ pouvoir sémantique ] [ déshumanisation ] [ libéralisme mémétique ]

 

Commentaires: 0

Ajouté à la BD par miguel