Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 154
Temps de recherche: 0.0544s

réseaux sociaux

L’Américaine Sarah T. Roberts a écrit, après huit ans de recherches, "Behind The Screen" (Yale university press), un livre sur le travail des modérateurs. Elle en a rencontré des dizaines, chargés de nettoyer les grandes plates-formes (Facebook, YouTube, etc.) des pires contenus, et entourés d’une culture du secret.

C’est un métier dont on ne connaît pas encore bien les contours, et qui est pourtant au coeur du fonctionnement des grandes plates-formes du Web : les modérateurs sont chargés de les débarrasser des contenus postés par les utilisateurs (photos, vidéos, commentaires, etc.) qu’elles interdisent. Répartis dans des open spaces aux quatre coins du monde, gérés par des sous-traitants, ces milliers de petites mains examinent, tout au long de leur journée de travail, les pires contenus qui circulent sur Internet, et décident de leur sort.

Nous l’avons interviewée lors de son passage à Paris pour participer à un cycle de conférences sur "le côté obscur du travail", organisé à la Gaîté-Lyrique, à Paris.

(MT) - Les géants du Web (Facebook, YouTube, Twitter, etc.) sont très réticents à parler de la façon dont ils modèrent les contenus. Pourquoi ?

- Quand ces entreprises ont été lancées il y a une quinzaine d’années, la dernière chose qu’elles voulaient, c’était d’avoir à prendre des décisions sur le contenu. Elles se concentraient sur les technologies, et se présentaient auprès des pouvoirs publics américains comme faisant partie de la catégorie "fournisseurs d’accès à Internet". Cela leur a permis d’affirmer que le contenu n’était pas leur coeur de métier, et d’avancer sans qu’on ne leur demande de rendre des comptes.

Ce positionnement leur a permis de grandir. Il fallait donc que les décisions que prenaient ces entreprises du Web sur le contenu restent secrètes. Elles vendaient cette idée aux utilisateurs qu’il n’y avait aucune intervention, que vous pouviez vous exprimer sur YouTube ou Facebook sans aucune barrière. Elles ne voulaient pas qu’il y ait un astérisque, elles ne voulaient pas entrer dans les détails. Il y a pourtant eu, dès leurs débuts, des contenus supprimés.

(MT) - Dans votre livre, vous allez jusqu’à dire que ces entreprises "effacent les traces humaines" de la modération. C’est une formule très forte…

-Ces entreprises pensent profondément que les solutions informatiques sont meilleures que les autres, et il y a cette idée chez elles qu’il y aura bientôt une technologie assez forte pour remplacer ces travailleurs. Elles semblent dire "ne nous habituons pas trop à l’idée qu’il y a des humains, c’est juste temporaire".

De plus, si les utilisateurs savaient qu’il y avait des humains impliqués, ils demanderaient des explications. Et ces entreprises ne voulaient pas être responsables de ces décisions. Elles ont donc choisi de rendre ce processus invisible et croisé les doigts pour que les gens ne posent pas trop de questions.

(MT) - La modération est un travail difficile. Quels sont les risques auxquels sont confrontés ces travailleurs ?
- Il y en a plusieurs, à commencer par les risques psychologiques. Les modérateurs à qui j’ai parlé me disaient souvent : "Je suis capable de faire ce travail, des gens sont partis au bout de deux semaines. Mais moi, je suis fort." Et quelques minutes plus tard, ils me disaient "je buvais beaucoup" ou "je ne veux plus sortir avec des amis, car on parle toujours de travail, et je ne veux pas en parler, et d’ailleurs je n’en ai pas le droit".

Quand des gens me disent qu’ils ne peuvent pas cesser de penser à une image ou une vidéo qu’ils ont vue au travail, c’est inquiétant. Une femme, qui était modératrice il y a une quinzaine d’années pour Myspace, m’a dit qu’elle n’aimait pas rencontrer de nouvelles personnes et leur serrer la main. "Je sais ce que les gens font, et ils sont ignobles. Je n’ai plus confiance en qui que ce soit."

Il y a aussi d’autres choses difficiles, qui paraissent moins évidentes. Vous devez être très cultivé pour être un bon modérateur, beaucoup ont fait des études de littérature, d’économie, d’histoire, parfois dans des universités prestigieuses. Mais c’est considéré comme un travail de bas niveau, assez mal payé.

(MT) - Comment les conditions de travail des modérateurs ont-elles évolué ?
- C’est difficile à dire, ce sont souvent des conditions de call centers : d’un point de vue purement matériel, c’est relativement confortable. Aux Philippines, des gens travaillent dans des gratte-ciel avec l’air conditionné, ce qui est important là-bas.

(MT) - Mais... En quoi cela change quelque chose à ce qu’ils voient tous les jours ?
- Certaines entreprises ont mis à disposition des psychologues. Mais les employés sont méfiants : quand le psychologue est payé par votre employeur, cela crée une relation compliquée, ça peut être difficile pour le travailleur de s’ouvrir sincèrement.

(MT) - Mais si ces entreprises ne mettaient pas de psychologues à disposition, on le leur reprocherait…
- C’est vrai. Mais est-ce vraiment efficace ou est-ce juste pour faire joli ? Un modérateur m’a dit : "Le problème, c’est que si je me lève pour aller parler au psychologue, mon manager et mes collègues me voient tous me lever et comprennent que j’ai un problème. Je ne veux pas qu’ils le sachent." Et puis, ce sont des solutions de court terme.

(MT) - Que devraient faire ces entreprises pour assurer le bien-être de leurs salariés ?
- Pour commencer, ils pourraient les payer davantage. Ensuite, le fait que leur travail ne soit pas reconnu est très dur pour eux, tout comme les accords de confidentialité. Tout cela fait qu’ils ont peur de parler de leur travail, qu’ils ne soient pas en lien avec les autres. Ils ne savent même pas qui sont les autres modérateurs. Ce sont des choses qui pourraient facilement changer. Et sur la psychologie, il faudrait étudier les effets de ce travail sur le long terme. Il n’existe aucune étude de ce type, à ma connaissance.

(MT) - Pourrait-on se passer de modérateurs ? A quoi ressemblerait Internet sans eux ?
- Au forum 4chan [connu pour sa modération très faible, et la virulence de certains de ses membres anonymes] ? Ce serait pire ! La plupart des gens ne veulent pas de ça, et doivent donc avoir à faire à des modérateurs. Or les internautes passent beaucoup de temps sur les grandes plates-formes mainstream, financées par la publicité, et le fait qu’ils ne comprennent pas comment ces espaces sont modérés est problématique, car cela reflète des valeurs.

L’idée d’un Internet sans modération n’a pas beaucoup existé. Certes, j’ai donné l’exemple de 4chan. Mais à un moment donné il y a eu une décision, à 4chan, que l’approche serait de tout laisser passer. C’est une posture idéologique là aussi. Et il est important de noter que c’est ce que veulent certaines personnes.

(MT) - Vous écrivez que ce sujet de recherche représente "le travail d’une vie". Quels aspects de la modération vous intéressent le plus pour la suite ?
- C’est le travail d’une vie parce que cela change tout le temps : Facebook change ses règles toutes les deux semaines ! Et si aujourd’hui on a 100 000 personnes qui travaillent comme modérateurs, où en sera-t-on dans deux, cinq ou dix ans ?

Je m’intéresse aussi beaucoup à la question de la régulation de ces entreprises. Ainsi qu’à la façon dont les Américains ont adopté depuis quinze ans ces technologies. Nous approchons de l’élection présidentielle de 2020, et ces plates-formes sont très impliquées, on a eu des déclarations intéressantes de Facebook sur la véracité des informations diffusées… Tout cela est d’une certaine manière lié à la question de la modération. Ces entreprises sont désormais considérées comme responsables, alors qu’elles n’ont jamais voulu l’être ! Devoir gérer ça est leur pire cauchemar, et elles doivent désormais le faire tout le temps.

Auteur: Tual Morgane

Info: Propos recueillis par MT, 11 janvier 2020, www.lemonde.fr. Sujet : Sarah T. Roberts : "Les géants du Web ont choisi de rendre le processus de modération invisible"

[ homme-machine ]

 

Commentaires: 0

Ajouté à la BD par miguel

machine-homme

Les algorithmes traditionnels alimentent des outils de calcul compliqués comme l'apprentissage automatique (machine learning). Une nouvelle approche, appelée algorithmes avec prédictions, utilise la puissance de l'apprentissage automatique pour améliorer les algorithmes.

Les algorithmes - morceaux de code qui permettent aux programmes de trier, filtrer et combiner des données, entre autres choses - sont les outils standard de l'informatique moderne. Tels de minuscules engrenages dans une montre, les algorithmes exécutent des tâches bien définies au sein de programmes plus complexes.

Ils sont omniprésents, et c'est en partie pour cette raison qu'ils ont été minutieusement optimisés au fil du temps. Lorsqu'un programmeur doit trier une liste, par exemple, il se sert d'un algorithme de "tri" standard utilisé depuis des décennies.

Aujourd'hui, des chercheurs jettent un regard neuf sur les algorithmes traditionnels, en utilisant la branche de l'IA , donc du machine learning. Leur approche, appelée "algorithmes avec prédictions", tire parti des informations que les outils d'apprentissage automatique peuvent fournir sur les données traitées par les algorithmes traditionnels. Ces outils doivent, en quelque sorte, rajeunir la recherche sur les algorithmes de base.

L'apprentissage automatique et les algorithmes traditionnels sont "deux façons très différentes de calculer, et les algorithmes avec prédictions sont un moyen de les rapprocher", a déclaré Piotr Indyk, informaticien au Massachusetts Institute of Technology. "C'est un moyen de combiner ces deux fils conducteurs assez différents".

La récente explosion d'intérêt pour cette approche a commencé en 2018 avec un article de Tim Kraska, informaticien au MIT, et d'une équipe de chercheurs de Google. Dans cet article, les auteurs ont suggéré que l'apprentissage automatique pourrait améliorer un algorithme traditionnel bien étudié appelé filtre de Bloom, qui résout un problème simple mais aussi complexe et ardu.

Imaginez que vous dirigez le service informatique de votre entreprise et que vous devez vérifier si vos employés se rendent sur des sites web présentant un risque pour la sécurité. Naïvement, vous pourriez penser que vous devez vérifier chaque site qu'ils visitent en le comparant à une liste noire de sites connus. Si la liste est énorme (comme c'est probablement le cas pour les sites indésirables sur Internet), le problème devient lourd - on ne peut vérifier chaque site par rapport à une liste énorme dans le minuscule lapts de temps qui précède le chargement d'une page Internet.

Le filtre Bloom offre une solution, en permettant de vérifier rapidement et précisément si l'adresse d'un site particulier, ou URL, figure sur la liste noire. Pour ce faire, il comprime essentiellement l'énorme liste en une liste plus petite qui offre certaines garanties spécifiques.

Les filtres Bloom ne produisent jamais de faux négatifs : s'ils disent qu'un site est mauvais, il est mauvais. Cependant, ils peuvent produire des faux positifs, de sorte que vos employés ne pourront peut-être pas visiter des sites auxquels ils devraient avoir accès. Cela s'explique par le fait qu'ils s'agit d'une forme d'échange qui implique une certaine imprécision due à cette énorme quantité de données compressées -  astuce intitulée "compression avec perte". Plus les filtres Bloom compriment les données d'origine, moins ils sont précis, mais plus ils économisent de l'espace.

Pour un simple filtre Bloom, chaque site Web est également suspect jusqu'à confirmaton qu'il ne figure pas sur la liste. Mais tous les sites Web ne sont pas égaux : Certains ont plus de chances que d'autres de se retrouver sur une liste noire, simplement en raison de détails comme leur domaine ou les mots de leur URL. Les gens comprennent cela intuitivement, et c'est pourquoi vous lisez probablement les URL pour vous assurer qu'elles sont sûres avant de cliquer dessus.

L'équipe de Kraska a mis au point un algorithme qui peut également appliquer ce type de logique. Ils l'ont appelé "filtre de Bloom instruit" et il combine un petit filtre de Bloom avec un réseau neuronal récurrent (RNN), modèle de machine learning qui apprend à quoi ressemblent les URL malveillantes après avoir été exposées à des centaines de milliers de sites web sûrs et non sûrs.

Lorsque le filtre Bloom vérifie un site web, le RNN agit en premier et utilise son apprentissage pour déterminer si le site figure sur la liste noire. Si le RNN indique que le site figure sur la liste, le filtre Bloom appris le rejette. Mais si le RNN dit que le site n'est pas sur la liste, alors le petit filtre Bloom peut à son tour, faire une recherche précise, mais irréfléchie, dans ses sites compressés.

En plaçant le filtre Bloom à la fin du processus et en lui donnant le dernier mot, les chercheurs ont fait en sorte que les filtres Bloom instruits puissent toujours garantir l'absence de faux négatifs. Mais comme le RNN préfiltre les vrais positifs à l'aide de ce qu'il a appris, le petit filtre de Bloom agit davantage comme une sauvegarde, en limitant également ses faux positifs au minimum. Un site Web bénin qui aurait pu être bloqué par un filtre Bloom de plus grande taille peut désormais passer outre le "filtre Bloom iinstruit" plus précis. En fait, Kraska et son équipe ont trouvé un moyen de tirer parti de deux méthodes éprouvées, mais traditionnellement distinctes, d'aborder le même problème pour obtenir des résultats plus rapides et plus précis.

L'équipe de Kraska a démontré que la nouvelle approche fonctionnait, mais elle n'a pas formellement expliqué pourquoi. Cette tâche a été confiée à Michael Mitzenmacher, spécialiste des filtres de Bloom à l'université de Harvard, qui a trouvé l'article de Kraska "novateur et passionnant", mais aussi fondamentalement insatisfaisant. "Ils font des expériences en disant que leurs algorithmes fonctionnent mieux. Mais qu'est-ce que cela signifie exactement ?" a-t-il demandé. "Comment le savons-nous ?"

En 2019, Mitzenmacher a proposé une définition formelle d'un filtre de Bloom INSTRUIT et a analysé ses propriétés mathématiques, fournissant une théorie qui explique exactement comment il fonctionne. Et alors que Kraska et son équipe ont montré que cela pouvait fonctionner dans un cas, Mitzenmacher a prouvé que cela pouvait toujours fonctionner.

Mitzenmacher a également amélioré les filtres de Bloom appris. Il a montré que l'ajout d'un autre filtre de Bloom standard au processus, cette fois avant le RNN, peut pré-filtrer les cas négatifs et faciliter le travail du classificateur. Il a ensuite prouvé qu'il s'agissait d'une amélioration en utilisant la théorie qu'il a développée.

Les débuts des algorithmes avec prédiction ont suivi ce chemin cyclique : des idées novatrices, comme les filtres de Bloom appris, inspirent des résultats mathématiques rigoureux et une compréhension, qui à leur tour conduisent à d'autres idées nouvelles. Au cours des dernières années, les chercheurs ont montré comment intégrer les algorithmes avec prédictions dans les algorithmes d'ordonnancement, la conception de puces et la recherche de séquences d'ADN.

Outre les gains de performance, ce domaine fait également progresser une approche de l'informatique de plus en plus populaire : rendre les algorithmes plus efficaces en les concevant pour des utilisations typiques.

À l'heure actuelle, les informaticiens conçoivent souvent leurs algorithmes pour qu'ils réussissent dans le scénario le plus difficile, celui conçu par un adversaire qui tente de les faire échouer. Par exemple, imaginez que vous essayez de vérifier la sécurité d'un site web sur les virus informatiques. Le site est peut-être inoffensif, mais il contient le terme "virus informatique" dans l'URL et le titre de la page. La confusion est telle que même les algorithmes les plus sophistiqués ne savent plus où donner de la tête.

Indyk appelle cela une approche paranoïaque. "Dans la vie réelle, dit-il, les entrées ne sont généralement pas générées par des adversaires." La plupart des sites Web que les employés visitent, par exemple, ne sont pas aussi compliqués que notre hypothétique page de virus, et il est donc plus facile pour un algorithme de les classer. En ignorant les pires scénarios, les chercheurs peuvent concevoir des algorithmes adaptés aux situations qu'ils sont susceptibles de rencontrer. Par exemple, alors qu'à l'heure actuelle, les bases de données traitent toutes les données de la même manière, les algorithmes avec prédiction pourraient conduire à des bases de données qui structurent le stockage de leurs données en fonction de leur contenu et de leur utilisation.

Et ce n'est encore qu'un début, car les programmes qui utilisent l'apprentissage automatique pour améliorer leurs algorithmes ne le font généralement que de manière limitée. Comme le filtre de Bloom, la plupart de ces nouvelles structures n'intègrent qu'un seul élément d'apprentissage automatique. M. Kraska imagine un système entier construit à partir de plusieurs pièces distinctes, dont chacune repose sur des algorithmes avec des prédictions et dont les interactions sont régulées par des composants améliorés par les prédictions.

"Tirer parti de cela aura un impact sur de nombreux domaines".

Gageons qu'avec de tels systèmes, un site comme FLP se retrouve à peu près certain de ne jamais être accepté par un filtre de Bloom - ou un filtre de Bloom instruit. Qui sont - objectivement - des instruments de contrôle, et donc de fermeture.  (Note du traducteur).

Auteur: Internet

Info: Nick Thieme, https://www.quantamagazine.org, A I, Machine Learning Reimagines the Building Blocks of Computing, March 15, 2022. Trad Mg

[ censure numérique ] [ triage web ] [ citation s'appliquant à ce logiciel ]

 

Commentaires: 0

Ajouté à la BD par miguel

évolution technologique

Intelligence artificielle ou stupidité réelle ?

Bien que le battage médiatique augmente la sensibilisation à l'IA, il facilite également certaines activités assez stupides et peut distraire les gens de la plupart des progrès réels qui sont réalisés.
Distinguer la réalité des manchettes plus dramatiques promet d'offrir des avantages importants aux investisseurs, aux entrepreneurs et aux consommateurs.

L'intelligence artificielle a acquis sa notoriété récente en grande partie grâce à des succès très médiatisés tels que la victoire d'IBM Watson à Jeopardy et celle de Google AlphaGo qui a battu le champion du monde au jeu "Go". Waymo, Tesla et d'autres ont également fait de grands progrès avec les véhicules auto-propulsés. Richard Waters a rendu compte de l'étendue des applications de l'IA dans le Financial Times : "S'il y a un message unificateur qui sous-tend la technologie grand public exposée [au Consumer Electronics Show] .... c'est : "L'IA partout."

Les succès retentissants de l'IA ont également capturé l'imagination des gens à un tel point que cela a suscité d'autres efforts d'envergure. Un exemple instructif a été documenté par Thomas H. Davenport et Rajeev Ronanki dans le Harvard Business Review. Ils écrirent, "En 2013, le MD Anderson Cancer Center a lancé un projet ""Moon shot " : diagnostiquer et recommander des plans de traitement pour certaines formes de cancer en utilisant le système cognitif Watson d'IBM". Malheureusement, ce système n'a pas fonctionné et en 2017 le projet fut mis en veilleuse après avoir coûté plus de 62 millions de dollars sans avoir été utilisé pour les patients.

Waters a également abordé un autre message, celui des attentes modérées. En ce qui concerne les "assistants personnels à commande vocale", note-t-elle, "on ne sait pas encore si la technologie est capable de remplacer le smartphone pour naviguer dans le monde numérique autrement autrement que pour écouter de la musique ou vérifier les nouvelles et la météo".

D'autres exemples de prévisions modérées abondent. Generva Allen du Baylor College of Medicine et de l'Université Rice a avertit , "Je ne ferais pas confiance à une très grande partie des découvertes actuellement faites qui utilisent des techniques de machine learning appliquées à de grands ensembles de données". Le problème, c'est que bon nombre des techniques sont conçues pour fournir des réponses précises et que la recherche comporte des incertitudes. Elle a précisé : "Parfois, il serait beaucoup plus utile qu'ils reconnaissent que certains sont vraiment consolidés, mais qu'on est pas sûr pour beaucoup d'autres".

Pire encore, dans les cas extrêmes, l'IA n'est pas seulement sous-performante ; elle n'a même pas encore été mise en œuvre. Le FT rapporte, "Quatre jeunes entreprises européennes sur dix n'utilisent aucun programme d'intelligence artificielle dans leurs produits, selon un rapport qui souligne le battage publicitaire autour de cette technologie.

Les cycles d'attentes excessives suivies de vagues de déception ne sont pas surprenants pour ceux qui ont côtoyé l'intelligence artificielle pendant un certain temps. Ils savent que ce n'est pas le premier rodéo de l'IA. En effet, une grande partie du travail conceptuel date des années 1950. D'ailleurs, en passant en revue certaines de mes notes récentes je suis tombé sur une pièce qui explorait les réseaux neuronaux dans le but de choisir des actions - datant de 1993.

La meilleure façon d'avoir une perspective sur l'IA est d'aller directement à la source et Martin Ford nous en donne l'occasion dans son livre, Architects of Intelligence. Organisé sous la forme d'une succession d'entrevues avec des chercheurs, des universitaires et des entrepreneurs de premier plan de l'industrie, le livre présente un historique utile de l'IA et met en lumière les principaux courants de pensée.

Deux perspectives importantes se dégagent de ce livre.

La première est qu'en dépit des origines et des personnalités disparates des personnes interrogées, il existe un large consensus sur des sujets importants.

L'autre est qu'un grand nombre des priorités et des préoccupations des principales recherches sur l'IA sont bien différentes de celles exprimées dans les médias grand public.

Prenons par exemple le concept d'intelligence générale artificielle (AGI). Qui est étroitement lié à la notion de "singularité" ce point où l'IA rejoindra celle de l'homme - avant un dépassement massif de cette dernière. Cette idée et d'autres ont suscité des préoccupations au sujet de l'IA, tout comme les pertes massives d'emplois, les drones tueurs et une foule d'autres manifestations alarmantes.

Les principaux chercheurs en AI ont des points de vue très différents ; ils ne sont pas du tout perturbés par l'AGI et autres alarmismes.

Geoffrey Hinton, professeur d'informatique à l'Université de Toronto et vice-président et chercheur chez Google, dit : "Si votre question est : Quand allons-nous obtenir un commandant-docteur Data (comme dans Star Trek ) je ne crois pas que ce sera comme çà que ça va se faire. Je ne pense pas qu'on aura des programmes uniques et généralistes comme ça."

Yoshua Bengio, professeur d'informatique et de recherche opérationnelle à l'Université de Montréal, nous dit qu'il y a des problèmes très difficiles et que nous sommes très loin de l'IA au niveau humain. Il ajoute : "Nous sommes tous excités parce que nous avons fait beaucoup de progrès dans cette ascension, mais en nous approchant du sommet, nous apercevons d'autres collines qui s'élèvent devant nous au fur et à mesure".

Barbara Grosz, professeur de sciences naturelles à l'Université de Harvard : "Je ne pense pas que l'AGI soit la bonne direction à prendre". Elle soutient que la poursuite de l'AGI (et la gestion de ses conséquences) sont si loin dans l'avenir qu'elles ne sont que "distraction".

Un autre fil conducteur des recherches sur l'IA est la croyance que l'IA devrait être utilisée pour améliorer le travail humain plutôt que le remplacer.

Cynthia Breazeal, directrice du groupe de robots personnels du laboratoire de médias du MIT, aborde la question : "La question est de savoir quelle est la synergie, quelle est la complémentarité, quelle est l'amélioration qui permet d'étendre nos capacités humaines en termes d'objectifs, ce qui nous permet d'avoir vraiment un plus grand impact dans le monde, avec l'IA."

Fei-Fei Li, professeur d'informatique à Stanford et scientifique en chef pour Google Cloud dit lui : "L'IA en tant que technologie a énormément de potentiel pour valoriser et améliorer le travail, sans le remplacer".

James Manyika, président du conseil et directeur du McKinsey Global Institute, fait remarquer que puisque 60 % des professions ont environ un tiers de leurs activités qui sont automatisables et que seulement environ 10 % des professions ont plus de 90 % automatisables, "beaucoup plus de professions seront complétées ou augmentées par des technologies qu'elles ne seront remplacées".

De plus, l'IA ne peut améliorer le travail humain que si elle peut travailler efficacement de concert avec lui.

Barbara Grosz fait remarquer : "J'ai dit à un moment donné que 'les systèmes d'IA sont meilleurs s'ils sont conçus en pensant aux gens'". Je recommande que nous visions à construire un système qui soit un bon partenaire d'équipe et qui fonctionne si bien avec nous que nous ne nous rendions pas compte qu'il n'est pas humain".

David Ferrucci, fondateur d'Elemental Cognition et directeur d'IA appliquée chez Bridgewater Associates, déclare : " L'avenir que nous envisageons chez Elemental Cognition repose sur une collaboration étroite et fluide entre l'intelligence humaine et la machine. "Nous pensons que c'est un partenariat de pensée." Yoshua Bengio nous rappelle cependant les défis à relever pour former un tel partenariat : "Il ne s'agit pas seulement de la précision [avec l'IA], il s'agit de comprendre le contexte humain, et les ordinateurs n'ont absolument aucun indice à ce sujet."

Il est intéressant de constater qu'il y a beaucoup de consensus sur des idées clés telles que l'AGI n'est pas un objectif particulièrement utile en ce moment, l'IA devrait être utilisée pour améliorer et non remplacer le travail et l'IA devrait fonctionner en collaboration avec des personnes. Il est également intéressant de constater que ces mêmes leçons sont confirmées par l'expérience des entreprises.

Richard Waters décrit comment les implémentations de l'intelligence artificielle en sont encore à un stade assez rudimentaire.

Éliminez les recherches qui monopolisent les gros titres (un ordinateur qui peut battre les humains au Go !) et la technologie demeure à un stade très primaire .

Mais au-delà de cette "consumérisation" de l'IT, qui a mis davantage d'outils faciles à utiliser entre les mains, la refonte des systèmes et processus internes dans une entreprise demande beaucoup de travail.

Ce gros travail prend du temps et peu d'entreprises semblent présentes sur le terrain. Ginni Rometty, responsable d'IBM, qualifie les applications de ses clients d'"actes aléatoires du numérique" et qualifie nombre de projets de "hit and miss". (ratages). Andrew Moore, responsable de l'intelligence artificielle pour les activités de Google Cloud business, la décrit comme "intelligence artificielle artisanale". Rometty explique : "Ils ont tendance à partir d'un ensemble de données isolé ou d'un cas d'utilisation - comme la rationalisation des interactions avec un groupe particulier de clients. Tout ceci n'est pas lié aux systèmes, données ou flux de travail plus profonds d'une entreprise, ce qui limite leur impact."

Bien que le cas HBR du MD Anderson Cancer Center soit un bon exemple d'un projet d'IA "au clair de lune "qui a probablement dépassé les bornes, cela fournit également une excellente indication des types de travail que l'IA peut améliorer de façon significative. En même temps que le centre essayait d'appliquer l'IA au traitement du cancer, son "groupe informatique expérimentait l'utilisation des technologies cognitives pour des tâches beaucoup moins ambitieuses, telles que faire des recommandations d'hôtels et de restaurants pour les familles des patients, déterminer quels patients avaient besoin d'aide pour payer leurs factures, et résoudre les problèmes informatiques du personnel".

Dans cette entreprise, le centre a eu de bien meilleures expériences : "Les nouveaux systèmes ont contribué à accroître la satisfaction des patients, à améliorer le rendement financier et à réduire le temps consacré à la saisie fastidieuse des données par les gestionnaires de soins de l'hôpital. De telles fonctions banales ne sont peut-être pas exactement du ressort de Terminator, mais elles sont quand même importantes.

Optimiser l'IA dans le but d'augmenter le travail en collaborant avec les humains était également le point central d'une pièce de H. James Wilson et Paul R. Daugherty "HBRpiece". Ils soulignent : "Certes, de nombreuses entreprises ont utilisé l'intelligence artificielle pour automatiser leurs processus, mais celles qui l'utilisent principalement pour déplacer leurs employés ne verront que des gains de productivité à court terme. Grâce à cette intelligence collaborative, l'homme et l'IA renforcent activement les forces complémentaires de l'autre : le leadership, le travail d'équipe, la créativité et les compétences sociales de la première, la rapidité, l'évolutivité et les capacités quantitatives de la seconde".

Wilson et Daugherty précisent : "Pour tirer pleinement parti de cette collaboration, les entreprises doivent comprendre comment les humains peuvent le plus efficacement augmenter les machines, comment les machines peuvent améliorer ce que les humains font le mieux, et comment redéfinir les processus commerciaux pour soutenir le partenariat". Cela demande beaucoup de travail et cela va bien au-delà du simple fait de balancer un système d'IA dans un environnement de travail préexistant.

Les idées des principaux chercheurs en intelligence artificielle, combinées aux réalités des applications du monde réel, offrent des implications utiles. La première est que l'IA est une arme à double tranchant : le battage médiatique peut causer des distractions et une mauvaise attribution, mais les capacités sont trop importantes pour les ignorer.

Ben Hunt discute des rôles de la propriété intellectuelle (PI) et de l'intelligence artificielle dans le secteur des investissements, et ses commentaires sont largement pertinents pour d'autres secteurs. Il note : "L'utilité de la propriété intellectuelle pour préserver le pouvoir de fixation des prix est beaucoup moins fonction de la meilleure stratégie que la PI vous aide à établir, et beaucoup plus fonction de la façon dont la propriété intellectuelle s'intègre dans le l'esprit du temps (Zeitgeist) dominant dans votre secteur.

Il poursuit en expliquant que le "POURQUOI" de votre PI doit "répondre aux attentes de vos clients quant au fonctionnement de la PI" afin de protéger votre produit. Si vous ne correspondez pas à l'esprit du temps, personne ne croira que les murs de votre château existent, même si c'est le cas". Dans le domaine de l'investissement (et bien d'autres encore), "PERSONNE ne considère plus le cerveau humain comme une propriété intellectuelle défendable. Personne." En d'autres termes, si vous n'utilisez pas l'IA, vous n'obtiendrez pas de pouvoir de fixation des prix, quels que soient les résultats réels.

Cela fait allusion à un problème encore plus grave avec l'IA : trop de gens ne sont tout simplement pas prêts à y faire face.

Daniela Rus, directrice du laboratoire d'informatique et d'intelligence artificielle (CSAIL) du MIT déclare : "Je veux être une optimiste technologique. Je tiens à dire que je vois la technologie comme quelque chose qui a le potentiel énorme d'unir les gens plutôt que les diviser, et de les autonomiser plutôt que de les désolidariser. Mais pour y parvenir, nous devons faire progresser la science et l'ingénierie afin de rendre la technologie plus performante et plus utilisable." Nous devons revoir notre façon d'éduquer les gens afin de nous assurer que tous ont les outils et les compétences nécessaires pour tirer parti de la technologie.

Yann Lecun ajoute : "Nous n'aurons pas de large diffusion de la technologie de l'IA à moins qu'une proportion importante de la population ne soit formée pour en tirer parti ".

Cynthia Breazeal répéte : "Dans une société de plus en plus alimentée par l'IA, nous avons besoin d'une société alphabétisée à l'IA."

Ce ne sont pas non plus des déclarations creuses ; il existe une vaste gamme de matériel d'apprentissage gratuit pour l'IA disponible en ligne pour encourager la participation sur le terrain.

Si la société ne rattrape pas la réalité de l'IA, il y aura des conséquences.

Brezeal note : "Les craintes des gens à propos de l'IA peuvent être manipulées parce qu'ils ne la comprennent pas."

Lecun souligne : " Il y a une concentration du pouvoir. À l'heure actuelle, la recherche sur l'IA est très publique et ouverte, mais à l'heure actuelle, elle est largement déployée par un nombre relativement restreint d'entreprises. Il faudra un certain temps avant que ce ne soit utilisé par une plus grande partie de l'économie et c'est une redistribution des cartes du pouvoir."

Hinton souligne une autre conséquence : "Le problème se situe au niveau des systèmes sociaux et la question de savoir si nous allons avoir un système social qui partage équitablement... Tout cela n'a rien à voir avec la technologie".

À bien des égards, l'IA est donc un signal d'alarme. En raison de l'interrelation unique de l'IA avec l'humanité, l'IA a tendance à faire ressortir ses meilleurs et ses pires éléments. Certes, des progrès considérables sont réalisés sur le plan technologique, ce qui promet de fournir des outils toujours plus puissants pour résoudre des problèmes difficiles. Cependant, ces promesses sont également limitées par la capacité des gens, et de la société dans son ensemble, d'adopter les outils d'IA et de les déployer de manière efficace.

Des preuves récentes suggèrent que nous avons du pain sur la planche pour nous préparer à une société améliorée par l'IA. Dans un cas rapporté par le FT, UBS a créé des "algorithmes de recommandation" (tels que ceux utilisés par Netflix pour les films) afin de proposer des transactions pour ses clients. Bien que la technologie existe, il est difficile de comprendre en quoi cette application est utile à la société, même de loin.

Dans un autre cas, Richard Waters nous rappelle : "Cela fait presque dix ans, par exemple, que Google a fait trembler le monde de l'automobile avec son premier prototype de voiture autopropulsée". Il continue : "La première vague de la technologie des voitures sans conducteur est presque prête à faire son entrée sur le marché, mais certains constructeurs automobiles et sociétés de technologie ne semblent plus aussi désireux de faire le grand saut. Bref, ils sont menacés parce que la technologie actuelle est à "un niveau d'autonomie qui fait peur aux constructeurs automobiles, mais qui fait aussi peur aux législateurs et aux régulateurs".

En résumé, que vous soyez investisseur, homme d'affaires, employé ou consommateur, l'IA a le potentiel de rendre les choses bien meilleures - et bien pires. Afin de tirer le meilleur parti de cette opportunité, un effort actif axé sur l'éducation est un excellent point de départ. Pour que les promesses d'AI se concrétisent, il faudra aussi déployer beaucoup d'efforts pour mettre en place des infrastructures de systèmes et cartographier les forces complémentaires. En d'autres termes, il est préférable de considérer l'IA comme un long voyage plutôt que comme une destination à court terme.

Auteur: Internet

Info: Zero Hedge, Ven, 03/15/2019 - 21:10

[ prospective ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Notre cerveau à l’heure des nouvelles lectures

Maryanne Wolf, directrice du Centre de recherche sur la lecture et le langage de l’université Tufts est l’auteur de Proust et le Calmar (en référence à la façon dont ces animaux développent leurs réseaux de neurones, que nous avions déjà évoqué en 2009). Sur la scène des Entretiens du Nouveau Monde industriel au Centre Pompidou, la spécialiste dans le développement de l’enfant est venue évoquer "la modification de notre cerveau-lecteur au 21e siècle"

Comment lisons-nous ?

"Le cerveau humain n’était pas programmé pour être capable de lire. Il était fait pour sentir, parler, entendre, regarder… Mais nous n’étions pas programmés génétiquement pour apprendre à lire". Comme l’explique le neuroscientifique français Stanislas Dehaene (Wikipédia) dans son livre Les neurones de la lecture, nous avons utilisé notre cerveau pour identifier des modèles. C’est l’invention culturelle qui a transformé notre cerveau, qui a relié et connecté nos neurones entre eux, qui leur a appris à travailler en groupes de neurones spécialisés, notamment pour déchiffrer la reconnaissance de formes. La reconnaissance des formes et des modèles a permis la naissance des premiers symboles logographiques, permettant de symboliser ce qu’on voyait qui nous mènera des peintures rupestres aux premières tablettes sumériennes. Avec l’invention de l’alphabet, l’homme inventera le principe que chaque mot est un son et que chaque son peut-être signifié par un symbole. Le cerveau lecteur consiste donc à la fois à être capable de "voir", décoder des informations, des motifs et à les traiter pour pouvoir penser et avoir une réflexion.

Pour autant, le circuit de la lecture n’est pas homogène. Quand on observe à l’imagerie cérébrale un anglais qui lit de l’anglais, un chinois qui lit du chinois ou le Kanji, un Japonais qui lit le Kana japonais, on se rend compte que ces lectures activent des zones sensiblement différentes selon les formes d’écritures. Ce qui signifie qu’il y a plusieurs circuits de lecture dans notre cerveau. Le cerveau est plastique et il se réarrange de multiples façons pour lire, dépendant à la fois du système d’écriture et du médium utilisé. "Nous sommes ce que nous lisons et ce que nous lisons nous façonne" Ce qui explique aussi que chaque enfant qui apprend à lire doit développer son propre circuit de lecture.

Ce qui stimule le plus notre cerveau, selon l’imagerie médicale, c’est d’abord jouer une pièce au piano puis lire un poème très difficile, explique Maryanne Wolf. Car la lecture profonde nécessite une forme de concentration experte. Comme le souligne Proust dans Sur la lecture : "Nous sentons très bien que notre sagesse commence où celle de l’auteur finit, et nous voudrions qu’il nous donnât des réponses, quand tout ce qu’il peut faire est de nous donner des désirs. Et ces désirs, il ne peut les éveiller en nous qu’en nous faisant contempler la beauté suprême à laquelle le dernier effort de son art lui a permis d’atteindre. Mais par une loi singulière et d’ailleurs providentielle de l’optique des esprits (loi qui signifie peut-être que nous ne pouvons recevoir la vérité de personne, et que nous devons la créer nous-mêmes), ce qui est le terme de leur sagesse ne nous apparaît que comme le commencement de la nôtre, de sorte que c’est au moment où ils nous ont dit tout ce qu’ils pouvaient nous dire qu’ils font naître en nous le sentiment qu’ils ne nous ont encore rien dit."

La lenteur, la concentration et le processus cognitif encouragent le cerveau lecteur. La déduction, la pensée analogique, l’analyse critique, la délibération, la perspicacité, l’épiphanie (c’est-à-dire la compréhension soudaine de l’essence et de la signification de quelque chose) et la contemplation sont quelques-unes des merveilleuses conséquences de notre capacité à lire la pensée d’un autre.

Pourquoi la lecture numérique est-elle différente ?

Est-ce que ce que nous savons de notre cerveau lecteur éclaire ce que nous ne savons pas de la lecture à l’heure de la culture numérique ? Quelles sont les implications profondes sur la plasticité de nos circuits de lecture à mesure que nous utilisons des médiums dominés par le numérique ?

En 2008, dans une interview pour Wired, quelques mois avant d’écrire son célèbre article, "Est-ce que Google nous rend idiot ?", Nicholas Carr expliquait : "La chose la plus effrayante dans la vision de Stanley Kubrick n’était pas que les ordinateurs commencent à agir comme les gens, mais que les gens commencent à agir comme des ordinateurs. Nous commençons à traiter l’information comme si nous étions des noeuds, tout est question de vitesse de localisation et de lecture de données. Nous transférons notre intelligence dans la machine, et la machine transfère sa façon de penser en nous."

Les caractéristiques cognitives de la lecture en ligne ne sont pas les mêmes que celle de la lecture profonde, estime Maryanne Wolf. Avec le numérique, notre attention et notre concentration sont partielles, moins soutenues. Notre capacité de lecture se fixe sur l’immédiateté et la vitesse de traitement. Nous privilégions une forme de lecture qui nous permet de faire plusieurs tâches en même temps dans des larges ensembles d’information. Les supports numériques ont tendance à rendre notre lecture physique (tactile, interactions sensorielles…) tandis que le lire nous plonge plutôt dans un processus cognitif profond. Pour la spécialiste, il semble impossible de s’immerger dans l’hypertexte. Reprenant les propos de Carr, "l’écrémage est la nouvelle normalité", assène-t-elle. "Avec le numérique, on scanne, on navigue, on rebondit, on repère. Nous avons tendance à bouger, à cliquer et cela réduit notre attention profonde, notre capacité à avoir une lecture concentrée. Nous avons tendance à porter plus d’attention à l’image. Nous avons tendance à moins internaliser la connaissance et à plus dépendre de sources extérieures."

Les travaux d’imagerie cérébrale sur les effets cognitifs du multitâche montrent que même si on peut apprendre en étant distraits cela modifie notre façon d’apprendre rendant l’apprentissage moins efficace et utile estime le professeur de psychologie et neurobiologie Russ Poldrack. Les facteurs tactiles et matériels ont aussi une importance. On ne peut s’immerger dans l’hypertexte de la même façon qu’on pouvait se perdre dans un livre, estime la spécialiste de la lecture Anne Mangen du Centre sur la lecture de l’université de Stavanger. Plusieurs études ont montré que notre niveau de compréhension entre l’écran et l’imprimé se faisait toujours au détriment du numérique, rappelle Maryanne Wolf. Mais peut-être faudrait-il nuancer les propos de Maryanne Wolf et souligner, comme nous l’avions déjà rappelé lors de la publication de la charge de Nicholas Carr que les les protocoles d’expérimentation des neuroscientifiques défendent souvent des thèses. La science et l’imagerie médicale semblent convoquées pour apporter des preuves. Alors que les différences de protocoles entre une étude l’autre, la petitesse des populations étudiées, nécessiterait beaucoup de prudence dans les conclusions.

Reste que pour comprendre cette différence entre papier et électronique, estime Maryanne Wolf, il nous faut comprendre comment se forme notre capacité de lecture profonde. Est-ce que la lecture superficielle et notre attente continue d’informations externes seront les nouvelles menaces des lectures numériques ? Ces deux risques vont-ils court-circuiter notre "cerveau lecteur" ? Est-ce que la construction de l’imaginaire de l’enfance va être remplacée par celle, externe, que tous les nouveaux supports offrent ? …

"Nous ne reviendrons pas en arrière, nous ne reviendrons pas à un temps prénumérique", insiste Maryanne Wolf. "Ce n’est ni envisageable, ni enviable, ni faisable."

"Mais nous ne devrions pas accepter une embardée vers l’avant sans comprendre ce que le "répertoire cognitif" de notre espèce risque de perdre ou de gagner."
 "Ce serait une honte si la technologie la plus brillante que nous ayons développée devait finir par menacer le genre d’intelligence qui l’a produite", estime l’historien des technologies Edward Tenner. Et Maryanne Wolf de nous montrer trois enfants assis dans un canapé, avec chacun son ordinateur sur ses genoux. C’est l’image même qui inspire notre peur de demain. Celle-là même qu’évoquait l’anthropologue Stefana Broadbent à Lift 2012. Sauf que l’anthropologue, elle, nous montrait qu’on était là confronté là à une représentation sociale… une interrogation totalement absente du discours alarmiste de Maryanne Wolf, qui compare l’activité cognitive de cerveaux habitués à la lecture traditionnelle, avec celle de cerveaux qui découvrent les modalités du numérique.

Le numérique a bien un défaut majeur, celui d’introduire dans notre rapport culturel même des modalités de distraction infinies. Comme nous le confiait déjà Laurent Cohen en 2009, l’écran ou le papier ne changent rien à la capacité de lecture. Mais c’est le réseau qui pose problème et ce d’autant plus quand il apporte une distraction permanente, permettant toujours de faire autre chose que ce que l’on compte faire.

Si la lecture profonde peut se faire tout autant sur papier qu’à travers le réseau, le principal problème qu’induit le numérique, c’est la possibilité de distraction induite par l’outil lui-même, qui demande, pour y faire face, un contrôle de soi plus exigeant.

Notre avenir cognitif en sursis ?

Alors, comment résoudre ce paradoxe, se demande Maryanne Wolf. Comment pouvons-nous éviter de "court-circuiter" notre capacité à lire en profondeur, tout en acquérant les nouvelles compétences nécessaires pour le 21e siècle ?

Un premier pas peut-être fait en ayant conscience de nos limites, estime Maryanne Wolf. Rappelons-nous que notre cerveau n’a jamais été programmé génétiquement pour lire. Que chaque lecteur doit construire ses propres circuits de lecture. Que nos circuits de lecture sont plastiques et influencés par les médiums et les systèmes d’écriture que nous utilisons. Notre cerveau-lecteur est capable à la fois des plus superficielles et des plus profondes formes de lecture, de ressenti et de pensées.

Nous pouvons deviner que l’accès à l’information ne va cesser d’augmenter. Mais nous ne savons pas si l’accès immédiat à de vastes quantités d’informations va transformer la nature du processus de lecture interne, à savoir la compréhension profonde et l’internalisation de la connaissance.

Pour le dire autrement, notre cerveau est d’une plasticité totale, mais cela ne veut pas dire que nous allons perdre telle ou telle capacité d’attention, alors que celles-ci ont plus que jamais une importance sociale. Pour l’instant, pourrions-nous répondre à Maryanne Wolf, ce que le cerveau lecteur nous a le plus fait perdre, c’est certainement notre capacité à lire les détails du monde naturel que comprenait le chasseur-cueilleur.

Nous ne savons pas si l’accès immédiat à cette quantité croissante d’information externe va nous éloigner du processus de lecture profonde ou au contraire va nous inciter à explorer la signification des choses plus en profondeur, estime Wolf en reconnaissant tout de même, après bien des alertes, l’ignorance des neuroscientifiques en la matière. Bref, nous ne savons pas si les changements qui s’annoncent dans l’intériorisation des connaissances vont se traduire par une altération de nos capacités cognitives, ni dans quel sens ira cette altération.

Si nous ne savons pas tout de notre avenir cognitif, estime Wolf, peut-être pouvons-nous conserver certains objectifs en vue. Que pouvons-nous espérer ? La technologie va bouleverser l’apprentissage, estime Maryanne Wolf en évoquant l’expérimentation qu’elle mène avec le MIT sur le prêt de tablettes auprès d’enfants éthiopiens qui n’ont jamais été alphabétisés et qui montre des jeunes filles capables de retenir l’alphabet qu’elles n’avaient jamais appris. Comment peut-on créer les conditions pour que les nouveaux lecteurs développent une double capacité… savoir à la fois quand il leur faut écrémer l’information et quand il leur faut se concentrer profondément ?

En semblant à la fois croire dans l’apprentissage par les robots, comme le montre l’expérience OLPC en Ethiopie de laquelle elle participe visiblement avec un certain enthousiasme (alors que certains spécialistes de l’éducation ont montré que l’essentielle des applications d’apprentissage de la lecture ne permettaient pas de dépasser le niveau de l’apprentissage de l’alphabet, en tout cas n’étaient pas suffisantes pour apprendre à lire seul) et en n’ayant de cesse de nous mettre en garde sur les risques que le numérique fait porter à la lecture profonde, Maryanne Wolf semble avoir fait un grand écart qui ne nous a pas aidés à y voir plus clair.

Après la langue et le langage : la cognition

Pour l’ingénieur et philosophe Christian Fauré, membre de l’association Ars Industrialis. "l’organologie générale" telle que définit par Ars Industrialis et le philosophe Bernard Stiegler, organisateur de ces rencontres, vise à décrire et analyser une relation entre 3 types d' "organes" qui nous définissent en tant qu’humain : les organes physiologiques (et psychologiques), les organes techniques et les organes sociaux.

"Nos organes physiologiques n’évoluent pas indépendamment de nos organes techniques et sociaux", rappelle Christian Fauré. Dans cette configuration entre 3 organes qui se surdéterminent les uns les autres, le processus d’hominisation semble de plus en plus porté, "transporté" par l’organe technique. Car dans un contexte d’innovation permanente, le processus d’hominisation, ce qui nous transforme en hommes, est de plus en plus indexé par l’évolution de nos organes techniques. La question est de savoir comment nos organes sociaux, psychologiques et physiologiques vont suivre le rythme de cette évolution. A l’époque de l’invention des premiers trains, les gens avaient peur d’y grimper, rappelle le philosophe. On pensait que le corps humain n’était pas fait pour aller à plus de 30 km à l’heure.

L’évolution que nous connaissons se produit via des interfaces entre les différents organes et c’est celles-ci que nous devons comprendre, estime Christian Fauré. Quel est le rôle des organes techniques et quels sont leurs effets sur nos organes sociaux et physiologiques ?L’écriture a longtemps été notre principal organe technique. Parce qu’elle est mnémotechnique, elle garde et conserve la mémoire. Par son statut, par les interfaces de publication, elle rend public pour nous-mêmes et les autres et distingue le domaine privé et le domaine public. Or l’évolution actuelle des interfaces d’écriture réagence sans arrêt la frontière entre le privé et le public. Avec le numérique, les interfaces de lecture et d’écriture ne cessent de générer de la confusion entre destinataire et destinateur, entre ce qui est privé et ce qui est public, une distinction qui est pourtant le fondement même de la démocratie, via l’écriture publique de la loi. Avec le numérique, on ne sait plus précisément qui voit ce que je publie… ni pourquoi on voit les messages d’autrui.

La question qui écrit à qui est devenue abyssale, car, avec le numérique, nous sommes passés de l’écriture avec les machines à l’écriture pour les machines. L’industrie numérique est devenue une industrie de la langue, comme le soulignait Frédéric Kaplan. Et cette industrialisation se fait non plus via des interfaces homme-machine mais via de nouvelles interfaces, produites par et pour les machines, dont la principale est l’API, l’interface de programmation, qui permet aux logiciels de s’interfacer avec d’autres logiciels.

Le nombre d’API publiée entre 2005 et 2012 a connu une croissance exponentielle, comme l’explique ProgrammableWeb qui en tient le décompte. Désormais, plus de 8000 entreprises ont un modèle d’affaire qui passe par les API. "Le web des machines émerge du web des humains. On passe d’un internet des humains opéré par les machines à un internet pour les machines opéré par les machines. L’API est la nouvelle membrane de nos organes techniques qui permet d’opérer automatiquement et industriellement sur les réseaux."

Ecrire directement avec le cerveau

Le monde industriel va déjà plus loin que le langage, rappelle Christian Fauré sur la scène des Entretiens du Nouveau Monde industriel. "Nous n’écrivons plus. Nous écrivons sans écrire, comme le montre Facebook qui informe nos profils et nos réseaux sociaux sans que nous n’ayons plus à écrire sur nos murs. Nos organes numériques nous permettent d’écrire automatiquement, sans nécessiter plus aucune compétence particulière. Et c’est encore plus vrai à l’heure de la captation de données comportementales et corporelles. Nos profils sont renseignés par des cookies que nos appareils techniques écrivent à notre place. Nous nous appareillons de capteurs et d’API "qui font parler nos organes". Les interfaces digitales auxquelles nous nous connectons ne sont plus des claviers ou des écrans tactiles… mais des capteurs et des données." Les appareillages du Quantified Self sont désormais disponibles pour le grand public. La captation des éléments physiologique s’adresse à nos cerveaux, comme l’explique Martin Lindstrom dans Buy.Ology. "Nous n’avons même plus besoin de renseigner quoi que ce soit. Les capteurs le font à notre place. Pire, le neuromarketing semble se désespérer du langage. On nous demande de nous taire. On ne veut pas écouter ce que l’on peut dire ou penser, les données que produisent nos capteurs et nos profils suffisent." A l’image des séries américaines comme Lie to Me ou the Mentalist où les enquêteurs ne s’intéressent plus à ce que vous dites. Ils ne font qu’observer les gens, ils lisent le corps, le cerveau. "L’écriture de soi n’est plus celle de Foucault, les échanges entre lettrés. On peut désormais s’écrire sans savoir écrire. Nous entrons dans une époque d’écriture automatique, qui ne nécessite aucune compétence. Nous n’avons même plus besoin du langage. L’appareillage suffit à réactualiser le connais-toi toi-même  !"

Google et Intel notamment investissent le champ des API neuronales et cherchent à créer un interfaçage direct entre le cerveau et le serveur. Le document n’est plus l’interface. Nous sommes l’interface !

"Que deviennent la démocratie et la Res Publica quand les données s’écrivent automatiquement, sans passer par le langage ? Quand la distinction entre le public et le privé disparaît ? Alors que jusqu’à présent, la compétence technique de la lecture et de l’écriture était la condition de la citoyenneté", interroge Christian Fauré.

Les capteurs et les interfaces de programmation ne font pas que nous quantifier, ils nous permettent également d’agir sur notre monde, comme le proposent les premiers jouets basés sur un casque électroencéphalographique (comme Mindflex et Star Wars Science The Force Trainer), casques qui utilisent l’activité électrique du cerveau du joueur pour jouer. Ces jouets sont-ils en train de court-circuiter notre organe physiologique ?

Mais, comme l’a exprimé et écrit Marianne Wolf, nous n’étions pas destinés à écrire. Cela ne nous a pas empêchés de l’apprendre. Nous sommes encore moins nés pour agir sur le réel sans utiliser nos organes et nos membres comme nous le proposent les casques neuronaux.

Quand on regarde les cartographies du cortex somatosensoriel on nous présente généralement une représentation de nous-mêmes selon l’organisation neuronale. Celle-ci déforme notre anatomie pour mettre en évidence les parties de celle-ci les plus sensibles, les plus connectés à notre cerveau. Cette représentation de nous est la même que celle que propose la logique des capteurs. Or, elle nous ressemble bien peu.

(Image extraite de la présentation de Christian Fauré : ressemblons à notre cortex somatosensoriel ?)

Que se passera-t-il demain si nous agissons dans le réel via des casques neuronaux ? La Science Fiction a bien sûr anticipé cela. Dans Planète interdite, le sous-sol de la planète est un vaste data center interfacé avec le cerveau des habitants de la planète qui ne donne sa pleine puissance que pendant le sommeil des habitants. "Ce que nous rappelle toujours la SF c’est que nos pires cauchemars se réalisent quand on interface l’inconscient à la machine, sans passer par la médiation de l’écriture ou du langage. Si la puissance du digital est interfacée et connectée directement aux organes physiologiques sans la médiation de l’écriture et du langage, on imagine alors à quel point les questions technologiques ne sont rien d’autre que des questions éthiques", conclut le philosophe.

Si on ne peut qu’être d’accord avec cette crainte de la modification du cerveau et de la façon même dont on pense via le numérique comme c’était le cas dans nombre d’interventions à cette édition des Entretiens du Nouveau Monde industriel, peut-être est-il plus difficile d’en rester à une dénonciation, comme l’a montré l’ambiguïté du discours de Maryanne Wolf. Si nous avons de tout temps utilisé des organes techniques, c’est dans l’espoir qu’ils nous libèrent, qu’ils nous transforment, qu’ils nous distinguent des autres individus de notre espèce et des autres espèces. Pour répondre à Christian Fauré, on peut remarquer que la SF est riche d’oeuvres qui montrent ou démontrent que l’augmentation de nos capacités par la technique était aussi un moyen pour faire autre chose, pour devenir autre chose, pour avoir plus de puissance sur le monde et sur soi. Il me semble pour ma part qu’il est important de regarder ce que les interfaces neuronales et les capteurs libèrent, permettent. Dans the Mentalist, pour reprendre la référence de Christian Fauré, ce sont les capacités médiumniques extraordinaires de l’enquêteur qui transforme son rapport au monde et aux autres. Si l’interfaçage direct des organes physiologique via des capteurs et des données produit de nouvelles formes de pouvoir, alors il est certain que nous nous en emparerons, pour le meilleur ou pour le pire. On peut légitimement le redouter ou s’en inquiéter, mais ça ne suffira pas à nous en détourner.

Qu’allons-nous apprendre en jouant de l’activité électrique de nos cerveaux ? On peut légitimement se demander ce que cela va détruire… Mais si on ne regarde pas ce que cela peut libérer, on en restera à une dénonciation sans effets.



 

Auteur: Guillaud Hubert

Info: https://www.lemonde.fr/blog/internetactu/2013/01/11/notre-cerveau-a-lheure-des-nouvelles-lectures/

[ communication ] [ réflexivité ] [ métalangage ] [ secondéités intégrées ] [ prospective ] [ niveaux de lecture ] [ citation s'appliquant à ce logiciel ] [ inversion ] [ triade ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel