Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 18
Temps de recherche: 0.0405s

définition

La photosynthèse est un processus qui permet aux plantes de transformer l'eau et le dioxyde de carbone en énergie et en oxygène.

Les plantes absorbent l'eau par leurs racines et le dioxyde de carbone de l'air par leurs feuilles. Elles utilisent ensuite l'énergie du soleil pour transformer ces deux éléments en glucose, un type de sucre. Ce glucose est utilisé par la plante comme source d'énergie et pour produire d'autres substances organiques, comme les protéines et les lipides.

Elle est un processus essentiel à la vie sur Terre. En effet, les plantes sont les seuls êtres vivants capables de produire de l'oxygène. L'oxygène est un gaz indispensable à la respiration de tous les animaux, y compris les humains. Voici une équation simplifiée de la photosynthèse :  6 CO2 + 6 H2O + lumière → C6H12O6 + 6 O2

Cette équation signifie que six molécules de dioxyde de carbone (CO2), six molécules d'eau (H2O) et de la lumière réagissent pour produire une molécule de glucose (C6H12O6) et six molécules d'oxygène (O2).

Ce processus se déroule dans les chloroplastes, des organites présents dans les cellules des plantes. Les chloroplastes contiennent de la chlorophylle, un pigment vert qui absorbe l'énergie du soleil.



 

Auteur: Google Bard chatbot

Info: 14 octobre 2023, en réponse à la question : peux-tu expliquer, de la manière la plus simple et résumée, le processus de la photosynthèse

[ biosynthèse ] [ transmutation ] [ septénaire ]

 

Commentaires: 0

Ajouté à la BD par miguel

célébrité

"Qu’est-ce qu’une star ?" est la question que David Bowie aura posé à travers son œuvre. La star appartient-elle à une autre espèce que les êtres humains ? Est-elle un extraterrestre, une fille des étoiles, un étranger dans un monde étrange, un surhomme nietzschéen ? A-t-elle une fonction messianique, divino-humaine, émancipatrice ? Ou au contraire est-elle un parasite, un vampire se nourrissant des énergies de ceux qui l’aiment ? A-t-elle même fait un pacte faustien avec le diable pour obtenir l’admiration des fans ? On retrouve ce questionnement partout : en particulier dans les chansons de l’album Ziggy Stardust, presque toutes des variations sur la notion d’étoile ("Starman", "Star", "Lady Stardust", "Ziggy Stardust") et jusque dans la chanson "The Stars (Are Out Tonight)" sur The Next Day en 2013, incroyable renversement de perspective où on entend Bowie emprunter la voix d’un "homme ordinaire" décrivant les activités de ces stars parasites et vampires :

"Les stars ne dorment jamais – Les mortes comme les vivantes – Nous, nous vivons plus près de la Terre – Loin des paradis – Mais les stars ne sont jamais loin – Les stars sont de sortie ce soir – Elles nous espionnent derrière leurs lunettes noires – Elles épient notre moindre geste – Elles absorbent notre monde primitif – Les voici en haut des escaliers – Asexuées et non-excitées – Elles te brûlent avec leurs sourires radieux – Elles t’enferment avec leurs beaux yeux – Elles sont fauchées et honteuses ou ivres ou effrayées – On ne nous débarrassera jamais des stars".

Auteur: Thiellement Pacôme

Info: http://www.pacomethiellement.com/corpus_conference.php?

[ modèle identificatoire ] [ fonction spirituelle ] [ influence ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

anti-actinifère

Des champignons qui absorbent les radiations se développent dans toute la centrale de Tchernobyl

Depuis longtemps, les scientifiques savent que certains types de champignons sont attirés par les radiations et peuvent en fait aider à les neutraliser et à les décomposer dans certains environnements. Le site radioactif de la centrale nucléaire abandonnée de Tchernobyl a servi de laboratoire réel à bien des égards au fil des ans, permettant aux chercheurs d'étudier l'impact physique des radiations sur la vie végétale et animale.

En 1991, alors qu'une équipe de chercheurs fouillait la zone de Tchernobyl, à distance avec des robots, ils ont remarqué des champignons à points noirs qui poussaient sur les parois de l'un des réacteurs nucléaires. Ils ont également observé que les champignons semblaient décomposer le graphite radioactif du cœur même du réacteur. Les champignons paraissaient également attirés par la source de rayonnement.

Une recherche ultérieure, menée en 2007 à l'Université de Saskatchewan, a révélé que différents types de champignons sont attirés par les radiations. Une équipe dirigée par le professeur Ekaterina Dadachova a observé que certains types de champignons se développent plus rapidement lorsqu'exposés aux rayonnements.

Les trois espèces testées sont Cladosporium sphaerospermum, Cryptococcus neoformans et Wangiella dermatitidis, qui ont toutes une croissance plus rapide lorsqu'exposées à des radiations. Les scientifiques pensent que, comme ces espèces possèdent de grandes quantités de mélanine pigmentaire, cela leur permet d'absorber des flux comme les radiations qu'ils convertissent en énergie chimique pour leur croissance.

Dans une autre étude, initiée en 2016 et pas encore publiée, huit espèces collectées dans la région de Tchernobyl ont été envoyées à la Station spatiale internationale (ISS). Les scientifiques attendent avec impatience les résultats de l'étude, étant donné que les échantillons sont exposés à des radiations entre 40 et 80 fois plus importantes que celles auxquelles ils seraient exposés ici sur Terre. Si cette étude est couronnée de succès, les experts espèrent que les connaissances acquises pourront être utilisées pour produire des médicaments qui pourraient protéger les astronautes des radiations lors de missions de longue durée. Il a également été suggéré que les résultats de cette étude pourraient conduire au développement de traitements contre le cancer à base de champignons.

Auteur: Internet

Info: https://truththeory.com/, 02/12/2020, écrit pas John Vibes

[ irradiations ] [ thérapie ]

 

Commentaires: 0

Ajouté à la BD par miguel

adaptation animale

Dans les abysses, des poissons absorbent 99,5% de la lumière entrante 

Dans les profondeurs océaniques, que les photons peinent à percer, les poissons ont développé toutes sortes de ressources pour les aider à se nourrir. Certains, par exemple, sont devenus experts en camouflage.



À l’instar des oiseaux de paradis, dont les plumes absorbent 99,95% de la lumière, et du Vantablack, cet objet créé par l’Homme capable d’en absorber autant, plusieurs espèces de poissons évoluant en eaux profondes ont développé une peau ultra-noire, capable d’absorber le moindre photon disponible (ou presque). Des chercheurs du Smithsonian Museum et de l’Université Duke (États-Unis) en ont répertorié une quinzaine. Ils détaillent leurs travaux dans la revue Current Biology.



Karen Osoborn, zoologiste au Smithsonian Museum, a d’abord été intriguée par ces poissons naturellement sombres après avoir essayé d’en photographier quelques-uns capturés dans des filets. Elle s’est alors très vite rendu compte que la grande majorité de leurs caractéristiques anatomiques étaient impossibles à isoler. "Peu importe comment vous configurez la caméra ou l’éclairage, ils aspirent simplement toute la lumière", explique-t-elle.



Des analyses en laboratoire ont finalement révélé pourquoi. La biologiste a découvert que de la mélanine – un pigment qui protège la peau humaine en absorbant 99,9% du rayonnement UV solaire – était présente en abondance dans la peau des spécimens étudiés. Mais pas que.



Ces pigments étaient également compactés dans des compartiments cellulaires, eux-mêmes rassemblés de manière très étroite. En outre, la taille, la forme et la disposition de ces cellules les amènent à diriger toute la lumière restante vers d’autres compartiments.



Grâce à cette approche, la plupart des poissons étudiés étaient capables d’absorber environ 99,5% des photons entrants.



"Si vous voulez vous fondre dans la noirceur infinie de votre environnement, aspirer chaque photon qui vous frappe est une excellente façon de procéder, explique Karen Osoborn. Ce qu’ils ont fait, c’est créer un piège à lumière super efficace. La lumière ne rebondit pas, et ne traverse pas. Elle pénètre simplement dans cette couche, puis disparaît".



Et ça marche !

Des modélisations informatiques ont en effet suggéré que cette capacité à réfléchir une quantité infime de lumière peut réduire de six fois la distance à laquelle ces prédateurs peuvent être repérés par leurs proies. Certains, notamment, sont des prédateurs d’embuscade qui ont développé des leurres bioluminescents. Les chercheurs soupçonnent ainsi que cette peau ultra-noire permet de les rendre invisibles à leur propre lumière.



Fait intéressant, les chercheurs ont même isolé une peau ultra-noire autour de l’intestin de l’une des espèces, nommée Cyclothone acclinidens. Selon eux, ce poisson aurait évolué ainsi pour absorber la lumière émise par ses proies bioluminescentes ingérées.

Auteur: Internet

Info: https://sciencepost.fr/, Brice Louvet, rédacteur sciences, 17 juillet 2020

[ obscurité totale ]

 

Commentaires: 0

Ajouté à la BD par miguel

végétaux

Pourquoi les plantes sont-elles vertes ?

La couleur verte des plantes qui réalisent le processus de la photosynthèse n’est pas due au hasard. Des scientifiques ont exploré comment cette couleur protège les plantes de changements soudains et fréquents de l’énergie solaire.

À quoi les plantes doivent-elles leur couleur verte ? Des scientifiques ont travaillé sur la manière dont les plantes réagissent à la lumière pour le comprendre. Le modèle qu’ils ont établi a été présenté le 26 juin 2020 dans la revue Science.

"Les plantes photosynthétiques sont vertes parce que leurs complexes d’antennes absorbent la lumière à travers le spectre visible, y compris les parties bleues et rouges, tout en reflétant les longueurs d’onde vertes", écrivent les chercheurs. La photosynthèse est un processus de fabrication de matière organique chez le végétal (et certaines bactéries), à partir de gaz carbonique, d’eau et qui utilise la lumière du Soleil. Le terme signifie littéralement "synthèse par la lumière".

Les antennes collectrices dont parlent les auteurs composent ce qu’on appelle des photosystèmes. Il est ici question de l’endroit où s’effectue la photosynthèse : dans les parties vertes, et notamment les feuilles. Les cellules continent des chloroplastes, qui renferment eux-mêmes la chlorophylle, le fameux pigment vert qui capte l’énergie lumineuse. Les pigments photosynthétiques sont regroupés en photosystèmes.

Les scientifiques s’intéressent à ce qui se passe lorsque la lumière du Soleil qui arrive jusqu’à une feuille change rapidement. La plante doit alors se protéger contre cette arrivée brusque d’énergie solaire, dans son système qui assure la photosynthèse à l’intérieur de chaque feuille. Si la plante ne peut pas gérer de telles fluctuations, les auteurs expliquent que son organisme va tenter d’expulser l’énergie qui se trouve en trop, et que les cellules peuvent être endommagées. Quelle technique ont développée les organismes photosynthétiques face à cela ?

Grâce au vert, les plantes atténuent ce "bruit"

"Notre modèle montre qu’en absorbant uniquement des couleurs très spécifiques de la lumière, les organismes photosynthétiques peuvent se protéger automatiquement contre les changements soudains — ou ‘bruit’ — de l’énergie solaire, entraînant une conversion de puissance remarquablement efficace", résume Nathaniel Gabor, professeur associé de physique à l’université de Californie à Riverside, cité dans un communiqué.

Autrement dit, les feuilles se sont adaptées pour faire face à ce bruit. Elles l’amortissent, en quelque sorte. Elles sont colorées de vert, car seules certaines régions du spectre solaire sont adaptées pour assurer une protection contre cette énergie solaire qui évolue rapidement. Grâce à cette couleur, les plantes atténuent le "bruit" dont parle le physicien. Les scientifiques disent avoir été surpris par la simplicité du modèle qu’ils ont créé pour comprendre les plantes. "La nature vous surprendra toujours", observe Nathaniel Gabor.

L’étude détaillée de ce phénomène ne sert pas seulement à mieux comprendre les mécanismes mis en œuvre par les plantes. Par biomimétisme, on pourrait imaginer que cette manière d’absorber la lumière soit utilisée pour améliorer les performances des panneaux solaires, en atténuant le "bruit" de l’énergie solaire.

Auteur: Internet

Info: https://www.numerama.com, 5 juillet, 2020, Nelly Lesage

[ teinte olive ] [ filtre ] [ coloris ]

 

Commentaires: 0

Ajouté à la BD par miguel

sciences

Mu: une constante fondamentale qui reste constante.
L'idée que les constantes fondamentales ne le soient pas réellement et dépendent de l'espace et du temps perturbe depuis longtemps l'esprit des physiciens. Mais, en observant la façon dont une galaxie lointaine absorbe la lumière d'un quasar, des chercheurs australiens viennent de déterminer une nouvelle limite sur l'évolution de l'une d'entre elles, Mu (µ), ratio entre les masses de l'électron et du proton, en fonction du temps. Leur résultat, qui est 10 fois plus précis que les mesures précédentes, confirme la compréhension scientifique actuelle de la physique.
Les scientifiques ont utilisé la lumière d'un quasar pour montrer qu'une des constantes fondamentales de la physique est très probablement restée constante à travers l'histoire de l'univers
Les constantes principales sont très finement ajustées à notre existence (ou vice-versa !) ; si l'interaction forte était ne serait-ce qu'un pour cent plus intense qu'elle ne l'est aujourd'hui, par exemple, le carbone ne pourrait pas être produit dans les étoiles, et nous ne serions pas là pour en parler. C'est une des raisons pour lesquelles de nombreux physiciens sont désireux de vérifier si certaines constantes fondamentales ont varié au cours de l'histoire de l'univers. L'une d'elles est µ, le ratio entre la masse de l'électron et celle du proton.
Habituellement, cette constante peut être calculée en analysant les données d'un télescope terrestre pointé sur un quasar, le noyau compact mais très lumineux d'une jeune galaxie, sorte de "phare" dans l'espace profond. Le spectre de la lumière des quasars couvre un large intervalle de longueurs d'onde, mais certaines d'entre elles peuvent être absorbées par des molécules situées au sein de galaxies plus anciennes lors du trajet de la lumière à travers le cosmos. Ces longueurs d'onde, apparaissant comme des raies d'absorption, correspondent à des molécules "excitées" à des niveaux plus élevés d'énergie et sont régies par µ. Comme la lumière des quasars peut mettre des milliards d'années pour parvenir sur Terre, la valeur de µ mesurée à partir de ces sources éloignées peut être comparée à sa valeur mesurée dans une expérience de laboratoire. On détermine ainsi si sa valeur s'est modifiée au cours du temps.
Victor Flambaum et Michael Kozlov, de l'université de Nouvelle Galle du Sud en Australie, ont rendu la technique plus précise en y incorporant l'analyse d'un "spectre d'inversion", produit quand les atomes des molécules absorbent la lumière et atteignent un niveau d'énergie plus élevé par effet tunnel. Comme la probabilité de l'effet tunnel dépend plus étroitement de µ que les raies d'absorption dans le spectre habituel, des variations de cette constante peuvent en être déduites plus précisément.
Flambaum et Kozlov ont utilisées des données existantes du radiotélescope d'Effelsberg en Allemagne concernant la lumière issue d'un quasar et traversant la galaxie B0218+357 à 6.5 milliards d'années-lumière de la terre, et ont analysé les deux types de spectres pour des molécules d'ammoniaque et d'autres comme celles d'oxyde de carbone. Ils ont ensuite comparé les spectres à ceux d'expériences actuelles de laboratoire et ont constaté que µ ne pouvait pas avoir diminué de plus de 4e-16, ni ne pouvait pas avoir augmenté de plus de 2e-16 par an ce qui représente une évaluation dix fois plus précise que les meilleures estimations antérieures.
L'année dernière un groupe, conduit par Wim Ubachs de l'université d'Amsterdam, avait trouvé, en utilisant la technique plus ancienne, que µ avait pu diminuer avec le temps. Si cela s'était confirmé, cela aurait signifié que les théories les plus fondamentales de la physique, comme celle de la relativité, auraient dû être reconsidérées. Flambaum a indiqué, cependant, que ses propres résultats, plus précis, prouvaient qu'il était peu probable que µ ait varié au cours du temps, et qu'ainsi notre compréhension actuelle de la physique était bonne. Le scientifique a ajouté que si plus de données pouvaient être rassemblées, sa technique d'analyse devrait permettre aux théoriciens de déterminer encore plus précisément les non-variations de µ.

Auteur: Internet

Info:

[ constantes ]

 

Commentaires: 0

homme-machine

Comment l'IA comprend des trucs que personne ne lui lui a appris

Les chercheurs peinent à comprendre comment les modèles d'Intelligence artificielle, formés pour perroquetter les textes sur Internet, peuvent effectuer des tâches avancées comme coder, jouer à des jeux ou essayer de rompre un mariage.

Personne ne sait encore comment ChatGPT et ses cousins ​​de l'intelligence artificielle vont transformer le monde, en partie parce que personne ne sait vraiment ce qui se passe à l'intérieur. Certaines des capacités de ces systèmes vont bien au-delà de ce pour quoi ils ont été formés, et même leurs inventeurs ne savent pas pourquoi. Un nombre croissant de tests suggèrent que ces systèmes d'IA développent des modèles internes du monde réel, tout comme notre propre cerveau le fait, bien que la technique des machines soit différente.

"Tout ce que nous voulons faire avec ces systèmes pour les rendre meilleurs ou plus sûrs ou quelque chose comme ça me semble une chose ridicule à demander  si nous ne comprenons pas comment ils fonctionnent", déclare Ellie Pavlick de l'Université Brown,  un des chercheurs travaillant à combler ce vide explicatif.

À un certain niveau, elle et ses collègues comprennent parfaitement le GPT (abréviation de generative pretrained transformer) et d'autres grands modèles de langage, ou LLM. Des modèles qui reposent sur un système d'apprentissage automatique appelé réseau de neurones. De tels réseaux ont une structure vaguement calquée sur les neurones connectés du cerveau humain. Le code de ces programmes est relativement simple et ne remplit que quelques pages. Il met en place un algorithme d'autocorrection, qui choisit le mot le plus susceptible de compléter un passage sur la base d'une analyse statistique laborieuse de centaines de gigaoctets de texte Internet. D'autres algorithmes auto-apprenants supplémentaire garantissant que le système présente ses résultats sous forme de dialogue. En ce sens, il ne fait que régurgiter ce qu'il a appris, c'est un "perroquet stochastique", selon les mots d'Emily Bender, linguiste à l'Université de Washington. Mais les LLM ont également réussi à réussir l'examen pour devenir avocat, à expliquer le boson de Higgs en pentamètre iambique (forme de poésie contrainte) ou à tenter de rompre le mariage d'un utilisateurs. Peu de gens s'attendaient à ce qu'un algorithme d'autocorrection assez simple acquière des capacités aussi larges.

Le fait que GPT et d'autres systèmes d'IA effectuent des tâches pour lesquelles ils n'ont pas été formés, leur donnant des "capacités émergentes", a surpris même les chercheurs qui étaient généralement sceptiques quant au battage médiatique sur les LLM. "Je ne sais pas comment ils le font ou s'ils pourraient le faire plus généralement comme le font les humains, mais tout ça mes au défi mes pensées sur le sujet", déclare Melanie Mitchell, chercheuse en IA à l'Institut Santa Fe.

"C'est certainement bien plus qu'un perroquet stochastique, qui auto-construit sans aucun doute une certaine représentation du monde, bien que je ne pense pas que ce soit  vraiment de la façon dont les humains construisent un modèle de monde interne", déclare Yoshua Bengio, chercheur en intelligence artificielle à l'université de Montréal.

Lors d'une conférence à l'Université de New York en mars, le philosophe Raphaël Millière de l'Université de Columbia a offert un autre exemple à couper le souffle de ce que les LLM peuvent faire. Les modèles avaient déjà démontré leur capacité à écrire du code informatique, ce qui est impressionnant mais pas trop surprenant car il y a tellement de code à imiter sur Internet. Millière est allé plus loin en montrant que le GPT peut aussi réaliser du code. Le philosophe a tapé un programme pour calculer le 83e nombre de la suite de Fibonacci. "Il s'agit d'un raisonnement en plusieurs étapes d'un très haut niveau", explique-t-il. Et le robot a réussi. Cependant, lorsque Millière a demandé directement le 83e nombre de Fibonacci, GPT s'est trompé, ce qui suggère que le système ne se contentait pas de répéter ce qui se disait sur l'internet. Ce qui suggère que le système ne se contente pas de répéter ce qui se dit sur Internet, mais qu'il effectue ses propres calculs pour parvenir à la bonne réponse.

Bien qu'un LLM tourne sur un ordinateur, il n'en n'est pas un lui-même. Il lui manque des éléments de calcul essentiels, comme sa propre mémoire vive. Reconnaissant tacitement que GPT seul ne devrait pas être capable d'exécuter du code, son inventeur, la société technologique OpenAI, a depuis introduit un plug-in spécialisé -  outil que ChatGPT peut utiliser pour répondre à une requête - qui remédie à cela. Mais ce plug-in n'a pas été utilisé dans la démonstration de Millière. Au lieu de cela, ce dernier suppose plutôt que la machine a improvisé une mémoire en exploitant ses mécanismes d'interprétation des mots en fonction de leur contexte -  situation similaire à la façon dont la nature réaffecte des capacités existantes à de nouvelles fonctions.

Cette capacité impromptue démontre que les LLM développent une complexité interne qui va bien au-delà d'une analyse statistique superficielle. Les chercheurs constatent que ces systèmes semblent parvenir à une véritable compréhension de ce qu'ils ont appris. Dans une étude présentée la semaine dernière à la Conférence internationale sur les représentations de l'apprentissage (ICLR), le doctorant Kenneth Li de l'Université de Harvard et ses collègues chercheurs en intelligence artificielle, Aspen K. Hopkins du Massachusetts Institute of Technology, David Bau de la Northeastern University et Fernanda Viégas , Hanspeter Pfister et Martin Wattenberg, tous à Harvard, ont créé leur propre copie plus petite du réseau neuronal GPT afin de pouvoir étudier son fonctionnement interne. Ils l'ont entraîné sur des millions de matchs du jeu de société Othello en alimentant de longues séquences de mouvements sous forme de texte. Leur modèle est devenu un joueur presque parfait.

Pour étudier comment le réseau de neurones encodait les informations, ils ont adopté une technique que Bengio et Guillaume Alain, également de l'Université de Montréal, ont imaginée en 2016. Ils ont créé un réseau de "sondes" miniatures pour analyser le réseau principal couche par couche. Li compare cette approche aux méthodes des neurosciences. "C'est comme lorsque nous plaçons une sonde électrique dans le cerveau humain", dit-il. Dans le cas de l'IA, la sonde a montré que son "activité neuronale" correspondait à la représentation d'un plateau de jeu d'Othello, bien que sous une forme alambiquée. Pour confirmer ce résultat, les chercheurs ont inversé la sonde afin d'implanter des informations dans le réseau, par exemple en remplaçant l'un des marqueurs noirs du jeu par un marqueur blanc. "En fait, nous piratons le cerveau de ces modèles de langage", explique Li. Le réseau a ajusté ses mouvements en conséquence. Les chercheurs ont conclu qu'il jouait à Othello à peu près comme un humain : en gardant un plateau de jeu dans son "esprit" et en utilisant ce modèle pour évaluer les mouvements. Li pense que le système apprend cette compétence parce qu'il s'agit de la description la plus simple et efficace de ses données pour l'apprentissage. "Si l'on vous donne un grand nombre de scripts de jeu, essayer de comprendre la règle qui les sous-tend est le meilleur moyen de les comprimer", ajoute-t-il.

Cette capacité à déduire la structure du monde extérieur ne se limite pas à de simples mouvements de jeu ; il apparaît également dans le dialogue. Belinda Li (aucun lien avec Kenneth Li), Maxwell Nye et Jacob Andreas, tous au MIT, ont étudié des réseaux qui jouaient à un jeu d'aventure textuel. Ils ont introduit des phrases telles que "La clé est dans le coeur du trésor", suivies de "Tu prends la clé". À l'aide d'une sonde, ils ont constaté que les réseaux encodaient en eux-mêmes des variables correspondant à "coeur" et "Tu", chacune avec la propriété de posséder ou non une clé, et mettaient à jour ces variables phrase par phrase. Le système n'a aucun moyen indépendant de savoir ce qu'est une boîte ou une clé, mais il a acquis les concepts dont il avait besoin pour cette tâche."

"Une représentation de cette situation est donc enfouie dans le modèle", explique Belinda Li.

Les chercheurs s'émerveillent de voir à quel point les LLM sont capables d'apprendre du texte. Par exemple, Pavlick et sa doctorante d'alors, l'étudiante Roma Patel, ont découvert que ces réseaux absorbent les descriptions de couleur du texte Internet et construisent des représentations internes de la couleur. Lorsqu'ils voient le mot "rouge", ils le traitent non seulement comme un symbole abstrait, mais comme un concept qui a une certaine relation avec le marron, le cramoisi, le fuchsia, la rouille, etc. Démontrer cela fut quelque peu délicat. Au lieu d'insérer une sonde dans un réseau, les chercheurs ont étudié sa réponse à une série d'invites textuelles. Pour vérifier si le systhème ne faisait pas simplement écho à des relations de couleur tirées de références en ligne, ils ont essayé de le désorienter en lui disant que le rouge est en fait du vert - comme dans la vieille expérience de pensée philosophique où le rouge d'une personne correspond au vert d'une autre. Plutôt que répéter une réponse incorrecte, les évaluations de couleur du système ont évolué de manière appropriée afin de maintenir les relations correctes.

Reprenant l'idée que pour remplir sa fonction d'autocorrection, le système recherche la logique sous-jacente de ses données d'apprentissage, le chercheur en apprentissage automatique Sébastien Bubeck de Microsoft Research suggère que plus la gamme de données est large, plus les règles du système faire émerger sont générales. "Peut-être que nous nous constatons un tel bond en avant parce que nous avons atteint une diversité de données suffisamment importante pour que le seul principe sous-jacent à toutes ces données qui demeure est que des êtres intelligents les ont produites... Ainsi la seule façon pour le modèle d'expliquer toutes ces données est de devenir intelligent lui-même".

En plus d'extraire le sens sous-jacent du langage, les LLM sont capables d'apprendre en temps réel. Dans le domaine de l'IA, le terme "apprentissage" est généralement réservé au processus informatique intensif dans lequel les développeurs exposent le réseau neuronal à des gigaoctets de données et ajustent petit à petit ses connexions internes. Lorsque vous tapez une requête dans ChatGPT, le réseau devrait être en quelque sorte figé et, contrairement à l'homme, ne devrait pas continuer à apprendre. Il fut donc surprenant de constater que les LLM apprennent effectivement à partir des invites de leurs utilisateurs, une capacité connue sous le nom d'"apprentissage en contexte". "Il s'agit d'un type d'apprentissage différent dont on ne soupçonnait pas l'existence auparavant", explique Ben Goertzel, fondateur de la société d'IA SingularityNET.

Un exemple de la façon dont un LLM apprend vient de la façon dont les humains interagissent avec les chatbots tels que ChatGPT. Vous pouvez donner au système des exemples de la façon dont vous voulez qu'il réponde, et il obéira. Ses sorties sont déterminées par les derniers milliers de mots qu'il a vus. Ce qu'il fait, étant donné ces mots, est prescrit par ses connexions internes fixes - mais la séquence de mots offre néanmoins une certaine adaptabilité. Certaines personnes utilisent le jailbreak à des fins sommaires, mais d'autres l'utilisent pour obtenir des réponses plus créatives. "Il répondra mieux aux questions scientifiques, je dirais, si vous posez directement la question, sans invite spéciale de jailbreak, explique William Hahn, codirecteur du laboratoire de perception de la machine et de robotique cognitive à la Florida Atlantic University. "Sans il sera un meilleur universitaire." (Comme son nom l'indique une invite jailbreak -prison cassée-, invite à  moins délimiter-verrouiller les fonctions de recherche et donc à les ouvrir, avec les risques que ça implique) .

Un autre type d'apprentissage en contexte se produit via l'incitation à la "chaîne de pensée", ce qui signifie qu'on demande au réseau d'épeler chaque étape de son raisonnement - manière de faire qui permet de mieux résoudre les problèmes de logique ou d'arithmétique en passant par plusieurs étapes. (Ce qui rend l'exemple de Millière si surprenant  puisque le réseau a trouvé le nombre de Fibonacci sans un tel encadrement.)

En 2022, une équipe de Google Research et de l'École polytechnique fédérale de Zurich - Johannes von Oswald, Eyvind Niklasson, Ettore Randazzo, João Sacramento, Alexander Mordvintsev, Andrey Zhmoginov et Max Vladymyrov - a montré que l'apprentissage en contexte suit la même procédure de calcul de base que l'apprentissage standard, connue sous le nom de descente de gradient". 

Cette procédure n'était pas programmée ; le système l'a découvert sans aide. "C'est probablement une compétence acquise", déclare Blaise Agüera y Arcas, vice-président de Google Research. De fait il pense que les LLM peuvent avoir d'autres capacités latentes que personne n'a encore découvertes. "Chaque fois que nous testons une nouvelle capacité que nous pouvons quantifier, nous la trouvons", dit-il.

Bien que les LLM aient suffisamment d'angles morts et autres défauts pour ne pas être qualifiés d'intelligence générale artificielle, ou AGI - terme désignant une machine qui atteint l'ingéniosité du cerveau animal - ces capacités émergentes suggèrent à certains chercheurs que les entreprises technologiques sont plus proches de l'AGI que même les optimistes ne l'avaient deviné. "Ce sont des preuves indirectes que nous en sommes probablement pas si loin", a déclaré Goertzel en mars lors d'une conférence sur le deep learning à la Florida Atlantic University. Les plug-ins d'OpenAI ont donné à ChatGPT une architecture modulaire un peu comme celle du cerveau humain. "La combinaison de GPT-4 [la dernière version du LLM qui alimente ChatGPT] avec divers plug-ins pourrait être une voie vers une spécialisation des fonctions semblable à celle de l'homme", déclare Anna Ivanova, chercheuse au M.I.T.

Dans le même temps, les chercheurs s'inquiètent de voir leur capacité à étudier ces systèmes s'amenuiser. OpenAI n'a pas divulgué les détails de la conception et de l'entraînement de GPT-4, en partie du à la concurrence avec Google et d'autres entreprises, sans parler des autres pays. "Il y aura probablement moins de recherche ouverte de la part de l'industrie, et les choses seront plus cloisonnées et organisées autour de la construction de produits", déclare Dan Roberts, physicien théoricien au M.I.T., qui applique les techniques de sa profession à la compréhension de l'IA.

Ce manque de transparence ne nuit pas seulement aux chercheurs, il entrave également les efforts qui visent à comprendre les répercussions sociales de l'adoption précipitée de la technologie de l'IA. "La transparence de ces modèles est la chose la plus importante pour garantir la sécurité", affirme M. Mitchell.

Auteur: Musser Georges

Info: https://www.scientificamerican.com,  11 mai 2023. *algorithme d'optimisation utilisé dans l'apprentissage automatique et les problèmes d'optimisation. Il vise à minimiser ou à maximiser une fonction en ajustant ses paramètres de manière itérative. L'algorithme part des valeurs initiales des paramètres et calcule le gradient de la fonction au point actuel. Les paramètres sont ensuite mis à jour dans la direction du gradient négatif (pour la minimisation) ou positif (pour la maximisation), multiplié par un taux d'apprentissage. Ce processus est répété jusqu'à ce qu'un critère d'arrêt soit rempli. La descente de gradient est largement utilisée dans la formation des modèles d'apprentissage automatique pour trouver les valeurs optimales des paramètres qui minimisent la différence entre les résultats prédits et les résultats réels. Trad et adaptation Mg

[ singularité technologique ] [ versatilité sémantique ]

 

Commentaires: 0

Ajouté à la BD par miguel

consumérisme

Comment réguler l’exploitation de notre attention ? Dans Les marchands d’attention (The Attention Merchants, 2017, Atlantic Books, non traduit), le professeur de droit, spécialiste des réseaux et de la régulation des médias, Tim Wu (@superwuster), 10 ans après avoir raconté l’histoire des télécommunications et du développement d’internet dans The Master Switch (où il expliquait la tendance de l’industrie à créer des empires et le risque des industries de la technologie à aller dans le même sens), raconte, sur 400 pages, l’histoire de l’industrialisation des médias américains et de la publicité de la fin du XIXe siècle à aujourd’hui. En passant d’une innovation médiatique l’autre, des journaux à la radio, de la télé à l’internet, Wu tisse une très informée histoire du rapport de l’exploitation commerciale de l’information et du divertissement. Une histoire de l’industrialisation des médias américains qui se concentre beaucoup sur leurs innovations et leurs modèles d’affaires, c’est-à-dire qui s’attarde à montrer comment notre attention a été convertie en revenus, comment nous avons été progressivement cédés à la logique du commerce – sans qu’on n’y trouve beaucoup à redire d’ailleurs.

"La compétition pour notre attention n’a jamais cherché à nous élever, au contraire."

Tout le long de cette histoire, Tim Wu insiste particulièrement sur le fait que la capture attentionnelle produite par les médias s’est faite par-devers nous. La question attentionnelle est souvent présentée comme le résultat d’une négociation entre l’utilisateur, le spectateur, et le service ou média qu’il utilise… mais aucun d’entre nous n’a jamais consenti à la capture attentionnelle, à l’extraction de son attention. Il souligne notamment que celle-ci est plus revendue par les médias aux annonceurs, qu’utilisée par les médias eux-mêmes. Il insiste également à montrer que cette exploitation vise rarement à nous aider à être en contrôle, au contraire. Elle ne nous a jamais apporté rien d’autre que toujours plus de contenus insignifiants. Des premiers journaux à 1 cent au spam publicitaire, l’exploitation attentionnelle a toujours visé nos plus vils instincts. Elle n’a pas cherché à nous élever, à nous aider à grandir, à développer nos connaissances, à créer du bien commun, qu’à activer nos réactions les plus instinctives. Notre exploitation commerciale est allée de pair avec l’évolution des contenus. Les journaux qui ont adopté le modèle publicitaire, ont également inventé des rubriques qui n’existaient pas pour mieux les servir : comme les faits divers, les comptes-rendus de procès, les récits de crimes… La compétition pour notre attention dégrade toujours les contenus, rappelle Tim Wu. Elle nous tourne vers "le plus tapageur, le plus sinistre, le plus choquant, nous propose toujours l’alternative la plus scandaleuse ou extravagante". Si la publicité a incontestablement contribué à développer l’économie américaine, Wu rappelle qu’elle n’a jamais cherché à présenter une information objective, mais plutôt à déformer nos mécanismes de choix, par tous les moyens possibles, même par le mensonge. L’exploitation attentionnelle est par nature une course contre l’éthique. Elle est et demeure avant tout une forme d’exploitation. Une traite, comme disait le spécialiste du sujet Yves Citton, en usant volontairement de ce vocabulaire marqué au fer.

Wu souligne que l’industrie des contenus a plus été complice de cette exploitation qu’autre chose. La presse par exemple, n’a pas tant cherché à contenir ou réguler la publicité et les revenus qu’elle générait, qu’à y répondre, qu’à évoluer avec elle, notamment en faisant évoluer ses contenus pour mieux fournir la publicité. Les fournisseurs de contenus, les publicitaires, aidés des premiers spécialistes des études comportementales, ont été les courtiers et les ingénieurs de l’économie de l’attention. Ils ont transformé l’approche intuitive et improvisée des premières publicités en machines industrielles pour capturer massivement l’attention. Wu rappelle par exemple que les dentifrices, qui n’existaient pas vraiment avant les années 20, vont prendre leur essor non pas du fait de la demande, mais bien du fait de l’offensive publicitaire, qui s’est attaquée aux angoisses inconscientes des contemporains. Plus encore que des ingénieurs de la demande, ces acteurs ont été des fabricants de comportements, de moeurs…

L’histoire de l’exploitation de notre attention souligne qu’elle est sans fin, que "les industries qui l’exploitent, contrairement aux organismes, n’ont pas de limite à leur propre croissance". Nous disposons de très peu de modalités pour limiter l’extension et la croissance de la manipulation attentionnelle. Ce n’est pas pour autant que les usagers ne se sont pas régulièrement révoltés, contre leur exploitation. "La seule dynamique récurrente qui a façonné la course des industries de l’attention a été la révolte". De l’opposition aux premiers panneaux publicitaires déposés en pleine ville au rejet de services web qui capturent trop nos données ou exploitent trop notre attention, la révolte des utilisateurs semble avoir toujours réussi à imposer des formes de régulations. Mais l’industrie de l’exploitation attentionnelle a toujours répondu à ces révoltes, s’adaptant, évoluant au gré des rejets pour proposer toujours de nouvelles formes de contenus et d’exploitation. Parmi les outils dont nous nous sommes dotés pour réguler le développement de l’économie de l’attention, Wu évoque trop rapidement le travail des associations de consommateurs (via par exemple le test de produits ou les plaintes collectives…) ou celui des régulateurs définissant des limites au discours publicitaire (à l’image de la création de la Commission fédérale du commerce américaine et notamment du bureau de la protection des consommateurs, créée pour réguler les excès des annonceurs, que ce soit en améliorant l’étiquetage des produits ou en interdisant les publicités mensongères comme celles, nombreuses, ventant des produits capables de guérir des maladies). Quant à la concentration et aux monopoles, ils ont également toujours été surveillés et régulés, que ce soit par la création de services publics ou en forçant les empires des médias à la fragmentation.

L’attention, un phénomène d’assimilation commercial et culturel L’invention du prime time à la radio puis à la télé a été à la fois une invention commerciale et culturelle, fusionnant le contenu au contenant, l’information/divertissement et la publicité en inventant un rituel d’attention collective massive. Il n’a pas servi qu’à générer une exposition publicitaire inédite, il a créé un phénomène social, une conscience et une identité partagée, tout en rendant la question de l’exposition publicitaire normale et sociale.

Dans la succession des techniques qu’ont inventés les médias de masse pour mobiliser et orienter les foules que décrit Tim Wu, on constate qu’une sorte de cycle semble se reproduire. Les nouvelles technologies et les nouveaux formats rencontrent des succès très rapides. Puis, le succès rencontre des résistances et les audiences se délitent vers de nouvelles techniques ou de nouveaux formats proposés par des concurrents. On a l’impression d’être dans une course poursuite où chaque décennie pourrait être représentée par le succès d’un support phare à l’image des 28 courts chapitres qui scandent le livre. L’essor de la télévision par exemple est fulgurant : entre 1950 et 1956 on passe de 9% à 72% des maisons équipées et à la fin des années 50, on l’a regarde déjà 5 heures par jour en moyenne. Les effets de concentration semblent très rapides… et dès que la fatigue culturelle pointe, que la nouveauté s’émousse, une nouvelle vague de propositions se développe à la fois par de nouveaux formats, de nouvelles modalités de contrôle et de nouveaux objets attentionnels qui poussent plus loin l’exploitation commerciale des publics. Patiemment, Wu rappelle la très longue histoire des nouveaux formats de contenus : la naissance des jeux, des journaux télé, des soirées spéciales, du sport, des feuilletons et séries, de la télé-réalité aux réseaux sociaux… Chacun ayant généré une nouvelle intrication avec la publicité, comme l’invention des coupures publicitaires à la radio et à la télé, qui nécessitaient de réinventer les contenus, notamment en faisant monter l’intrigue pour que les gens restent accrochés. Face aux outils de révolte, comme l’invention de la télécommande ou du magnétoscope, outils de reprise du contrôle par le consommateur, les industries vont répondre par la télévision par abonnement, sans publicité. Elles vont aussi inventer un montage plus rapide qui ne va cesser de s’accélérer avec le temps.

Pour Wu, toute rébellion attentionnelle est sans cesse assimilée. Même la révolte contre la communication de masse, d’intellectuels comme Timothy Leary ou Herbert Marcuse, sera finalement récupérée.

De l’audience au ciblage

La mesure de l’audience a toujours été un enjeu industriel des marchands d’attention. Notamment avec l’invention des premiers outils de mesure de l’audimat permettant d’agréger l’audience en volumes. Wu prend le temps d’évoquer le développement de la personnalisation publicitaire, avec la socio-géo-démographie mise au point par la firme Claritas à la fin des années 70. Claritas Prizm, premier outil de segmentation de la clientèle, va permettre d’identifier différents profils de population pour leur adresser des messages ciblés. Utilisée avec succès pour l’introduction du Diet Coke en 1982, la segmentation publicitaire a montré que la nation américaine était une mosaïque de goûts et de sensibilités qu’il fallait adresser différemment. Elle apporte à l’industrie de la publicité un nouvel horizon de consommateurs, préfigurant un ciblage de plus en plus fin, que la personnalisation de la publicité en ligne va prolonger toujours plus avant. La découverte des segments va aller de pair avec la différenciation des audiences et la naissance, dans les années 80, des chaînes câblées qui cherchent à exploiter des populations différentes (MTV pour la musique, ESPN pour le sport, les chaînes d’info en continu…). L’industrie du divertissement et de la publicité va s’engouffrer dans l’exploitation de la fragmentation de l’audience que le web tentera de pousser encore plus loin.

Wu rappelle que la technologie s’adapte à ses époques : "La technologie incarne toujours l’idéologie, et l’idéologie en question était celle de la différence, de la reconnaissance et de l’individualité". D’un coup le spectateur devait avoir plus de choix, plus de souveraineté… Le visionnage lui-même changeait, plus inattentif et dispersé. La profusion de chaînes et le développement de la télécommande se sont accompagnés d’autres modalités de choix comme les outils d’enregistrements. La publicité devenait réellement évitable. D’où le fait qu’elle ait donc changé, devenant plus engageante, cherchant à devenir quelque chose que les gens voudraient regarder. Mais dans le même temps, la télécommande était aussi un moyen d’être plus branché sur la manière dont nous n’agissons pas rationnellement, d’être plus distraitement attentif encore, à des choses toujours plus simples. "Les technologies conçues pour accroître notre contrôle sur notre attention ont parfois un effet opposé", prévient Wu. "Elles nous ouvrent à un flux de sélections instinctives et de petites récompenses"… En fait, malgré les plaintes du monde de la publicité contre la possibilité de zapper, l’état d’errance distrait des spectateurs n’était pas vraiment mauvais pour les marchands d’attention. Dans l’abondance de choix, dans un système de choix sans friction, nous avons peut-être plus perdu d’attention qu’autre chose.

L’internet a démultiplié encore, par de nouvelles pratiques et de nouveaux médiums, ces questions attentionnelles. L’e-mail et sa consultation sont rapidement devenus une nouvelle habitude, un rituel attentionnel aussi important que le prime time. Le jeu vidéo dès ses débuts a capturé toujours plus avant les esprits.

"En fin de compte, cela suggère aussi à quel point la conquête de l’attention humaine a été incomplète entre les années 1910 et les années 60, même après l’entrée de la télévision à la maison. En effet, même s’il avait enfreint la sphère privée, le domaine de l’interpersonnel demeurait inviolable. Rétrospectivement, c’était un territoire vierge pour les marchands d’attention, même si avant l’introduction de l’ordinateur domestique, on ne pouvait pas concevoir comment cette attention pourrait être commercialisée. Certes, personne n’avait jamais envisagé la possibilité de faire de la publicité par téléphone avant même de passer un appel – non pas que le téléphone ait besoin d’un modèle commercial. Ainsi, comme AOL qui a finalement opté pour la revente de l’attention de ses abonnés, le modèle commercial du marchand d’attention a été remplacé par l’un des derniers espaces considérés comme sacrés : nos relations personnelles." Le grand fournisseur d’accès des débuts de l’internet, AOL, a développé l’accès aux données de ses utilisateurs et a permis de développer des techniques de publicité dans les emails par exemple, vendant également les mails de ses utilisateurs à des entreprises et leurs téléphones à des entreprises de télémarketing. Tout en présentant cela comme des "avantages" réservés à ses abonnés ! FB n’a rien inventé ! "

La particularité de la modernité repose sur l’idée de construire une industrie basée sur la demande à ressentir une certaine communion". Les célébrités sont à leur tour devenues des marchands d’attention, revendant les audiences qu’elles attiraient, à l’image d’Oprah Winfrey… tout en transformant la consommation des produits qu’elle proposait en méthode d’auto-récompense pour les consommateurs.

L’infomercial a toujours été là, souligne Wu. La frontière entre divertissement, information et publicité a toujours été floue. La télé-réalité, la dernière grande invention de format (qui va bientôt avoir 30 ans !) promettant justement l’attention ultime : celle de devenir soi-même star.

Le constat de Wu est amer. "Le web, en 2015, a été complètement envahi par la malbouffe commerciale, dont une grande partie visait les pulsions humaines les plus fondamentales du voyeurisme et de l’excitation." L’automatisation de la publicité est le Graal : celui d’emplacements parfaitement adaptés aux besoins, comme un valet de chambre prévenant. "Tout en promettant d’être utile ou réfléchi, ce qui a été livré relevait plutôt de l’intrusif et pire encore." La télévision – la boîte stupide -, qui nous semblait si attentionnellement accablante, paraît presque aujourd’hui vertueuse par rapport aux boucles attentionnelles sans fin que produisent le web et le mobile.

Dans cette histoire, Wu montre que nous n’avons cessé de nous adapter à cette capture attentionnelle, même si elle n’a cessé de se faire à notre détriment. Les révoltes sont régulières et nécessaires. Elles permettent de limiter et réguler l’activité commerciale autour de nos capacités cognitives. Mais saurons-nous délimiter des frontières claires pour préserver ce que nous estimons comme sacré, notre autonomie cognitive ? La montée de l’internet des objets et des wearables, ces objets qui se portent, laisse supposer que cette immixtion ira toujours plus loin, que la régulation est une lutte sans fin face à des techniques toujours plus invasives. La difficulté étant que désormais nous sommes confrontés à des techniques cognitives qui reposent sur des fonctionnalités qui ne dépendent pas du temps passé, de l’espace ou de l’emplacement… À l’image des rythmes de montage ou des modalités de conception des interfaces du web. Wu conclut en souhaitant que nous récupérions "la propriété de l’expérience même de la vie". Reste à savoir comment…

Comment répondre aux monopoles attentionnels ?

Tim Wu – qui vient de publier un nouveau livre The Curse of Bigness : antitrust in the new Gilded age (La malédiction de la grandeur, non traduit) – prône, comme d’autres, un renforcement des lois antitrusts américaines. Il y invite à briser les grands monopoles que construisent les Gafam, renouvelant par là la politique américaine qui a souvent cherché à limiter l’emprise des monopoles comme dans le cas des télécommunications (AT&T), de la radio ou de la télévision par exemple ou de la production de pétrole (Standard Oil), pour favoriser une concurrence plus saine au bénéfice de l’innovation. À croire finalement que pour lutter contre les processus de capture attentionnels, il faut peut-être passer par d’autres leviers que de chercher à réguler les processus attentionnels eux-mêmes ! Limiter le temps d’écran finalement est peut-être moins important que limiter la surpuissance de quelques empires sur notre attention !

La règle actuelle pour limiter le développement de monopoles, rappelle Wu dans une longue interview pour The Verge, est qu’il faut démontrer qu’un rachat ou une fusion entraînera une augmentation des prix pour le consommateur. Outre, le fait que c’est une démonstration difficile, car spéculative, "il est pratiquement impossible d’augmenter les prix à la consommation lorsque les principaux services Internet tels que Google et Facebook sont gratuits". Pour plaider pour la fragmentation de ces entreprises, il faudrait faire preuve que leur concentration produit de nouveaux préjudices, comme des pratiques anticoncurrentielles quand des entreprises absorbent finalement leurs concurrents. Aux États-Unis, le mouvement New Brandeis (qui fait référence au juge Louis Brandeis acteur majeur de la lutte contre les trusts) propose que la régulation favorise la compétition.

Pour Wu par exemple, la concurrence dans les réseaux sociaux s’est effondrée avec le rachat par Facebook d’Instagram et de WhatsApp. Et au final, la concurrence dans le marché de l’attention a diminué. Pour Wu, il est temps de défaire les courtiers de l’attention, comme il l’explique dans un article de recherche qui tente d’esquisser des solutions concrètes. Il propose par exemple de créer une version attentionnelle du test du monopoleur hypothétique, utilisé pour mesurer les abus de position dominante, en testant l’influence de la publicité sur les pratiques. Pour Tim Wu, il est nécessaire de trouver des modalités à l’analyse réglementaire des marchés attentionnels.

Dans cet article, Wu s’intéresse également à la protection des audiences captives, à l’image des écrans publicitaires des pompes à essence qui vous délivrent des messages sans pouvoir les éviter où ceux des écrans de passagers dans les avions… Pour Wu, ces nouvelles formes de coercition attentionnelle sont plus qu’un ennui, puisqu’elles nous privent de la liberté de penser et qu’on ne peut les éviter. Pour lui, il faudrait les caractériser comme un "vol attentionnel". Certes, toutes les publicités ne peuvent pas être caractérisées comme telles, mais les régulateurs devraient réaffirmer la question du consentement souligne-t-il, notamment quand l’utilisateur est captif ou que la capture cognitive exploite nos biais attentionnels sans qu’on puisse lutter contre. Et de rappeler que les consommateurs doivent pouvoir dépenser ou allouer leur attention comme ils le souhaitent. Que les régulateurs doivent chercher à les protéger de situations non consensuelles et sans compensation, notamment dans les situations d’attention captive ainsi que contre les intrusions inévitables (celles qui sont augmentées par un volume sonore élevé, des lumières clignotantes, etc.). Ainsi, les publicités de pompe à essence ne devraient être autorisées qu’en cas de compensation pour le public (par exemple en proposant une remise sur le prix de l’essence)…

Wu indique encore que les réglementations sur le bruit qu’ont initié bien des villes peuvent être prises pour base pour construire des réglementations de protection attentionnelle, tout comme l’affichage sur les autoroutes, également très réglementé. Pour Tim Wu, tout cela peut sembler peut-être peu sérieux à certain, mais nous avons pourtant imposé par exemple l’interdiction de fumer dans les avions sans que plus personne aujourd’hui n’y trouve à redire. Il est peut-être temps de prendre le bombardement attentionnel au sérieux. En tout cas, ces défis sont devant nous, et nous devrons trouver des modalités pour y répondre, conclut-il.

Auteur: Guillaud Hubert

Info: 27 décembre 2018, http://internetactu.blog.lemonde.fr

[ culture de l'epic fail ] [ propagande ] [ captage de l'attention ]

 

Commentaires: 0

Ajouté à la BD par miguel