Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 973
Temps de recherche: 0.0471s

prospective technologique

9 Tendances de l'intelligence artificielle que vous devriez surveiller en 2019

1) Les puces activées par l'intelligence artificielle seront généralisées
Contrairement à d'autres technologies et outils logiciels, l'IA dépend fortement de processeurs spécialisés. Pour répondre aux exigences complexes de l'IA, les fabricants de puces créeront des puces spécialisées capables d'exécuter des applications compatibles avec l'IA.
Même les géants de la technologie comme Google, Facebook et Amazon dépenseront plus d'argent pour ces puces spécialisées. Ces puces seraient utilisées à des fins comme le traitement du langage naturel, la vision par ordinateur et la reconnaissance vocale.

2) L'IA et l'IdO (Internet des objets) se rencontrent
2019 sera l'année de la convergence des différentes technologies avec l'IA. L'IdO se joindra à l'IA sur la couche informatique de pointe. L'IdO industriel exploitera la puissance de l'IA pour l'analyse des causes profondes, la maintenance prédictive des machines et la détection automatique des problèmes.
Nous verrons la montée de l'IA distribuée en 2019. Le renseignement sera décentralisé et situé plus près des biens et des dispositifs qui effectuent les vérifications de routine. Des modèles d'apprentissage machine hautement sophistiqués, alimentés par des réseaux neuronaux, seront optimisés pour fonctionner à la fine pointe de la technologie.

3) Dites "Bonjour" à AutoML.
L'une des plus grandes tendances qui domineront l'industrie de l'IA en 2019 sera l'apprentissage automatique automatisé (AutoML). Grâce à ces capacités les développeurs seront en mesure de modifier les modèles d'apprentissage machine et de créer de nouveaux modèles prêts à relever les défis futurs de l'IA.
AutoML (Cloud AutoMLB, modèles de machine learning personnalisés de haute qualité) trouvera le juste milieu entre les API cognitives et les plates-formes d'apprentissage sur mesure. Le plus grand avantage de l'apprentissage automatique sera d'offrir aux développeurs les options de personnalisation qu'ils exigent sans les forcer à passer par un flux de travail complexe. Lorsque vous combinez les données avec la portabilité, AutoML peut vous donner la flexibilité que vous ne trouverez pas avec d'autres technologies AI.

4) Bienvenue chez AIOps (intelligence artificielle pour les opérations informatiques)
Lorsque l'intelligence artificielle est appliquée à la façon dont nous développons les applications, elle transforme la façon dont nous gérions l'infrastructure. DevOps sera remplacé par AIOps et permettra au personnel de votre service informatique d'effectuer une analyse précise des causes profondes. De plus, cela vous permettra de trouver facilement des idées et des modèles utiles à partir d'un vaste ensemble de données en un rien de temps. Les grandes entreprises et les fournisseurs de cloud computing bénéficieront de la convergence de DevOps avec AI.

5) Intégration du réseau neuronal
L'un des plus grands défis auxquels les développeurs d'IA seront confrontés lors du développement de modèles de réseaux neuronaux sera de choisir le meilleur framework. Mais, avec des douzaines d'outils d'IA disponibles sur le marché, choisir le meilleur outil d'IA pourrait ne pas être aussi facile qu'avant. Le manque d'intégration et de compatibilité entre les différentes boîtes à outils des réseaux de neurones entrave l'adoption de l'IA. Des géants technologiques tels que Microsoft et Facebook travaillent déjà au développement d'un réseau neuronal ouvert (ONNX). Cela permettra aux développeurs de réutiliser les modèles de réseaux neuronaux sur plusieurs frameworks.

6) Les systèmes d'IA spécialisés deviennent une réalité.
La demande de systèmes spécialisés augmentera de façon exponentielle en 2019. Les organisations ont peu de données à leur disposition, mais ce qu'elles veulent, ce sont des données spécialisées.
Cela obligera les entreprises à se doter d'outils qui peuvent les aider à produire des données d'IA de grande qualité à l'interne. En 2019, l'accent sera mis sur la qualité des données plutôt que sur la quantité. Cela jettera les bases d'une IA qui pourra fonctionner dans des situations réelles. Les entreprises se tourneront vers des fournisseurs de solutions d'IA spécialisés qui ont accès à des sources de données clés et qui pourraient les aider à donner du sens à leurs données non structurées.

7) Les compétences en IA détermineront votre destin.
Même si l'IA a transformé toutes les industries auxquelles vous pouvez penser, il y a une pénurie de talents avec des compétences en IA. Pat Calhoun, PDG d'Espressive a déclaré : " La plupart des organisations souhaitent intégrer l'IA dans leur transformation numérique, mais n'ont pas les développeurs, les experts en IA et les linguistes pour développer leurs propres solutions ou même former les moteurs des solutions préconçues pour tenir leurs promesses ".
Rahul Kashyap, PDG d'Awake Security, ajoute : "Avec autant de solutions'AI-powered' disponibles pour répondre à une myriade de préoccupations commerciales, il est temps que les entreprises deviennent plus intelligentes sur ce qui se passe dans la 'boîte noire' de leurs solutions AI". La façon dont les algorithmes d'IA sont formés, structurés ou informés peut conduire à des différences significatives dans les résultats, poursuit-il. La bonne équation pour une entreprise ne sera pas la bonne pour une autre."

8) L'IA tombera dans de mauvaises mains
Tout comme une pièce de monnaie à deux faces, l'IA a un côté positif et un côté négatif. Les professionnels de la sécurité informatique utiliseront l'intelligence artificielle pour détecter rapidement les activités malveillantes. Vous pouvez réduire les faux positifs de 90 % à l'aide d'algorithmes de réponse et d'apprentissage machine pilotés par l'intelligence artificielle.
L'intelligence artificielle tombera entre de mauvaises mains et les cybercriminels aux desseins malveillants en abuseront pour réaliser leurs objectifs. Avec l'automatisation, les armées de cyberattaquants peuvent lancer des attaques mortelles avec plus de succès. Cela obligera les entreprises à combattre le feu par le feu et à investir dans des solutions de sécurité alimentées par l'IA capables de les protéger contre de telles attaques.

9) Transformation numérique alimentée par l'IA
En 2019, l'IA sera partout. Des applications Web aux systèmes de soins de santé, des compagnies aériennes aux systèmes de réservation d'hôtels et au-delà, nous verrons des nuances de l'IA partout et elle sera à l'avant-garde de la transformation numérique.
Tung Bui, président du département informatique et professeur à l'Université d'Hawaii a déclaré : "Contrairement à la plupart des prédictions et des discussions sur la façon dont les véhicules et les robots autonomes finiront par affecter le marché du travail - ceci est vrai mais prendra du temps pour des raisons institutionnelles, politiques et sociales - je soutiens que la tendance principale en IA sera une accélération dans la transformation numérique, rendant plus intelligent les systèmes commerciaux existants".

Auteur: Internet

Info: zero hedge, 1 mars 2019

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

décadence

La sexualité des Français toujours plus extrême (et égoïste ?)
Gérard Leleu sexologue, revient sur la dérive des pratiques extrêmes, les risques courus et la dégradation de la sexualité dans nos sociétés.
Atlantico : Il semble que les accidents liés à des pratiques sexuelles extrêmes soient en progression, pouvez-vous nous le confirmer ?
Gérard Leleu : Bien évidemment, et je parle en connaissance de cause... Avant d'être sexologue, j'ai exercé la profession d'urgentiste.
Les gens utilisent de plus en plus de " jouets", si je puis dire, qui sont vraiment d'une proportion inimaginable. S'ils avaient une idée de l'impact que cela pourrait avoir sur leur organisme, ils ne tenteraient pas ce genre d'expériences. Médicalement, c'est de la folie.
En ce qui concerne les corps étrangers, depuis toujours nous en avons trouvé de toutes sortes. Les gens sont d'une imagination débordante. Cependant c'était le plus souvent par auto-érotisme. Cela n'a pas dû tellement changer, de surcroît avec la normalisation des sex-toys, ces derniers sont conformes à certaines normes ce qui diminue potentiellement le danger, du moins plus qu'un ustensile de cuisine.
Les pratiques liées à l'auto asphyxie se développent également. D'autres prendraient du Prozac, ou n'importe quelle drogue, ceux qui se privent d'oxygène utilisent le plaisir car ce dernier provoque la sécrétion de substances hédoniques, (la dopamine, les endorphines... etc...) Certains poursuivent leur quête de plaisir en se recouvrant la tête d'un sachet plastique. La strangulation entraîne une érection ainsi qu'une rétention de CO2 et le phénomène d'hypercapnie qui provoque une sorte de vertiges et d'hypoxie. Les sensations que l'on ressent à ce moment-là, sont des signes proches de la mort c'est extrêmement dangereux.
D'où vient ce besoin d'aller toujours plus loin dans les pratiques sexuelles ?
Désormais les individus visent le maximum de plaisir, on chosifie l'autre. L'autre est un objet dont le but est d'en tirer le plus de plaisir avec absence de sens. La seule chose qui compte c'est la quantité de plaisir au dépend de la qualité. Même si la notion de plaisir est propre à chacun cette dernière s'acquiert à travers les baisers, les caresses, différentes positions, la relation entre deux individus et non pas un simple acte sexuel.
Le plaisir est quelque chose qui s'use. Si telle sensation procure tel plaisir au bout d'un certain temps ce dernier s'atténue, il faut rechercher une sensation plus forte. Cette recherche s'expérimente alors, pour certaines personnes, à travers un objet plus gros plus profond et par conséquent des pratiques de plus en plus extrêmes.
Le seul but est le plaisir et non plus la relation, ou l'amour comme quelque chose de sacré. L'autre est désormais un outil qui vous permet de vous assouvir.
Existe-t-il une démocratisation de ces pratiques que l'on pourrait qualifier d'extrêmes?
La hiérarchie de ce qui est à faire ou à ne pas faire est floue. Cela est peut être dû à une démocratisation. Je pense effectivement que la plupart des gens pratiquaient le masochisme ou le sadisme bien avant le regain d'intérêt pour Sade. Certes, beaucoup de gens s'adonnent à ces jeux sexuels extrêmes cependant, cela a toujours été l'apanage d'une certaine élite. N'importe qui peut désormais trouver un sex-shop alors que tous ces objets autrefois, étaient réservés à une certaine partie de la société.
L'anus actuellement devient de plus en plus souvent le but central de la relation sexuelle avec la pratique du fist (insertion d'un poing) alors qu'avant c'était exceptionnel. Désormais si l'on ne s'aventure pas à l'exploration de l'anus on est considéré comme rétro et dépassé. Il existe une utilisation érotique du rectum de plus en plus forte.
Mon propos n'est pas d'inculquer le bien et le mal, mais de prévenir le danger ou même de dire ce qui contribue ou pas à l'équilibre. Le rectum n'a pas cette vocation-là, quel que soit le plaisir qu'il peut procurer. La pratique est ancienne cependant, il existe une amplification du phénomène qui est dû à une sorte de non-sens de relation sexuelle, l'autre étant un objet et non une personne et un sujet.
C'est très significatif de l'état exécrable de la sexualité en Occident. La sexualité a été réprimée pendant des siècles. Désormais, la notion de pêcher charnel n'existe plus. Toutefois, le malheur de l'Occident c'est que nous n'avons pas de tradition érotique comme cela peut être le cas en Orient. Faute de tradition érotique nous sommes tombés dans l'escalade du " Hard ". Le but n'est plus dans la relation mais dans le plaisir personnel. Et dans la quantité de plaisir et non plus la qualité de plaisir. Jouir de plus en plus, sans considérer que l'autre est différent d'un outil. La tendance de donner la préférence à la voie rectale est un signe d'absence de sens dans la sexualité en occident.
Que cette pratique s'exerce de temps en temps n'est pas le problème, c'est l'obsession et la focalisation des individus sur ce mode de relation qui m'alarme. Et le fait que les individus qui ne pratiquent pas, soient considérés comme dépassés, rétro, ce n'est pas juste.
Quel est votre constat sur cette dérive des pratiques extrêmes ?
Cela ne m'inquiète pas tellement sur le plan médical, bien qu'il existe tout de même d'importants accidents. En tant que médecin, je dois vous dire que cela entraîne certaines complications non négligeables. Néanmoins, je me positionne plus sur le plan de l'humanisme. Mon idéalisme constate effectivement que la sexualité en Occident, n'arrive pas à être sacrée.
Si on prône comme seul but le plaisir et le maximum de plaisir, autrement dit la performance en dépit de la perfection. Cela aboutit à des gens qui sont blasés, qui seront dans la recherche constante de plaisir. Ils vont alors multiplier les moyens, les expériences à travers des objets certes mais également l'amour pluriel, l'amour sadomasochiste. J'ai observé des jeunes qui s'adonnaient à la zoophilie. Les perversions débutent très jeunes.
Sans être dans le moralisme, cela engendre des déséquilibres dans la tête des gens et une mauvaise estime d'eux même. Cela a un impact sur leur équilibre mental et ne conduit pas au bonheur. Ils en arrivent à être déséquilibrés et angoissés. Ce n'est pas un accomplissement. Ils sont désabusés écoeurés très tôt. C'est une escalade qui déçoit toujours puisque ça n'a pas de sens.
Si je m'insurge contre l'état déplorable de la sexualité des Français, ce n'est pas du tout d'un point de vue éthique mais du point de vue de l'équilibre des individus et de leur bonheur de vivre.

Auteur: Leleu Gérard

Info:

[ sociologie ] [ porno ] [ bdsm ] [ caudalisme ]

 

Commentaires: 0

topologie abstraite

Des surfaces au-delà de l'imagination sont découvertes après des décennies de recherche

Grâce à des idées empruntées à la théorie des graphes, deux mathématiciens ont montré que des surfaces extrêmement complexes sont faciles à parcourir.

En juillet dernier, deux mathématiciens de l'Université de Durham, Will Hide et Michael Magee , ont confirmé l'existence d'une séquence de surfaces très recherchée : chacune plus compliquée que la précédente, devenant finalement si étroitement liée à elles-mêmes qu'elles atteignent presque les limites de ce qui est possible. possible.

Au début, il n’était pas évident que ces surfaces existaient. Mais depuis que la question de leur existence s’est posée pour la première fois dans les années 1980, les mathématiciens ont compris que ces surfaces pouvaient en réalité être courantes, même si elles sont extrêmement difficiles à identifier – un exemple parfait de la façon dont les mathématiques peuvent renverser l’intuition humaine. Ce nouveau travail constitue un pas en avant dans une quête visant à aller au-delà de l’intuition pour comprendre les innombrables façons dont les surfaces peuvent se manifester.

"C'est un brillant morceau de mathématiques", a déclaré Peter Sarnak , mathématicien à l'Institute for Advanced Study de Princeton, New Jersey.

Les surfaces comprennent toutes sortes d’objets bidimensionnels : l’enveloppe extérieure d’une sphère, d’un beignet ou d’un cylindre ; une bande de Möbius. Ils sont essentiels aux mathématiques et à la physique. Mais même si la relation des mathématiciens avec les surfaces remonte à plusieurs siècles, ils ne connaissent pas du tout ces objets.

Les surfaces simples ne sont pas le problème. Simple dans ce cas signifie que la surface a un petit nombre de trous, ou un faible " genre ". Une sphère, par exemple, n'a pas de trous et a donc un genre nul ; un beignet en a un.

Mais lorsque le genre est élevé, l’intuition nous fait défaut. Lorsqu'Alex Wright , mathématicien à l'Université du Michigan, tente de visualiser une surface de haut genre, il se retrouve avec des trous disposés en rangée bien rangée. " Si vous vouliez que je sois un peu plus créatif, je pourrais l'enrouler en un cercle avec de nombreux trous. Et j’aurais du mal à imaginer une image mentale fondamentalement différente de celle-là ", a-t-il déclaré. Mais sur les surfaces de grande qualité, les trous se chevauchent de manière complexe, ce qui les rend difficiles à saisir. Une simple approximation est " aussi loin d’être représentative qu’elle pourrait l’être, dans tous les sens du terme ", a déclaré Wright.

Cette lutte était prévisible, a déclaré Laura Monk , mathématicienne à l'Université de Bristol. " On peut souvent faire des choses qui ne sont pas bonnes. Cependant, créer des choses qui sont bonnes, qui ressemblent à ce que nous attendons généralement d’être vrai, est un peu plus difficile ", a-t-elle déclaré.

Cela signifie que les mathématiciens souhaitant vraiment comprendre l’espace des surfaces doivent trouver des moyens de découvrir des objets dont ils ignorent même l’existence.

C’est exactement ce qu’ont fait Hide et Magee dans leur article de juillet, confirmant l’existence de surfaces sur lesquelles les mathématiciens s’interrogeaient depuis des décennies. La conjecture qu’ils ont prouvée et l’histoire qui l’entoure s’inspirent d’un tout autre domaine des mathématiques : la théorie des graphes.

Le maximum possible

Pour les mathématiciens, les graphiques sont des réseaux constitués de points ou de nœuds reliés par des lignes ou des arêtes. Dès 1967, des mathématiciens comme Andrey Kolmogorov étudiaient des réseaux qui imposaient un coût à la connexion de deux nœuds. Cela a conduit à un exemple de ce que l’on appellera plus tard un graphe d’expansion : un graphe qui maintient le nombre d’arêtes à un faible niveau, tout en maintenant une connectivité élevée entre les nœuds.

Les graphiques expanseurs sont depuis devenus des outils cruciaux en mathématiques et en informatique, y compris dans des domaines pratiques comme la cryptographie. À l’instar d’un système routier bien conçu, ces graphiques facilitent le déplacement d’un nœud à un autre sans couvrir l’intégralité du graphique avec des arêtes. Les mathématiciens aiment limiter le nombre d’arêtes en stipulant que chaque nœud ne peut avoir, disons, que trois arêtes en émanant – tout comme vous ne voudriez peut-être pas plus de quelques autoroutes sillonnant votre ville.

Si un ordinateur choisit au hasard où mènent les trois arêtes de chaque nœud, vous constaterez que, surtout lorsque le graphique est très grand, la plupart de ces graphiques aléatoires sont d'excellents expanseurs. Mais bien que l’univers soit rempli de graphiques d’expansion, les êtres humains ont échoué à maintes reprises à les produire à la main.

"Si vous voulez en construire un, vous ne devriez pas les dessiner vous-même", a déclaré Shai Evra , mathématicien à l'Université hébraïque de Jérusalem. "Notre imagination ne comprend pas ce qu'est un expanseur."

L’idée d’expansion, ou de connectivité, peut être mesurée de plusieurs manières. La première consiste à couper un graphique en deux gros morceaux en coupant les bords un par un. Si votre graphique est constitué de deux groupes de nœuds, les groupes étant reliés par une seule arête, il vous suffit de couper une seule arête pour la diviser en deux. Plus le graphique est connecté, plus vous devrez découper d'arêtes.

Une autre façon d’accéder à la connectivité consiste à parcourir le graphique de nœud en nœud, en choisissant à chaque étape une arête sur laquelle marcher au hasard. Combien de temps faudra-t-il pour visiter tous les quartiers du graphique ? Dans l'exemple avec les deux amas, vous serez confiné à l'une des bulles à moins que vous ne traversiez la seule connexion avec l'autre moitié. Mais s’il existe de nombreuses façons de voyager entre les différentes zones du graphique, vous parcourrez l’ensemble en peu de temps.

Ces mesures de connectivité peuvent être quantifiées par un nombre appelé écart spectral. L'écart spectral est nul lorsque le graphe est complètement déconnecté, par exemple s'il est composé de deux groupes de nœuds qui ne sont pas du tout attachés l'un à l'autre. À mesure qu’un graphe devient plus connecté, son écart spectral aura tendance à s’élargir.

Mais l’écart spectral ne peut aller que jusqu’à un certain point. En effet, les deux caractéristiques déterminantes des graphes d’expansion – peu d’arêtes et une connectivité élevée – sont apparemment en contradiction l’une avec l’autre. Mais en 1988, Gregory Margulis et, indépendamment, Sarnak et deux co-auteurs ont décrit des " expanseurs optimaux " – des graphiques dont l’écart spectral est aussi élevé que le maximum théorique. " C'est choquant qu'ils existent ", a déclaré Sarnak.

Plus tard, les mathématiciens prouveront que la plupart des grands graphes sont proches de ce maximum. Mais le travail avec les expanseurs optimaux et les graphiques aléatoires ne consistait pas simplement à trouver les bons endroits pour placer les arêtes. Cela nécessitait le recours à des techniques étranges et sophistiquées empruntées à la théorie des nombres et des probabilités.

Auteur: Internet

Info: https://www.quantamagazine.org/ - Leila Sloman, 2 juin 2022

[ . ]

 
Commentaires: 1
Ajouté à la BD par miguel

intelligence artificielle

Cinq indices pour repérer les contenus écrits par ChatGPT, Bard ou d'autres robots conversationnels

Voici des astuces pour détecter ces textes qui ne sont pas écrits par des humaines.

1) Elles font des répétitions (mais pas de fautes)

Donc Si vous trouvez une coquille (faute de frappe, de grammaire, etc.) dans un texte, il s'agit d'un bon moyen de voir que l'article que vous lisez a été au minimum retouché par un être humain. En revanche, les articles rédigés par une IA sans supervision humaine sont souvent truffés de répétitions. L'écriture générative a en effet tendance à reproduire les mêmes termes et structures de phrases – même si c'est de moins en moins le cas. Les IA sont de plus en plus performantes et leurs utilisateurs savent également de mieux en mieux les utiliser pour contourner ces écueils.

Des logiciels ont même été développés afin de rendre encore plus humains les textes écrits par une IA. Le plus connu s'appelle Undetectable.ai et permet "d'humaniser" les textes artificiels en les confrontant aux principaux détecteurs d'IA qui existent. De fait, ces détecteurs deviennent de moins en moins fiables. "Open AI [l'entreprise créatrice de ChatGPT] a récemment abandonné son détecteur, car ça ne marche pas", fait remarquer Virginie Mathivet, spécialiste en la matière.

2 Elles sont capables d'affirmer des absurdités

Les IA sont très performantes pour les tâches très codifiées, comme l'orthographe, mais elles peuvent affirmer des absurdités sans sourciller. "Si vous demandez à une IA d'écrire une recette d'omelette aux œufs de vache, elle peut tout à fait le faire." Indique Amélie Cordier, ingénieure spécialiste des IA. 

Les sites qui utilisent des IA pour produire des articles à la chaîne, à partir de contenus trouvés sur internet, sont souvent confrontés à ce problème. Récemment, le site The Portal, qui traite de l'actualité du jeu vidéo, s'est fait épingler sur Twitter par le journaliste Grégory Rozières. Certains articles contiennent en effet de fausses informations grossières, car l'IA qui les rédige a repris au premier degré des blagues trouvées sur Reddit.

Lorsque vous lisez un article et qu'une information semble absurde, ou qu'un chiffre vous paraît démesuré, cela peut donc être la marque d'une rédaction non-humaine. Pour s'en assurer, le mieux est alors de vérifier l'information douteuse grâce à d'autres sources de confiance. "Cela revient à faire du fact-checking, c'est à l'humain d'avoir un regard critique", commente Virginie Mathivet.

3) Elles font preuve d'une productivité inhumaine

La rédaction par IA est encore loin d'être un gage de qualité, mais permet de produire un très grand nombre d'articles en un temps record. Prudence donc face aux sites qui publient quotidiennement une quantité faramineuse d'articles, sans pour autant employer de nombreuses personnes. "Si on voit qu'un blog publie 200 articles par jour sous le même nom, c'est un indice", explique Virginie Mathivet. Certains articles écrits par des robots sont signés par un nom, comme s'ils avaient été rédigés par une personne. Si cette signature semble trop prolifique, l'utilisation d'une IA est à suspecter fortement. Sur le site The Portal, déjà cité plus haut, un même "journaliste" a ainsi signé près de 7 000 articles en seulement neuf jours.

De plus, si les articles entre eux comportent de nombreuses similitudes dans leur forme et leur structure, il y a fort à parier que ceux-ci soient rédigés automatiquement. Les IA ont en effet tendance à produire des contenus très homogènes, surtout s'ils sont créés à partir de la même consigne utilisée en boucle. "L'IA imite, c'est la façon par laquelle elle fonctionne. Elle homogénéise un peu tout", fait remarquer Amélie Cordier.

4 Elles écrivent mal et citent rarement leurs source

Même si elles signent parfois d'un nom humain, les IA ne peuvent pas incarner leurs articles de la même manière qu'un journaliste en chair et en os. Si un journaliste n'a strictement aucune existence en ligne en dehors de sa page auteur, cela peut faire partie des indices qui laissent à penser à une rédaction par IA. Enfin, les articles publiés grâce à une IA ont souvent un ton très factuel, assez désincarné. Les IA citent très rarement leurs sources et ne font jamais intervenir de personne humaine sous forme de citation comme dans un article de presse.

Elles sont en revanche tout à fait capables d'en inventer si on leur demande de le faire. Dans un numéro paru en avril 2023, le magazine people allemand Die Aktuelle a poussé le vice jusqu'à publier une fausse interview exclusive de Michael Schumacher, générée par une AI, comme le raconte le site spécialisé Numerama. La famille de l'ancien champion de Formule 1 a porté plainte et la rédactrice en chef du magazine a finalement été limogée.

L'IA peut cependant être un outil intéressant, tant qu'elle reste sous supervision humaine. Le journaliste Jean Rognetta, créateur de la newsletter Qant, a quotidiennement recours à l'IA. Selon lui, il n'est "plus possible de reconnaître avec certitude un article écrit par une IA, si ce n'est que c'est souvent du mauvais journalisme". S'il utilise l'IA pour écrire sa newsletter, Jean Rognetta reste en effet convaincu de la nécessité d'effectuer une relecture et une correction humaine. "Notre newsletter est écrite avec, et non par une IA", martèle-t-il. Une approche qui pourrait bientôt se généraliser à d'autres journaux. Le 19 juillet dernier, le New York Times annonçait dans ses pages qu'un outil d'IA, destiné à automatiser certaines tâches effectuées par ses journalistes, était en cours de développement par Google.

5 Elles seront bientôt signalées par un filigrane

Face à la difficulté de plus en plus grande de détecter les contenus générés via une IA, l'Union européenne a adopté en juin dernier le "AI Act", avec l'objectif de réguler le secteur. A partir de l'application de la nouvelle réglementation, pas prévue avant 2026, les contenus générés par IA devront être signalés par un "watermark" (une signature en filigrane) indiquant clairement qu'ils n'ont pas été créés par un humain.

La forme de ce watermark n'est cependant pas encore entièrement définie. Il pourrait prendre la forme d'une phrase d'avertissement ou être dissimulé dans le texte, afin d'être moins facilement effaçable par les utilisateurs. Open AI a récemment annoncé travailler sur un watermark invisible. Comment ? Une récente étude (PDF) de l'université du Maryland propose par exemple que les IA soient programmées pour utiliser plus fréquemment une "liste spéciale" de mots définie à l'avance, permettant aux logiciels de détection d'être plus efficaces.

"Il y a de bonnes intentions au niveau de l'UE et des éditeurs, mais le problème reste la question de la mise en œuvre", estime Amélie Cordier. Si la régulation peut se mettre en place facilement pour les plus gros acteurs comme Open AI, Google, etc., elle sera impossible à imposer aux petites entités qui pullulent.

"Si l'utilisateur a le choix entre un logiciel avec 'watermark', ou un logiciel gratuit indétectable, la régulation risque d'être inefficace."

Une opinion que partage Virginie Mathivet, particulièrement en ce qui concerne les "fake news". "Une personne qui veut faire de la désinformation fera en sorte de ne pas avoir de watermark", conclut-elle.

Auteur: Internet

Info: https://www.francetvinfo.fr/, 2 sept 2023, Pauline Lecouvé

[ homme-machine ] [ machine-homme ]

 

Commentaires: 0

Ajouté à la BD par miguel

neurologie

Construire de meilleures cartes mentales

Des techniques innovantes d'analyse de la fonction et de la structure cérébrales révèlent des détails remarquables de l'architecture neuronale, offrant ainsi de nouvelles pistes pour le diagnostic et le traitement des maladies cérébrales.

Bien que le cerveau humain soit un objet de fascination scientifique depuis des siècles, nous ne faisons qu'effleurer la surface en termes de compréhension de sa fonctionnalité et de sa complexité. Nous connaissons bien les zones fonctionnelles générales du cerveau, mais la manière dont ce réseau interconnecté de neurones traite et transmet les informations pour donner naissance à la pensée et à la mémoire reste un domaine de recherche très actif.

L'étude du fonctionnement du cerveau au niveau physiologique fondamental est l'un des domaines de recherche les plus difficiles, nécessitant de nouvelles méthodes d'expérimentation et de détection de l'activité cérébrale à l'échelle neuronale. Les progrès récents des techniques d'imagerie cérébrale et la compréhension de la structure fine du cerveau ont permis d'explorer les fonctions cérébrales d'une nouvelle manière. Ces découvertes ont des répercussions sur la santé du cerveau et l'intelligence artificielle.

Cerveau/ESPRITS et au-delà

Les projets japonais Brain Mapping by Integrated Neurotechnologies for Disease Studies (Brain/MINDS) et Strategic International Brain Science Research Promotion Program (Brain/MINDS Beyond), qui font partie de plusieurs projets nationaux de recherche à grande échelle sur le cerveau lancés ces dernières années dans le monde entier, visent à étudier les circuits neuronaux qui sous-tendent les fonctions cérébrales supérieures. Il s'agit d'initiatives nationales auxquelles participent des dizaines d'institutions, chacune spécialisée dans un domaine particulier de l'étude du cerveau.

L'étude des primates non humains à l'Université de Tokyo et à l'Institut national des sciences et technologies quantiques (QST) est un domaine qui apporte de nouvelles connaissances sur l'architecture du cerveau.

"Lorsqu'il s'agit de comprendre le cerveau humain et les troubles qui peuvent l'affecter, seuls les autres primates partagent nos fonctions supérieures, telles qu'un cortex visuel hiérarchisé et un cortex préfrontal hautement développé responsable de la fonction exécutive et de la prise de décision", explique Takafumi Minamimoto, qui dirige le groupe des systèmes et circuits neuronaux du département d'imagerie cérébrale fonctionnelle de l'Institut national des sciences et technologies quantiques.

"La recherche sur le cerveau des primates est difficile et coûteuse, mais indispensable. Elle nous permet de mieux comprendre le fonctionnement du cerveau, ce qui peut nous aider à comprendre et à traiter les troubles cérébraux chez l'homme".

L'équipe de Minamimoto se concentre sur le développement de méthodes plus précises d'analyse des fonctions cérébrales. Leur plus grande réussite a été la mise au point d'une méthode chimiogénétique pour désactiver l'activité cérébrale au niveau d'un neurone unique, combinée à la tomographie par émission de positrons (TEP) - une technique d'imagerie pour des molécules spécifiques. Cela a permis de visualiser non seulement l'activité des neurones des primates, mais aussi leur connexion avec d'autres zones du cerveau.

"Avec la chimiogénétique, nous injectons une solution virale inoffensive dans une zone spécifique du cerveau pour modifier génétiquement les neurones afin de les rendre sensibles à un produit chimique suppresseur", explique Minamimoto. "Nous pouvons ensuite injecter le suppresseur afin d'éteindre les neurones modifiés pendant plusieurs heures".

L'équipe a récemment mis au point un produit chimique suppresseur 100 fois plus efficace, ce qui lui permet d'injecter de minuscules doses de ce suppresseur pour affecter sélectivement des groupes individuels de neurones et leurs connexions axonales. Ils ont utilisé cette technique pour réduire au silence des connexions spécifiques afin de découvrir les circuits responsables de la mémoire de travail et de la prise de décision.

Cette approche est également prometteuse pour le traitement des troubles cérébraux chez l'homme. Par exemple, comme modèle potentiel de traitement chez l'homme, le groupe a récemment rapporté que la chimiogénétique peut supprimer les crises d'épilepsie chez les macaques.

Le système visuel

Une autre équipe, située à l'université de Tokyo et dirigée par Kenichi Ohki, étudie la manière dont les informations visuelles sont traitées chez les primates, dont le cortex visuel est très développé et hiérarchisé. Les recherches du groupe sur les ouistitis utilisent une technique d'imagerie calcique à haute sensibilité qui permet de visualiser la façon dont des parties spécifiques du cerveau réagissent à différents stimuli.

"L'imagerie au calcium est une technique utilisée depuis longtemps pour observer le fonctionnement du cerveau chez les souris, mais elle n'était pas assez sensible pour visualiser des groupes discrets de neurones chez les primates avec la même qualité que chez les souris", explique M. Ohki. "En collaboration avec Tetsuo Yamamori du RIKEN, nous avons mis au point une méthode améliorée qui a augmenté de manière significative l'expression de la protéine fluorescente GCaMP6 dans le cerveau des primates, ce qui, combiné à l'imagerie à deux photons basée sur le laser, nous permet de visualiser l'activité des neurones avec une étonnante précision dans des détails.

Le système visuel représente plus de la moitié du cortex cérébral chez les primates et se constitue vie une hiérarchie élaborée d'étapes de traitement de l'information. Il existe des zones distinctes qui traitent les motifs et les angles, par exemple, et les recherches d'Ohki ont montré que les neurones se déclenchent selon des schémas coordonnés sensibles à ces différents stimuli, avec des fonctionnalités différentes au niveau cellulaire.

"L'une des conclusions fascinantes de nos travaux est que la hiérarchie du système visuel semble traiter le bruit dans une direction opposée à celle dont les réseaux neuronaux artificiels traitent généralement les stimuli sonores", explique Ohki. "Il serait intéressant de construire un réseau neuronal artificiel qui permette une telle méthode de traitement du bruit dans le système visuel des primates.

Le groupe de recherche d'Ohki étudie en détail la façon dont le bruit est traité dans ces connexions cortico-corticales, qui semblent fondamentales pour le fonctionnement du cerveau chez les primates. Ces connexions peuvent également expliquer la plasticité du cerveau et la façon dont différentes zones peuvent être enrôlées pour le traitement de l'information si la connexion primaire est entravée.

"Par exemple, nous avons découvert que le développement du système visuel se produit chez le nouveau-né à la suite d'une activité ondulatoire à travers la rétine, qui stimule les connexions thalamo-corticales qui construisent cette structure hiérarchique", explique Ohki4.

Sans ces stimuli, les connexions ne peuvent pas se développer du cortex visuel primaire vers le cortex visuel supérieur. Par ailleurs, si ces connexions ne se développent pas, on peut s'attendre à ce que des connexions alternatives soient établies à partir d'autres zones, telles que le cortex somatosensoriel, vers le cortex visuel supérieur. Ohki suggère que cela pourrait également expliquer comment les patients aveugles utilisent le cortex visuel pour "lire" le braille, bien qu'il s'agisse d'une fonction tactile.

"Les résultats de nos études sur les primates fournissent des indications précieuses sur les troubles neuropsychiatriques humains, en particulier ceux qui sont liés à une mauvaise communication dans le cerveau. Nos techniques seront utiles pour orienter la recherche spécifique et transposer les connaissances des primates à l'homme", déclare M. Minamimoto.

"Nous espérons partager ces connaissances et cette technologie avec le monde entier et collaborer avec d'autres groupes pour faire avancer ce domaine important de la recherche sur le cerveau.

Auteur: Internet

Info: https://www.nature.com, article publicitaire, Réf : Nagai, Y. et al. Nat. Comm. 7, 13605 (2016), Neuro. 23, 1157-1167 (2020), Miyakawa, N. et al. Nat 608, 578-585 (2022). Comm. 14, 971 (2023)

[ visualisation ] [ primatocentrisme ]

 

Commentaires: 0

Ajouté à la BD par miguel

intermédiaire

Hier, je me suis cultivée. Je vous préviens tout de suite, si vous vous attendez au récit d'une visite passionnante dans un musée consacré à la période Momoyama, vous allez être déçus (ou soulagés, c'est selon). Au fait, la période Momoyama a réellement existé au Japon (1573 - 1603). Je ne sais pas si un musée lui a été consacré, mais j'aime bien ce nom.

Non, hier, je lisais "Le Monde" sur Internet. Soudain, dans la colonne de droite, là où se trouvent les liens vers les sites des cabinets de recrutement, je vois dans une liste d'offres d'emploi le mot "Dumiste". Le terminologue en herbe qui sommeille dans tout traducteur s'éveille instantanément, car je n'ai aucune idée de ce que peut être un ou une dumiste, qui peut être h/f, précise l'intitulé de l'annonce, montrant par là que le (ou la, parce que là aussi, je ne sais pas ce que c'est) CA du pays de Montbéliard n'est pas sexiste (la loi le lui défend, de toute façon). Décidément, il y a trop longtemps que j'ai quitté la France.

Dumiste, là, à brûle-pourpoint, ça me fait penser à une seule chose, cette collection d'ouvrages pratiques sur l'informatique qui a été traduite en français par "(logiciel x) pour les nuls" et dont le titre orginal en anglais est "(XXX) for dummies". Pas très flatteur, donc, et ça ne doit pas être ça. J'envisage ensuite un(e) spécialiste d'une étape particulière d'un processus technique industriel complexe, mais comme ces annonces sont en principe classées par thème et que je me trouve dans la rubrique culture du journal, je doute que ce soit ça. Je subodore plutôt quelque substantif dérivé d'un acronyme, mais lequel?

Je clique donc sur l'annonce, mais ça ne donne pas grand-chose, car si j'atterris bien sur un site web  regorgeant d'"espaces ceci" et d'"espaces cela" et garantissant pourtant un "référencement optimal" des offres d'emploi, je ne retrouve même pas l'intitulé de l'annonce, j'ai dû me tromper d'espace quelque part. Je me tourne donc vers l'internet et je donne "dumiste" en pâture à Google. (Vous savez qu'en anglais, to google est devenu un verbe, "just google it", qu'on dit). Pas de problème, il connaît, et il connaît même très bien, car il me fournit obligeamment un tas de documents en français dans lesquels apparaît le mot "dumiste"".

En français, car le dumiste, c'est une invention purement hexagonale, jugez plutôt! Grâce à un passionnant document du Centre de formation des musiciens intervenants de l'université de Poitiers, je comprends assez vite que ça a un rapport avec l'enseignement de la musique, et aussi que le dumiste n'est absolument pas un professeur de musique, mais un "musicien intervenant", ou plus exactement "une personne-ressource dans la cité", qui "fait vivre des situations visant au développement de l'éducation artistique de l'enfant en temps scolaire et hors temps scolaire. Il intervient à long terme dans l'accompagnement d'un projet éducatif et se soucie de la cohérence des parcours artistiques musicaux des enfants". Les activités qu'il/elle organise doivent permettre aux enfants de "vivre des démarches artistiques collectives innovantes", "d'acquérir des savoirs et des savoir-faire fondamentaux, de développer une attitude d'écoute et se construire un jugement esthétique personnel". Il ou elle doit aussi aider les enseignants à devenir les "garants de la cohérence et de la transversalité des apprentissages".

Dans le même document se trouve un "référentiel de compétences" qui énumère toutes les qualifications, aptitudes et qualités qu'un dumiste digne de ce nom se doit de posséder, et elles sont nombreuses. J'apprends également que le dumiste exerce principalement son activité dans les écoles maternelles ou élémentaires, mais "en s'intégrant à des dispositifs institutionnels partenariaux", ce qui, vous en conviendrez, change tout. Je crois que ça veut dire qu'il/elle peut aussi être amené à travailler "en zone rural" (sans e) ou "dans des centres socioculturel" (sans s).

Tout cela ne me dit pas d'où on a sorti ce mot "dumiste". Je consulte ensuite une étude sur les situations d'emploi des musiciens intervenants diplômés des CFMI, et il me paraît désormais assez clair que le mot "dumiste" a été forgé sur DUMI, le MI signifiant musicien intervenant, mais d'où diable sort ce "DU"? En gros, cette étude dit que c'est drôlement difficile de comprendre ce que fait un dumiste, qu'elle qualifie de "musicien d’un troisième type d’abord et surtout itinérant avant d’être intermittent ou permanent". J'avoue que, de mon côté, je commence à m'y perdre un peu entre ces "intervenant" et ces "itinérant", et si en plus il est du troisième type, ce musicien... Lyrique, l'étude nous décrit aussi les dumistes comme des "colporteurs de musiques à la croisée de bien des chemins", mais enfin, comme elle a dû être rédigée pour l'administration, elle se reprend bien vite et nous précise que (je coupe, parce que la phrase fait dix lignes) "la diversité et la transversalité de ses savoir-faire musicaux, la multiplicité des compétences mobilisées (...), la diversification de ses activités et de ses lieux d’intervention (...), la multiplicité de ses partenaires (...) pour un même projet viennent singulièrement complexifier les concepts de spécialisation/ diversification musicale et professionnelle et, plus largement, l’élaboration d’une vision claire et pertinente d’un métier pluriel ..." Bref, comme le malheureux dumiste doit savoir faire des tas de choses, travailler dans un tas d'endroits et pour des tas de gens différents, eh bien ça "complexifie singulièrement" les choses. Le texte nous rappelle que le "dumiste" est une "personne-ressource", et insiste d'ailleurs sur la nécessité de "favoriser la lisibilité de la dimension de la personne-ressource" (je n'invente rien, c'est là, allez voir et estimez vous heureux de ne pas être à la place de nos collègues anglophones quand ce genre de texte atterrit sur leur bureau!).

Je tombe enfin sur un document scandaleusement simple de l’addm 22, association départementale pour le développement de la musique et de la danse en Côtes d'Armor, qui explique dès le début qu'un "dumiste" est le titulaire d'un Diplôme universitaire de musicien intervenant (c'est le fameux DUMI!), que ce n'est pas un salarié de l'Education nationale car il n'intervient pas qu'en milieu scolaire, mais aussi dans des écoles de musique, des crèches, des foyers de personnes handicapées, etc. Comme le dumiste est au service des collectivités territoriales, l'addm22 aime bien dire que c'est un "acteur culturel du territoire".  Bon, je commence à voir de quoi il retourne. Un dumiste, c'est un malheureux qui a fait des études de musique et qui s'est tapé le Conservatoire pendant 10 ans, à qui, avec beaucoup de chance (ça représente apparemment 50% des diplômés), le Conseil général ou une communauté d'agglomérations (c'est la fameuse CA du début!) va offrir un mirobolant "équivalent plein temps" de 20 heures hebdomadaires probablement distribuées entre établissements scolaires et écoles de musique, atomisées dans tous les coins du département, avec déplacements et contraintes horaires à la clé. Et j'imagine, que, lors de leurs interventions, déterminer ce qui est du ressort de l'établissement et ce qui relève de la collectivité locale, notamment quand il s'agit de financer quelque chose, ne doit pas être de tout repos non plus. Les 50% des dumistes restants devront, selon l'étude sur les "situations d'emploi" citée plus haut, se contenter de contrats portant sur des "durées inférieures à 10 heures hebdomadaires", peut-être parce que leur dimension de personne-ressource n'est pas suffisamment lisible?

Je voudrais dire toute mon admiration aux dumistes, dont j'ignorais l'existence jusqu'à hier. Ils font un bien beau métier, qu'ils ont l'air d'exercer dans des conditions pas particulièrement favorables. Les quelques témoignages de dumistes que j'ai lus sur l'internet montrent qu'ils s'acquittent de leur tâche avec passion, conviction et sincérité. Certes, ils emploient des mots comme "envie", "plaisir", "jeu" et "découverte" mais ce n'est pas très grave car la "capacité de rédiger des circulaires administratives" ne figure pas dans leur "référentiel de compétences"!

Auteur: Internet

Info: http://scrapojapon.canalblog.com, Recherche dumiste, désespérément. 19 février 2008

[ marginal sécant ]

 

Commentaires: 0

Ajouté à la BD par miguel

corps-esprit

Lourdement handicapé, Stephen Hawking, auteur d’"Une brève histoire du temps" est le héros d’un film. L’anthropologue des sciences Hélène Mialet dévoile le système d’une personnalité fascinante.

Au-delà de ses contributions importantes sur la connaissance des trous noirs, l’exceptionnalité de l’homme réside aussi dans sa condition physique. Atteint de sclérose latérale amyotrophique, une dégénérescence des neurones moteurs, il est paralysé depuis des dizaines d’années. Ne pouvant plus parler, il communique par l’intermédiaire d’un ordinateur équipé d’un logiciel de synthèse vocale qu’il dirigeait au départ avec son doigt, plus récemment par une contraction de la joue. Grâce à ce système, il a écrit Une Brève Histoire du temps, ouvrage de référence vendu à près de dix millions d’exemplaires. A 73 ans, Stephen Hawking, élevé au statut d’icône du génie scientifique, continue d’écrire et de donner des conférences. Comment? C’est la question posée par Madame Mialet, philosophe et anthropologue des sciences, professeure invitée à l’Université de Californie à Davis, aux Etats-Unis, qui a côtoyé ce scientifique hors du commun. Elle a passé dix ans à l’interviewer, l’observer, à rencontrer ses proches et ses collègues.

Samedi Culturel: Qui est Stephen Hawking?

HM Difficile de répondre, parce qu’il est une icône. On imagine que Stephen Hawking, lourdement handicapé, est capable, seul, de produire de la science. Il incarne le mythe de notre modernité, qui trouve son origine dans l’interprétation de la pensée de Descartes, selon laquelle on n’a pas besoin d’un corps pour penser et qu’il suffit d’avoir un esprit. Stephen Hawking renchérit lui-même en disant: "Pour faire de la physique, un esprit suffit." J’ai pris ça au mot et en tant qu’ethnographe, j’ai passé des années à le suivre, à étudier sa façon de travailler, à interviewer ses étudiants et ses collègues. Il est devenu en quelque sorte ma tribu! J’ai reconstruit le réseau de compétences qui l’entoure et mis en évidence un collectif complexe. La question posée dans mon livre est plutôt: où est Stephen Hawking dans ce collectif?

SC : Est-ce que l’esprit brillant de Stephen Hawking suffit seul à faire de la science?

HM : Non, je ne pense pas. Parce qu’il ne peut pas bouger ni manipuler des objets. Il ne peut parler que par l’intermédiaire d’une voix de synthèse générée par un ordinateur. Il doit tout déléguer aux machines et aux individus. Ses proches ont appris à communiquer avec lui plus rapidement en lui posant des questions auxquelles il répond par oui ou non. Le type de vocabulaire engrangé dans son ordinateur est organisé, et le logiciel complète systématiquement ses phrases en reconnaissant ses motifs d’expression. Les gens aussi finissent ses phrases, ce qu’il n’aime pas d’ailleurs, et mettent en action ses énoncés. Contrairement à ce que l’on croit, tout n’est pas dans sa tête mais aussi à l’extérieur. Ses étudiants organisés autour de lui mènent les projets de recherche, font les calculs. En bout de course il est l’auteur principal et ceux qui l’ont aidé disparaissent du processus.

SC : Stephen Hawking est-il différent d’autres scientifiques?

HM : Non, son corps étendu au collectif lui permet de faire de la science comme tout chercheur à son niveau. Les chefs de laboratoire aussi lancent des pistes de recherche à d’autres qui font les expériences. Stephen Hawking est singulier car il est très collectivisé, et non parce qu’il serait coupé du monde social et matériel.

SC : Comment a-t-il réagi à la lecture de votre livre?

HM : Je le lui ai envoyé mais je n’ai pas eu de retour. Sa secrétaire m’a dit qu’il avait trouvé bizarre la couverture choisie par l’éditeur de la version anglaise [l’image montre une statue en marbre de lui dans son fauteuil flottant au milieu des étoiles]. Je suis assez d’accord, car cette illustration retombe dans le mythe du personnage.

SC : Comment se passaientvos rencontres?

HM : Ça m’a pris deux ans pour avoir accès à lui. Mon premier entretien, en 1998, a été très déstabilisant car toute l’interaction passait par l’ordinateur. Je n’arrivais pas à lire son langage corporel. Je posais mes questions, il répondait en tapant, et sa voix synthétique parlait souvent avec un décalage temporel. Nos deux regards étaient dirigés vers l’écran. Parfois, ses assistants s’occupaient de lui, ce qui troublait l’interaction. Un moment, la machine s’est arrêtée de fonctionner. En fait, quand on est très proche de lui, on ne sait plus où il est. Alors que quand on s’en éloigne, à travers les médias et les films, on perçoit Stephen Hawking, le génie, c’est-à-dire un individu doté de qualités stables, d’histoires reproduites sur sa personne et ses découvertes scientifiques.

SC : L’avez-vous revu par la suite?

HM : Oui, à la conférence sur la théorie des cordes à Berlin, en 1999. Nous avons dansé avec lui dans un night-club! Son attaché de presse avait passé plusieurs semaines à Berlin pour sélectionner le plus accessible. Quand nous sommes arrivés dans le night-club, il est allé au milieu de la piste et tout le monde a dansé autour de lui. Plus tard, à la fin de mon séjour à Cambridge, en 2007, il m’a invité plusieurs fois à souper à l’université ou chez lui. Il avait envie de parler plus intimement de sa façon de penser et de travailler.

SC : Comment pense Stephen Hawking?

HM : A cette question, il a répondu: "En images" Selon ses étudiants, il résout des problèmes en les mémorisant. Il a développé une façon de penser de manière visuelle en manipulant des diagrammes que ces étudiants dessinent sous ses yeux. Ils écrivent aussi, sous ses yeux, les démonstrations des équations à résoudre, et lui dit si elles sont justes ou pas. Mes observations montrent que même le travail intellectuel le plus abstrait nécessite l’usage du corps, dans le cas de Stephen Hawking, de ses yeux qui regardent les autres travailler et du corps des autres qui dessinent les diagrammes. C’est un va-et-vient constant.

SC : Quelle relation entretient-il avec son entourage?

HM : Il a beaucoup d’humour, ce qui lui permet d’établir un lien rapide avec les gens. Il fait preuve d’une grande force de caractère et exerce aussi un certain contrôle sur son entourage. Ses assistants les plus proches, qui s’occupent de la logistique, des voyages, restent rarement plus d’un an car ils sont épuisés de répondre jour et nuit à ses besoins. Et il maîtrise beaucoup son image auprès des journalistes.

SC : Il n’a jamais voulu changer l’accent américain de sa voix synthétique. Pourquoi?

HM : Beaucoup de compagnies anglaises ont voulu lui rendre son accent anglais. Il a résisté et n’a pas accepté car il disait que sa voix américaine était devenue sa voix. Des logiciels plus récents lui permettraient de communiquer plus vite mais il ne veut pas les changer car il s’y est habitué.

SC : En quoi Stephen Hawking est-il exceptionnel?

HM : Pour ses travaux scientifiques sur les trous noirs, évidemment, notamment ceux des années 1970, qui étaient des découvertes fondamentales. Mais pour moi, cet homme est exceptionnel car il devient un exemple par sa condition inhabituelle. Sa situation de handicap et de dépendance rend visible ce que l’on ne voit pas autrement, comme ce qu’il faut pour être une star, un chef de laboratoire, mais aussi ce qui est nécessaire pour penser visuellement ou pour qu’une conversation soit fluide.

A Cambridge, des archives sont en cours de construction avec les articles sur Stephen Hawking et ses propres articles. Elles posent la question de l’archivage d’un auteur à l’ère du digital. Pour lui, tout passe par la machine depuis longtemps, et il décide lui-même de ce qu’il veut garder ou non. Nous devenons tous dépendants de nos tablettes et ordinateurs, mais lui l’a été avant tout le monde. Il a utilisé des programmes qu’on utilise tous maintenant, comme ceux qui complètent ses mots et ses phrases. Stephen Hawking est un pionnier du post-humanisme. 

Auteur: Mialet Hélène

Info: Sur Le Temps.ch, 16 janvier 2015. A propos de : A la recherche de Stephen Hawking, de H M, 2014, Ed. Odile Jacob, 168 p.

[ starification ] [ scientifique vedette ]

 

Commentaires: 0

Ajouté à la BD par miguel

nanomonde

Comment l’IA impacte la recherche sur la structure des protéines

Chaque être humain possède plus de 20 000 protéines. Par exemple l’hémoglobine qui s’occupe du transport de l’oxygène depuis les poumons vers les cellules de tout le corps, ou encore l’insuline qui indique à l’organisme la présence de sucre dans le sang.

Chaque protéine est formée d’une suite d’acides aminés, dont la séquence détermine son repliement et sa structure spatiale – un peu comme si un mot se repliait dans l’espace en fonction des enchaînements de lettres dont il est composé. Cette séquence et ce repliement (ou structure) de la protéine déterminent sa fonction biologique : leur étude est le domaine de la « biologie structurale ». Elle s’appuie sur différentes méthodes expérimentales complémentaires, qui ont permis des avancées considérables dans notre compréhension du monde du vivant ces dernières décennies, et permet notamment la conception de nouveaux médicaments.

Depuis les années 1970, on cherche à connaître les structures de protéines à partir de la seule connaissance de la séquence d’acides aminés (on dit « ab initio »). Ce n’est que très récemment, en 2020, que ceci est devenu possible de manière quasi systématique, avec l’essor de l’intelligence artificielle et en particulier d’AlphaFold, un système d’IA développé par une entreprise appartenant à Google.

Face à ces progrès de l’intelligence artificielle, quel est désormais le rôle des chercheurs en biologie structurale ?

Pour le comprendre, il faut savoir qu’un des défis de la biologie de demain est la "biologie intégrative", qui a pour objectif de comprendre les processus biologiques au niveau moléculaire dans leurs contextes à l’échelle de la cellule. Vu la complexité des processus biologiques, une approche pluridisciplinaire est indispensable. Elle s’appuie sur les techniques expérimentales, qui restent incontournables pour l’étude de la structure des protéines, leur dynamique et leurs interactions. De plus, chacune des techniques expérimentales peut bénéficier à sa manière des prédictions théoriques d’AlphaFold.

(Photo) Les structures de trois protéines de la bactérie Escherichia coli, déterminées par les trois méthodes expérimentales expliquées dans l’article, à l’Institut de Biologie Structurale de Grenoble. Beate Bersch, IBS, à partir d’une illustration de David Goodsell, Fourni par l'auteur

La cristallographie aux rayons X

La cristallographie est, à cette date, la technique la plus utilisée en biologie structurale. Elle a permis de recenser plus de 170 000 structures de protéines dans la "Protein Data Bank", avec plus de 10 000 repliements différents.

Pour utiliser la cristallographie à rayons X, il faut faire "cristalliser les protéines". On dit souvent que cette technique est limitée par la qualité de cristaux de protéines, qui est moindre pour les grosses protéines. Mais cette notion ne correspond pas toujours à la réalité : par exemple, la structure du ribosome, l’énorme machine moléculaire qui assemble les protéines, a été résolue à 2,8 angströms de résolution. Venkatraman Ramakrishnan, Thomas Steitz et Ada Yonath ont reçu le prix Nobel de chimie en 2009 pour ce travail.

Avec le développement récent du laser X à électron libre (XFEL), il est devenu possible d’étudier simultanément des milliers de microcristaux de protéines à température ambiante et à l’échelle de la femtoseconde (10-15 secondes, soit un millionième de milliardième de seconde, l’échelle de temps à laquelle ont lieu les réactions chimiques et le repliement des protéines). Cette technique permet d’imager les protéines avant qu’elles ne soient détruites. Elle est en train de révolutionner la "cristallographie cinétique", qui permet de voir les protéines "en action", ainsi que la recherche de médicaments.

Pour l’instant, l’apport d’AlphaFold à l’étude de la structure des protéines par cristallographie s’est concentré dans la génération de modèles de protéines assez précis pour appliquer la technique dite de "remplacement moléculaire" à la résolution des structures.

La spectroscopie par résonance magnétique nucléaire

Une autre méthode expérimentale pour étudier la structure des protéines est la "spectroscopie par résonance magnétique nucléaire". Alors que son alter ego d’imagerie médicale, l’IRM, regarde la distribution spatiale d’un seul signal, caractéristique des éléments chimiques dans les tissus biologiques observés, en spectroscopie par résonance magnétique nucléaire, c’est un ensemble de signaux provenant des atomes constituant la protéine qui est enregistré (ce qu’on appelle le "spectre").

Généralement, la détermination de la structure par résonance magnétique est limitée à des protéines de taille modeste. On calcule des modèles de molécules basés sur des paramètres structuraux (comme des distances interatomiques), provenant de l’analyse des spectres expérimentaux. On peut s’imaginer cela comme dans les débuts de la cartographie, où des distances entre des points de référence permettaient de dessiner des cartes en 2D. Pour faciliter l’interprétation des spectres qui contiennent beaucoup d’information, on peut utiliser des modèles obtenus par prédiction (plutôt qu’expérimentalement), comme avec AlphaFold.

En plus de la détermination structurale, la spectroscopie par résonance magnétique nucléaire apporte deux atouts majeurs. D’une part, en général, l’étude est effectuée avec un échantillon en solution aqueuse et il est possible d’observer les parties particulièrement flexibles des protéines, souvent invisibles avec les autres techniques. On peut même quantifier leur mouvement en termes d’amplitude et de fréquence, ce qui est extrêmement utile car la dynamique interne des protéines est aussi cruciale pour leur fonctionnement que leur structure.

D’autre part, la spectroscopie par résonance magnétique nucléaire permet de détecter aisément les interactions des protéines avec des petites molécules (ligands, inhibiteurs) ou d’autres protéines. Ceci permet d’identifier les sites d’interaction, information essentielle entre autres pour la conception rationnelle de molécules actives comme des médicaments.

Ces propriétés font de la spectroscopie par résonance magnétique nucléaire un outil extraordinaire pour la caractérisation fonctionnelle des protéines en complémentarité avec d’autres techniques expérimentales et l’IA.

La "cryomicroscopie électronique"

La cryomicroscopie électronique consiste à congeler ultrarapidement (environ -180 °C) un échantillon hydraté dans une fine couche de glace, qui sera traversée par les électrons. Les électrons transmis vont générer une image de l’échantillon, qui après analyse, permet d’accéder à des structures qui peuvent atteindre la résolution atomique. En comparaison, un microscope optique n’a un pouvoir résolutif que de quelques centaines de nanomètres, qui correspond à la longueur d’onde de la lumière utilisée ; seul un microscope utilisant une source possédant des longueurs d’onde suffisamment faibles (comme les électrons pour la microscopie électronique) possède un pouvoir résolutif théorique de l’ordre de l’angström. Le prix Nobel de Chimie 2017 a été décerné à Jacques Dubochet, Richard Henderson et Joachim Frank pour leurs contributions au développement de la cryomicroscopie électronique.

Avec de nombreux développements technologiques, dont celui des détecteurs à électrons directs, depuis le milieu des années 2010, cette technique est devenue essentielle en biologie structurale en amorçant une "révolution de la résolution". En effet, la cryomicroscopie électronique permet désormais d’obtenir des structures avec une résolution atomique, comme dans le cas de l’apoferritine – une protéine de l’intestin grêle qui contribue à l’absorption du fer – à 1,25 angström de résolution.

Son principal atout est de permettre de déterminer la structure d’objets de taille moyenne, au-delà de 50 000 Dalton (un Dalton correspond environ à la masse d’un atome d’hydrogène), comme l’hémoglobine de 64 000 Dalton, mais également d’objets de quelques milliards de daltons (comme le mimivirus, virus géant d’environ 0,5 micromètre).

Malgré toutes les avancées technologiques précédemment évoquées, la cryomicroscopie ne permet pas toujours de résoudre à suffisamment haute résolution la structure de "complexes", constitués de plusieurs protéines. C’est ici qu’AlphaFold peut aider et permettre, en complémentarité avec la cryomicroscopie, de décrire les interactions au niveau atomique entre les différents constituants d’un complexe. Cette complémentarité donne une force nouvelle à la cryomicroscopie électronique pour son rôle à jouer demain en biologie structurale.

Les apports d’AlphaFold

AlphaFold permet de prédire la structure de protéines uniquement à partir de leur séquence avec la connaissance acquise par la biologie structurale expérimentale. Cette approche est révolutionnaire car les séquences de beaucoup de protéines sont connues à travers les efforts des séquençages des génomes, mais déterminer leurs structures expérimentalement nécessiterait des moyens humains et techniques colossaux.

À l’heure actuelle, ce type de programme représente donc un acteur supplémentaire de complémentarité, mais ne se substitue pas aux techniques expérimentales qui, comme nous l’avons vu, apportent aussi des informations complémentaires (dynamiques, interfaces), à des échelles différentes (des sites métalliques aux complexes multiprotéiques) et plus fiables, car expérimentalement vérifiées. Au-delà de la pure détermination structurale d’une protéine isolée, la complexité des systèmes biologiques nécessite souvent une approche pluridisciplinaire afin d’élucider mécanismes et fonctions de ces biomolécules fascinantes que sont les protéines.

Auteur: Internet

Info: Published: December 19, 2022 Beate Bersch, Emmanuelle Neumann, Juan Fontecilla, Université Grenoble Alpes (UGA)

[ gnose chimique ]

 

Commentaires: 0

Ajouté à la BD par miguel

fric

Faut-il réduire la taille des établissements bancaires ? Une stricte séparation entre banque de dépôt et banque d'investissement est-elle nécessaire ? Qu'en est-il des relations entre les pouvoirs publics et les banques ?
La Lettre des Académies, une publication commune de l'Académie royale de Belgique, l'Académie royale de Médecine de Belgique, l'Académie royale de langue et littérature françaises de Belgique, The Royal Academies for Science and the Arts of Belgium et l'Union Académique internationale, me pose la question mise en titre. Ma réponse sera publiée dans le N° 31.
Une réponse a été offerte indirectement à ces questions d'actualité, le 6 mars 2013, par Eric Holder, l'Attorney General des États-Unis, l'équivalent de notre Ministre de la justice.
Le cadre de sa déclaration était une audition du Comité judiciaire du Sénat américain. Les questions posées visaient à comprendre pourquoi aucun dirigeant d'établissement bancaire n'avait été poursuivi à la suite des événements qui avaient conduit à l'effondrement du système financier international en septembre 2008, le fait étant patent que l'origine de ce séisme se trouve au sein-même du système bancaire américain, et plus particulièrement dans l'émission de titres adossés à des prêts immobiliers résidentiels de qualité médiocre, les fameux prêts "subprime".
Répondant au Sénateur Chuck Grassley (républicain de l'Iowa), qui l'interrogeait sur l'apathie du ministère de la Justice dans la recherche de coupables, Eric Holder déclaraot ceci :
"Je crains que la taille de certains de ces établissements ne soit devenue si grande qu'il est devenu difficile de les poursuivre en justice, parce que des indications nous parviennent qui si nous les poursuivions - si nous procédions à des inculpations - cela aurait un impact négatif sur l'économie nationale, voire même sur l'économie mondiale, et il me semble que ceci est la conséquence du fait que certains de ces établissements sont devenus trop importants [...] Ceci a une influence inhibitoire sur, ou impacte, notre capacité à prendre les mesures qui seraient selon moi les plus adéquates..."
Holder ne dit pas explicitement qu'il existe entre le secteur bancaire et le ministère de la Justice un rapport de force et qu'au sein de celui-ci, le ministère de la Justice est en position défavorable, mais c'est bien ainsi que ses propos furent interprétés par les sénateurs qui l'interrogeaient. C'est également la manière dont sa réponse fut rapportée par la presse unanime.
* * *
Lorsqu'il était devenu manifeste à l'automne 2008 que certaines banques étaient à ce point stratégiques que leur chute, comme celle de Lehman Brothers qui venait d'intervenir, entraînerait celle du secteur financier tout entier, l'expression "Too Big to Fail" se répandit : trop grosse pour faire défaut. Elle s'emploie toujours, en concurrence avec l'expression officielle de "banque systémique", en référence au risque systémique : la mise en péril du système financier dans son ensemble.
En février 2013, dans une tribune libre du Financial Times, Neil Barofsky, qui avait été l'Inspecteur-général du Troubled Asset Relief Programme (TARP), le programme de sauvetage du système financier américain, employa une nouvelle expression calquée sur la première : "Too Big to Jail", trop grosse pour être mise en prison.
S'il était donc apparu en 2008 que certains établissements bancaires étaient à ce point cruciaux que leur faillite se répercuterait sur l'ensemble du système financier, il était devenu évident en 2013, et c'est ce que les propos du ministre de la Justice américain confirmaient, que le rapport de force entre ces mêmes banques et le gouvernement était tel qu'elles disposaient du pouvoir de maintenir le statu quo. Les banques systémiques disposaient désormais du pouvoir de faire obstacle à ce qu'on les empêche de mettre en péril l'ensemble du système financier, et ce pouvoir, elles l'exerçaient.
Trois approches étaient envisageables vis-à-vis des banques systémiques :
1) les démanteler, jusqu'à ce que la taille des unités recomposées soit telle que leur défaut n'entraîne plus d'effet domino ;
2) décourager ou interdire celles de leurs activités qui génèrent du risque systémique, à savoir les paris sur les variations de prix (ce qu'on désigne habituellement du terme trop vague de "spéculation").
3) accroître les réserves par rapport à leur niveau d'avant-crise, en espérant que le calcul soit cette fois fait correctement.
À chaud, à l'automne 2008, les deux premières options uniquement étaient sérieusement prises en considération, la troisième était écartée du fait de sa touchante naïveté. Seule cette dernière pourtant serait adoptée en juillet 2011 avec les normes Bâle III, qui devraient être mises en vigueur entre 2016 et 2019, du moins si les efforts des lobbies qui cherchent aujourd'hui à les bloquer devaient échouer.
Dans une approche en termes de réserves, rien n'est fait - il faut le souligner - pour endiguer le risque systémique : on s'efforce seulement d'évaluer les pertes éventuelles. Bâle III ne distingue pas non plus les risques inévitables, dus aux impondérables d'un avenir incertain, et les risques encourus délibérément par les banques quand elles font des paris sur les variations de prix.
* * *
Dans trois cas récents, les efforts du secteur bancaire pour faire obstacle à ce qu'on l'empêche de mettre à l'avenir l'ensemble du système financier en péril, furent couronnés de succès.
Un tribunal à Washington invalidait le 29 septembre 2012 des mesures prises par la CFTC (Commodity Futures Trading Commission), le régulateur américain du marché des produits dérivés, règles qui auraient plafonné le volume des positions qu'un intervenant peut prendre sur le marché à terme des matières premières, afin qu'il ne puisse à lui seul le déséquilibrer. Le secteur s'était opposé à de telles mesures, noyant la commission sous un flot d'avis défavorables, s'assurant ensuite - grâce au parti républicain - que le budget de l'organe de contrôle prévu ne soit pas voté, assignant enfin la CFTC devant les tribunaux. Cette dernière stratégie s'avérerait payante.
On avait appris quelques jours auparavant, le 24 septembre 2012, que l'IOSCO (International Organisation of Securities Commissions), organisme fédérant les régulateurs nationaux sur le marché des matières premières, et à qui le G20 avait confié le soin de réguler le marché du pétrole, jetait l'éponge. Lors de la réunion qui venait de se tenir, les contreparties : l'Agence Internationale de l'énergie, l'OPEP (Organisation des pays exportateurs de pétrole) et les compagnies Total et Shell, avaient constitué un front du refus. Les compagnies pétrolières avaient affirmé qu'en cas de réglementation du secteur, elles cesseraient de communiquer à leurs organismes de supervision les données relatives aux prix pratiqués.
Le mois précédent, le 22 août 2012, alors que la SEC (Securities and Exchange Commission), le régulateur des marchés boursiers américains, avait mis au point un ensemble de mesures en vue d'empêcher que ne se reproduise un effondrement du marché des capitaux à court terme (money market), tel celui qui l'avait dévasté en septembre 2008, elle n'était pas parvenue à réunir une majorité en son sein, l'un des membres du comité - très lié au secteur - ayant refusé son aval.
Je concluais ainsi ma chronique dans le quotidien Le Monde, où je rapportais ces trois illustrations (°) :
"La finance dispose donc des moyens de neutraliser toute tentative de réduire la nocivité de ses pratiques. Elle s'est immunisée contre les efforts engagés par la communauté pour se protéger contre un nouvel effondrement, efforts motivés bien entendu par le souci de se prémunir contre les conséquences économiques et sociales d'une telle catastrophe. Toute mesure préventive d'un nouveau désastre étant systématiquement désamorcée, celui-ci devient inéluctable".
J'avais donné pour titre à ma chronique elle-même, une citation d'Arnold J. Toynbee : "Les civilisations ne meurent pas assassinées, elles se suicident".
Tous les efforts menés en vue d'une nouvelle régulation de la finance recourent à la même stratégie : le monde financier est consulté par les autorités, se tient ensuite une négociation visant à ce que se dégage un compromis entre les exigences des uns et des autres. La condition essentielle pour qu'une telle stratégie réussisse est que l'industrie financière s'identifie à l'intérêt général, qu'elle reconnaisse et promeuve la nécessité de garantir un cadre qui maintienne la pérennité des institutions financières sans affecter pour autant la bonne santé de l'économie. Cette condition-là n'est hélas pas remplie.
John Maynard Keynes écrivait en 1926 dans un essai consacré à "La fin du laisser-faire" : "Suggérer à la City de Londres une action sociale en vue du bien public est du même ordre d'idée que discuter L'origine des espèces avec un évêque il y a soixante ans". La remarque n'a rien perdu de son actualité, et notre tolérance, à nous citoyens, face à ce scandale, toujours aussi grande, suggérant que nous nous sommes faits une raison devant un rapport de force entre le secteur bancaire et nous qui semble destiné à nous demeurer éternellement défavorable.

Auteur: Jorion Paul

Info: 13 AOÛT 2013

[ société ] [ pouvoir ] [ profit ]

 

Commentaires: 0

spiritualité

La question qui s'impose est la suivante : sur quels arguments les promoteurs de cette technique [la méditation de la pleine conscience] se basent-ils pour établir un lien de filiation entre Vipassana – la Vision Pénétrante – et la Pleine Conscience ? Dans le Septième Pas de l'Octuple Sentier, l'Attention Juste (discipline de Dhyâna), et en particulier dans la contemplation du corps, des sentiments, de l'esprit et des phénomènes, il est régulièrement mentionné que le pratiquant doit être attentif, avec une conscience claire. Il développe, par cette pratique, certains "pouvoirs psychiques" : ouïe céleste, vision du cœur des autres êtres, mémoire des naissances précédentes, vision céleste supra-humaine et enfin, avec la cessation des passions, la délivrance de l'esprit par la sagesse. Ces indications comportementales relatives à la contemplation, en particulier pour ce qui concerne l'attention et la conscience claire, pourraient – exception faite des "pouvoirs psychiques" – sembler en adéquation avec la pratique de la Pleine Conscience, telle que définie par ses promoteurs. Cependant, ces derniers omettent un détail essentiel de la pratique de l'Attention juste : "Cette claire connaissance (de la nature des éléments contemplés) est présente en lui (le pratiquant) parce qu'il possède la compréhension et la vision profonde intérieure."

Que signifie "posséder la compréhension et la vision profonde intérieure" ? Ça signifie que la pratique de la contemplation dans l'Attention juste s'appuie sur la Prajna et non sur une intention qui, privée de la Compréhension juste (Premier Pas de l'Octuple Sentier) et de la vision profonde intérieure (Vision Pénétrante) préalables, est une activité du mental sous l'emprise de l'Ignorance, qui est le premier des douze liens interdépendants (qui génèrent le Samsara). Autrement dit, la méditation de la Pleine Conscience fonctionne en quelque sorte à l'envers, par rapport à l'Attention juste. En effet, pour la mindfulness, c'est l'attention intentionnelle qui est le préalable ou la cause ou encore le moteur, alors que pour le Bouddhisme, c'est exactement l'inverse : ce sont la compréhension et la vision profonde intérieure qui sont moteur de l'Attention juste. Et de fait, la pratique de l'attention intentionnelle – même "non jugeante" – ne peut en aucun cas aboutir à la compassion et à la sagesse telles qu'elles sont définies dans le Bouddhisme. En d'autres termes, il n'y a aucun lien de filiation justifié entre Vipassana et la méditation de la Pleine Conscience.

Par ailleurs, la notion de "présence" est étrangère au Bouddhisme. On retrouve ce concept dans les religions éternalistes, sans doute en lien avec les états de samadhi qui provoquent le sentiment d'une union avec le divin, lequel est non soumis au temps et donc éternellement présent. Si l'on devait préciser les choses, dans le Bouddhisme, on réalise plutôt – par l'éclairage de la Prajna – une Absence qu'une Présence, non pas dans le sens d'un néant, d'un "rien", mais dans le sens de l'Anatman – le Non soi – ou encore de la Vacuité non phénoménale (et donc ne résultant pas de l'interdépendance des phénomènes).

La méditation de la Pleine Conscience, privée de Prajna, est – du point de vue bouddhique – une pratique "aveugle", sans discernement. Le pratiquant n'observe pas le corps, les sentiments, l'esprit et les phénomènes avec l'œil de la Prajna – qui est l'œil du Bouddha qui possède la Vue juste, ou la Vision Pénétrante –, c'est-à-dire selon le mode de Prajna, mais avec les représentations mentales "souillées" (ou disons "orientées") par des apprentissages qui consistent à mettre spontanément des mots sur les choses, comme si celles-ci étaient enfermées dans des cases linguistiques ou sémantiques qui se substituent au réel et donc au "moment présent". Quand le pratiquant entend une cloche, il reconnaît la cloche ; il n'entend pas la cloche (comment sait-il qu'il s'agit d'une cloche ?). Et bien qu'il vide – ou plutôt tente de vider – la cloche de tout jugement, de toute émotion perturbatrice, de toute représentation... il n'en demeure pas moins vrai qu'il contemple un objet surnuméraire, sans pour autant reconnaître spontanément la véritable nature de cet objet, c'est-à-dire sa vacuité intrinsèque. Il peut bien sûr analyser secondairement cet objet comme étant constitué d'interdépendance d'autres objets ou phénomènes, il n'en demeure pas moins vrai que cette analyse n'est pas le fait de la Prajna mais de la pensée discursive, dualiste. Au sens strict, ce n'est pas une Vue (Vision Pénétrante).

Cette "présence attentive", cette "Pleine Conscience" n'est pas une qualité bouddhique. C'est vraisemblablement une forme de samadhi, qui se développe aussi bien dans les disciplines éternalistes (yoga) que dans les états hypnotiques de modification de conscience induits par la prière ou la récitation d'un mantra. Sans doute peut-on en tirer quelques bénéfices au plan de la santé physique ou mentale, mais ce n'est certainement pas l'expression de la Compassion bouddhique ou d'une Sagesse (la Compassion est une Sagesse, dans le Bouddhisme, et non un "état d'esprit"), telle qu'elle résulte de l'expérience de la Vacuité et de la Sapience (clarté/illumination). Il n'y a donc aucun argument sérieux qui puisse affirmer qu'il existe un lien de filiation entre la Vision Pénétrante, qui est l'activité de Prajna, et la "Pleine Conscience" qui n'a aucun équivalent dans le Bouddhisme.

Cependant, on ne peut blâmer les promoteurs de la Pleine Conscience d'être à l'origine de cet amalgame fâcheux, quand on constate que certains enseignants de tradition bouddhiste, généralement rattachés au Théravada mais aussi au Zen ou au Bouddhisme tibétain, en font également la promotion. Ces "maîtres" ont pour la plupart pignon sur rue, et, si l'on y regarde d'assez près, ce sont plutôt des laïcs, non spécifiquement rattachés au Bouddhisme (ils n'ont pas pris refuge), qui les apprécient. Ces enseignants n'hésitent pas à s'associer aux concepts new age. Et pour cause, ils n'ont en réalité aucune Vue ou Compréhension juste de ce qu'est la nature de l'esprit, du corps, des sensations et des phénomènes. Tout ce qu'ils savent, parce qu'ils ont bien appris la leçon, c'est que les phénomènes sont vides de nature propre parce qu'ils sont en interdépendance. Et quand un maître zen, dans l'émission "Sagesse Bouddhiste", affirme : "en zazen, nous réalisons que rien n'existe par soi-même, que tout est interdépendant", en présence de Christophe André, le psychiatre promoteur de la Pleine Conscience en France, également invité à l'émission sus-nommée, on atteint véritablement le pompon.

Dans un échange sur les réseaux sociaux, une personne me demande : "pourquoi faire zazen quand on a eu kenshô ?" La question est légitime, car dans l'esprit de cette personne, on pratique zazen pour obtenir kenshô comme on pratique l'attention intentionnelle pour obtenir la Pleine Conscience. Et à la façon dont l'exprime le maître zen à l'émission Sagesse Bouddhiste, il y a lieu de penser en effet qu'on pratique zazen pour réaliser la vacuité phénoménale (l'interdépendance phénoménale). Et dans l'esprit de cette personne sur les réseaux sociaux, quand on a réalisé ce qu'il y a à réaliser, le but est atteint et n'a donc plus à être recherché (il faut se souvenir que l'intention suppose le but, par définition). Mais, ainsi que je l'exprime plus haut à propos de Vipassana, c'est comprendre zazen à l'envers, si j'ose dire. Il n'y a pas d'attention intentionnelle. Il y a juste activité de la Prajna.

Un bon enseignant du Zen devrait commencer par dire à son élève qu'il n'y a pas dans le Zen (ou dans le Bouddhisme en général) de but à atteindre qui ne soit déjà atteint. Zazen ne consistera donc pas à pratiquer pour devenir un bouddha ou pour atteindre des états de conscience spécifiques, qu'ils soient transcendants ou qu'ils reflètent l'ennui, l'errance, ou encore des sensations de bien être ou – plus rarement – orgasmiques. Zazen ne consiste pas à être autre chose que soi-même, non pas selon le mode de la pensée dualiste, c'est-à-dire selon le mode des représentations psychologiques, culturelles ou sociétales, mais selon le mode de Prajna. 

Pour conclure, je dirai que dans la méditation de la Pleine Conscience, c'est l'activité du mental qui prévaut et Prajna est passive, alors que dans la pratique de zazen, c'est l'activité de Prajna qui est active, quels que soient par ailleurs les états de conscience, car ceux-ci ne reflètent jamais que des phénomènes transitoires, vide de nature propre et, ultimement (si l'on s'y attache), facteur de souffrance. Dans le Zen, on appelle "makyo" ces états de conscience, et n'ont strictement rien à voir avec kenshô. 

Cela étant, qu'on ne s'y méprenne pas : l'activité de Prajna n'est pas spontanée dans la conscience. Elle s'éveille à condition d'atteindre la coïncidence de l'esprit observé (objet) et l'esprit observant (sujet). Dans cette coïncidence, la dualité sujet/objet disparaît. C'est l'Absence (et non la Présence). C'est l'Anatman – le Non-soi – et non le Soi. Ne vous y trompez pas.

Auteur: Dumè Antoni

Info: https://voirsavraienature.blogspot.com/2020/05/activite-du-mental-et-activite-de-la.html?

[ adaptation moderne ] [ confusions ] [ différences ] [ enseignements traditionnels ] [ grand véhicule ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson